Ngân hàng Starling Bank của Anh cảnh báo về nguy cơ lừa đảo giả giọng nói bằng công nghệ AI đang phổ biến. Nghiên cứu cho thấy hơn 1/4 người đã trở thành mục tiêu của các cuộc gọi lừa đảo giả giọng. Ngân hàng khuyến nghị khách hàng thiết lập "cụm từ an toàn" và không chia sẻ thông tin nhạy cảm qua tin nhắn.
Trong thời đại công nghệ tiên tiến, công nghệ trí tuệ nhân tạo (AI) đã trở thành công cụ hữu ích cho nhiều ngành nghề, bao gồm việc sao chép giọng nói của con người. Tuy nhiên, công nghệ này cũng có thể bị lợi dụng bởi kẻ xấu với mục đích lừa đảo.
Ngân hàng Starling Bank của Anh đã cảnh báo về nguy cơ lừa đảo giả giọng nói bằng AI. Nghiên cứu của ngân hàng cho thấy hơn 1/4 số người đã trở thành mục tiêu của các cuộc gọi lừa đảo giả giọng.
Cách thức hoạt động của trò lừa đảo này là kẻ gian sao chép giọng nói của nạn nhân bằng AI và sau đó sử dụng nó để thực hiện cuộc gọi lừa đảo. Họ thường yêu cầu nạn nhân chuyển tiền bằng giọng nói đã được sao chép.
Ngân hàng Starling Bank khuyến nghị khách hàng thiết lập "cụm từ an toàn" - một cụm từ đơn giản, ngẫu nhiên, dễ nhớ và khác với các mật khẩu - để xác minh danh tính qua điện thoại. Họ cũng khuyến nghị khách hàng không chia sẻ cụm từ an toàn qua tin nhắn, vì tin nhắn có thể bị kẻ gian nhìn thấy.