Lừa đảo qua giọng nói ngày càng tinh vi

21/12/2024 - 06:22

PNO - Giới chuyên gia lo ngại việc để các mô hình AI tương tác với giọng nói mô phỏng có thể dẫn đến những vụ lừa đảo khó nhận biết.

“Bà Daisy” là một công cụ AI được phát triển để ứng phó với những kẻ lừa đảo - Ảnh minh họa: Getty Images
“Bà Daisy” là một công cụ AI được phát triển để ứng phó với những kẻ lừa đảo - Ảnh minh họa: Getty Images

Vào tháng Mười một vừa qua, Gary Cunningham - một doanh nhân ở TP Houston, Mỹ - trình báo với cảnh sát việc công ty anh bị lừa đảo 20.000 USD bằng thủ đoạn giả mạo giọng nói.

Hằng tháng, công ty của Cunningham vẫn thường xuyên chuyển tiền từ tài khoản này sang tài khoản khác. Lần này, nhân viên kế toán của công ty nhận được cuộc gọi từ người mà cô ấy nghĩ chính là Cunningham. Giọng nói qua điện thoại bảo cô ấy chuyển tiền đến một ngân hàng mới.

Các email theo sau từ tài khoản của Cunningham cũng xác minh giao dịch với kế toán. Chỉ khi không thấy tiền vào tài khoản như lịch trình, Cunningham mới gọi cho nhân viên kế toán và bất ngờ khi biết số tiền đã được gửi đến một ngân hàng lạ.

Tiến sĩ Patrick Dicks - chuyên gia về trí tuệ nhân tạo và tự động hóa tại bang South Carolina, Mỹ - cho biết, những trường hợp giả mạo và lừa đảo qua giọng nói đang ngày càng phổ biến.

Ông nói: “Ai đó có thể đứng cạnh bạn, ghi âm giọng nói của bạn mà bạn không hề biết. Họ cũng có thể lấy một chút dữ liệu giọng nói mà bạn đăng trên internet để xử lý qua phần mềm”.

Cục Điều tra liên bang Mỹ (FBI) trong một báo cáo vào tháng Ba cho biết đã ghi nhận khoản thiệt hại 12,5 tỉ USD từ các vụ lừa đảo trực tuyến trong năm 2023.

Starling Bank - một công ty cho vay trực tuyến tại Anh - lưu ý: những kẻ lừa đảo có khả năng sử dụng AI để sao chép giọng nói một người chỉ từ 3 giây âm thanh trong video mà nạn nhân đăng trên internet. Sau đó, những kẻ lừa đảo có thể xác định bạn bè, thành viên gia đình của nạn nhân và sử dụng giọng nói được giả mạo bằng AI để dàn dựng một cuộc gọi điện thoại yêu cầu chuyển tiền.

Các ngân hàng đang khuyến khích mọi người nên chia sẻ một “cụm từ an toàn” với những người thân. Đây phải là một cụm từ đơn giản, ngẫu nhiên, dễ nhớ và khác với các mật khẩu thông thường, giúp xác minh danh tính của người gọi qua điện thoại.

Giới chuyên gia lo ngại việc để các mô hình AI tương tác với giọng nói mô phỏng có thể dẫn đến những vụ lừa đảo khó nhận biết. Vào tháng Sáu, OpenAI đã trì hoãn chế độ giọng nói nâng cao trong ChatGPT vì lo ngại về vấn đề an toàn. Theo tính toán, chi phí trung bình để thực hiện một vụ lừa đảo bằng giọng nói AI chỉ khoảng 0,75 USD.

“Bà Daisy” - một ứng dụng do tập đoàn viễn thông Virgin Media O2 tại Anh tạo ra từ công nghệ AI - đã trở thành vũ khí mới nhất trong cuộc chiến chống lừa đảo qua điện thoại. Được thiết kế với công nghệ xử lý ngôn ngữ tự nhiên tiên tiến và một chút hài hước, “Bà Daisy” ngọt ngào, lịch sự luôn sẵn sàng trả lời cuộc gọi của kẻ lừa đảo và khiến chúng bận rộn.

Virgin Media O2 đăng số điện thoại của “Bà Daisy” trên các diễn đàn trực tuyến nhiều khả năng có các kẻ lừa đảo, dẫn dụ chúng gọi. Bà sẽ kiên nhẫn lắng nghe, đặt ra vô số câu hỏi và chia sẻ những câu chuyện chẳng hạn về chú mèo của mình, trong khi không bao giờ tiết lộ một chút thông tin cá nhân nào.

Những kẻ lừa đảo thường dùng thủ đoạn gọi cho càng nhiều người càng tốt để từ đó có thể nâng số lượng nạn nhân sập bẫy. “Bà Daisy” sẽ hạn chế hiệu quả hoạt động của chúng bằng cách làm chúng lãng phí thời gian, từ đó giúp giảm số lượng nạn nhân bị nhắm tới.

Năm 2023, Virgin Media O2 đã giúp chặn hơn 315 triệu USD từ giao dịch đáng ngờ. Theo công ty, “Bà Daisy” được phát triển dựa trên nghiên cứu cho thấy: lý do hàng đầu khiến công chúng không muốn tự mình giữ chân những kẻ lừa đảo trong cuộc trò chuyện là vì họ không muốn lãng phí thời gian cá nhân. Trong khi đó, “Bà Daisy” có vô hạn thời gian rảnh rỗi.

Linh La (theo The Register, Fox26 Houston, Forbes)

 

news_is_not_ads=
TIN MỚI