Ấn Độ: Những kẻ lừa đảo dùng AI giả giọng trẻ em để tống tiền cha mẹ

12/02/2024 - 15:53

PNO - Những kẻ lừa đảo ở Ấn Độ dùng AI giả giọng nói của trẻ em rồi sau đó gọi điện yêu cầu cha mẹ chúng chuyển tiền.

 


 

 

Âm thanh deepfake có thể được tạo bằng một đoạn clip thực về giọng nói của mục tiêu. ẢNH: LIANHE ZAOBAO

Những kẻ lừa đảo đang sử dụng nhiều chiêu trò để lừa đảo, tống tiền 

Cuối tháng 1 vừa qua,  ông Himanshu Shekhar Singh đã trải qua những giây phút kinh hoàng vì nghĩ rằng con trai mình bị bắt cóc, tống tiền. 

Himanshu Shekhar Singh kể, vào ngày 8/1, ông nhận được cuộc gọi từ một số điện thoại nước ngoài. Người gọi nhận mình là cảnh sát, nói với ông rằng cậu con trai 18 tuổi của ông đã bị bắt cùng một nhóm tội phạm hiếp dâm, "canh sát" này yêu cầu ông chuyển 30.000 Rs (480 USD) để xóa tên con ông khỏi danh sách tội phạm.

“Phút tiếp theo, tôi nghe đầu bên kia nói: ''Ba ơi làm ơn trả tiền cho anh ta, họ là cảnh sát thực sự, xin hãy cứu con". Tôi không thể nghi ngờ dù chỉ một giây vì đó chính là giọng của con tôi. Cách nói chuyện, cách khóc… mọi thứ đều giống" - ông kể.

Không nghĩ ngợi nhiều, ông đã chuyển ngay cho kẻ bắt cóc 10.000 Rs rồi đến trường tìm con trai. Khi đến nơi, ông phát hiện con trai mình đang làm bài kiểm tra và không hề hấn gì.

Theo truyền thông Ấn Độ, đây là một trong 3 trường hợp nổi bật trong những tuần gần đây tại Ấn Độ khi những kẻ lừa đảo dùng AI để nhân bản giọng nói trẻ em nhằm lừa cha mẹ các em chuyển tiền.

Một bà mẹ ở Noida, bang Uttar Pradesh, cũng nhận được một cuộc gọi mà những kẻ lừa đảo sử dụng công nghệ để bắt chước giọng nói của con trai bà.

May mắn thay, con trai bà đang ngồi học trước mặt bà nên chúng không thể lừa tiền.

“Điều đáng lo ngại là tội phạm mạng đang nhắm mục tiêu vào trẻ em. Họ lấy thông tin chi tiết về những đứa trẻ và cha mẹ chúng từ đâu? Việc này phải được điều tra kỹ lưỡng với mức độ ưu tiên cao nhất. Những trường hợp như vậy không xảy ra thường xuyên lắm, nhưng gần đây đã có sự gia tăng. Chúng tôi đang cố gắng hiểu bằng cách nào bọn tội phạm mạng có thể tạo ra giọng nói để lừa gạt” - cảnh sát Manish Kumar Mishra cho biết.

Những trường hợp nhân bản giọng nói nhằm lừa đảo, tống tiền đang nở rộ ở nhiều nơi khác trên thế giới.

Hôm 4/2, một nhân viên công ty tài chính ở Hồng Kông bị lừa tham gia vào một cuộc họp trực tuyến. Tại cuộc họp, những kẻ lừa đảo đã tạo ra "giám đốc tài chính" bằng công nghệ deepfake và chỉ đạo nhân viên trên chuyển 25 triệu USD.

Thảo Nguyễn (theo Strait Times)

 

news_is_not_ads=
TIN MỚI