Trò bịp ‘ghép’ mặt phụ nữ để quảng cáo thuốc kích dục

04/04/2024 - 10:19

PNO - Không chỉ người nổi tiếng, cả phụ nữ bình thường cũng bị những kẻ lừa đảo cắt ghép video để quảng cáo phản cảm.

Đang đi hưởng tuần trăng mật thì Michel Janse (27 tuổi) bất ngờ hay tin mình bị “nhân bản” theo cách thức thiếu đạo đức.

Michel Janse làm công việc sáng tạo nội dung trên mạng xã hội, cô có một lượng người yêu thích nhất định.

Cô chấn động sau khi một vài fan hâm mộ cho biết, một người có vẻ ngoài giống hệt cô vừa xuất hiện trong một mẫu quảng cáo thuốc chữa yếu sinh lý nam trên YouTube.

Janse, một phụ nữ truyền thống, phải khổ sở khi trở thành nhân vật chính của một mẫu quảng cáo thuốc kích dục lừa đảo. (Ảnh: WashingtonPost)
Janse là nạn nhân bị ghép video để quảng cáo phản cảm

Dễ làm và độc hại

“Phiên bản” giả mạo Janse được cắt ghép từ một video thật Janse quay trước đó. Nhân vật này nói những lời dung tục mà Janse, một phụ nữ truyền thống, không bao giờ nói, để quảng cáo thuốc kích dục “núp bóng” thuốc trị rối loạn cương dương.

Sử dụng công cụ cắt ghép tạo nên gương mặt lẫn giọng nói giả mạo (deepfake) chân thật hơn, kẻ lừa đảo có thể khiến một sản phẩm phản cảm, không rõ nguồn gốc trở nên đáng tin.

Giới chuyên gia công nghệ và hoạt động nhân quyền lo ngại, khi kỹ thuật deepfake không ngừng được nâng cấp, chiêu trò lừa đảo bằng cách đánh cắp hình ảnh người khác sẽ nở rộ. Những mẫu quảng cáo độc hại tiềm ẩn ảnh hưởng tiêu cực đến cộng đồng, nhất là với nữ giới.

Diễn viên gạo cội Tom Hanks, ngôi sao “triệu view” trên YouTube - Jimmy Donaldson (MrBeast) ngôi sao “triệu view” trên YouTube - Jimmy Donaldson (MrBeast)người dẫn chương trình nổi tiếng Gayle King, ngôi sao YouTube - MrBeast từng lên tiếng cảnh báo công chúng về trò quảng cáo lừa đảo sử dụng công cụ cắt ghép gương mặt. (Ảnh: Lifehacker)
Diễn viên Tom Hanks, người dẫn chương trình Gayle King, ngôi sao YouTube - MrBeast từng cảnh báo công chúng về trò cắt ghép gương mặt để lừa đảo

Vài năm trở lại đây, không ít người nổi tiếng đã trở thành nạn nhân của deepfake, từ Taylor Swift, Kelly Clarkson, Tom Hanks đến ngôi sao “triệu view” trên YouTube - Jimmy Donaldson (MrBeast). Các “nhân vật ảo” trông giống hệt họ xuất hiện trên video quảng cáo thực phẩm chức năng, thuốc trị yếu sinh lý và chương trình khuyến mãi lừa đảo.

Phụ nữ là nạn nhân

Công cụ AI càng phát triển, càng dễ tiếp cận, hành vi đánh cắp hình ảnh để trục lợi càng gian xảo, khó lường. Người bình thường cũng có thể là mục tiêu của kẻ lừa đảo.

Chuyên gia công nghệ Lucas Hansen - đồng sáng lập CivAI, tổ chức phi lợi nhuận ở Bắc Mỹ, cố vấn về an ninh mạng và rủi ro từ công nghệ AI - nhận xét: “Do công nghệ deepfake ngày một rẻ tiền, dễ điều khiển, số lượng quảng cáo lừa đảo đang tăng nhanh bất chấp luật pháp”.

Ben Colman - Giám đốc điều hành Reality Defender, công ty dịch vụ chuyên hỗ trợ doanh nghiệp và chính quyền địa phương phòng trừ nguy hiểm từ deepfake có trụ sở tại New York, Mỹ - lo ngại rằng “công cụ AI quá giản tiện hiện nay cũng là điểm bất lợi”.

Sau sự việc cô bị cắt ghép hình ảnh, công ty của Janse đã yêu cầu YouTube gỡ bỏ mẫu quảng cáo độc hại. Tuy nhiên không phải nạn nhân nào cũng được bảo vệ trước mối nguy từ quảng cáo deepfake. (Ảnh: WashingtonPost)
Công ty đại diện của Janse đã yêu cầu YouTube gỡ bỏ mẫu quảng cáo độc hại, tuy nhiên không phải nạn nhân nào cũng được bảo vệ trước mối nguy từ deepfake

“Tất cả video, âm thanh, hình ảnh bạn đăng ở chế độ công khai đều có nguy cơ bị nhân bản, cắt chỉnh, tái dựng hoàn toàn sai sự thật” - Colman nói - “Khó truy nguồn các video dạng này. Và nếu bọn tội phạm đã nhắm tới đối tượng người xem cụ thể, chúng có thể cố tình phát tán nội dung giả mạo qua một số kênh riêng mà nạn nhân không ngờ đến”.

Carrie Williams (46 tuổi) sống tại bang North Carolina, không may rơi vào “tầm ngắm” của một nhóm lừa đảo.

Hè năm ngoái, một người bạn gửi tin nhắn cho Williams qua Facebook kèm theo bức ảnh chụp màn hình cho thấy một đoạn quảng cáo thuốc kích dục, người bạn hỏi cô có hay biết chuyện này. Williams nhanh chóng nhận ra khung cảnh trong video. “Tôi quay và đăng nó lên TikTok năm 2020, để động viên con trai mình. Khi ấy tôi đang điều trị bệnh thận… tôi muốn thằng bé đừng phản ứng bi quan” - cô giải thích.

Williams cố gắng truy tìm mẫu quảng cáo ở trang tin tức nơi người bạn kia vô tình nhìn thấy. Phải hơn 1 năm sau, cô mới được xem đoạn video lừa đảo nhờ sự giúp đỡ của phóng viên nhật báo Washington.

Mẫu quảng cáo dung tục kéo dài 30 giây nói về cách điều trị rối loạn cương dương ở nam giới, ghép giọng của một nữ diễn viên phim người lớn vào video gốc do Williams thực hiện.

Williams đang có một gia đình đầm ấm, cô sửng sốt trước những gì mình chứng kiến. “Sẽ rất tệ nếu con trai 19 tuổi của tôi hay bạn bè thằng bé trông thấy thứ này” - cô nói - “Tôi chỉ là một người mẹ muốn chăm sóc gia đình và sống yên ổn”.

Vài năm qua, giáo sư Danielle Citron, giảng dạy về Dân quyền tại Đại học Luật Virginia (bang Virginia, Hoa Kỳ) không ngừng cảnh báo về sự nguy hiểm của công nghệ deepfake. Về trường hợp của Williams và Janse, nữ giáo sư cho biết cô “không bất ngờ trước việc những kẻ lừa đảo đang có khuynh hướng nhắm vào phụ nữ”.

“Luật bảo vệ dân quyền ở một số bang của Mỹ nghiêm cấm hành vi cắt ghép trái phép hình ảnh một người nhằm mục đích quảng cáo trục lợi. Thế nhưng, nếu nạn nhân muốn truy cứu đến cùng, chi phí theo đuổi vụ án thường tốn kém. Điều đáng lo hơn là nhiều tội phạm mạng biết cách ẩn danh và "lách luật" - Citron cho biết.

Như Ý (theo WashingtonPost)

 

news_is_not_ads=
TIN MỚI