Phim khiêu dâm "deepfake" ám ảnh giới trẻ Hàn Quốc

29/08/2024 - 12:54

PNO - Sự bùng nổ kỹ thuật số của Hàn Quốc đã tăng thêm sự tiện lợi nhưng cũng mở ra lĩnh vực tội phạm nghiêm trọng mới: tội phạm tình dục trực tuyến.

Trong tổng số 781 người tìm kiếm sự giúp đỡ tại Trung tâm hỗ trợ nạn nhân lạm dụng tình dục trực tuyến của viện do nội dung khiêu dâm deepfake trong năm nay, 36,9 phần trăm, hay 288 người, là trẻ vị thành niên.
Trong tổng số 781 người là nạn nhân lạm dụng tình dục trực tuyến trong năm 2024 có 1/3 là trẻ vị thành niên.

Hoảng sợ khi bất ngờ trở thành nạn nhân

Song - một nữ sinh trung học 17 tuổi sống tại tỉnh Gyeonggi, từng giống như bất kỳ cô gái nào khác cùng tuổi trên mạng xã hội - là thường đăng ảnh và video ngắn về bản thân hoặc cùng bạn bè nhảy theo những bản nhạc thịnh hành.

Cho đến khi cô nhận được một tin nhắn ẩn danh trên Instagram. Nó vẫn ám ảnh cô cho đến ngày nay.

“Tôi nhìn vào điện thoại khi thấy một tin nhắn được gửi qua một tài khoản không xác định. Tin nhắn có nội dung: 'Bạn bè và cha mẹ bạn có biết về khía cạnh này trong cuộc sống của bạn không?' kèm theo 3 bức ảnh đính kèm” - Song kể lại.

Khi mở tin nhắn, Song đã bị sốc khi thấy những bức ảnh khiêu dâm của chính mình. Nhưng những bức ảnh này không phải do cô chụp. Chúng là "deepfake" - những bức ảnh được chỉnh sửa kỹ thuật số gần như không thể phân biệt được với hình ảnh thực tế.

“Tôi đã rất sốc và sợ hãi khi lần đầu tiên nhìn thấy những bức ảnh đó. Mặc dù tôi biết chúng là ảnh giả, được tạo ra từ hình ảnh của tôi, nhưng chúng có vẻ rất thật. Tôi muốn tin rằng đó chỉ là một cơn ác mộng và khi tỉnh dậy thì nó sẽ biến mất” - nữ sinh nói thêm.

Tuy nhiên, các tin nhắn đến liên tục từ đó. Từ những câu hỏi cô có là người đứng sau những bức ảnh khiêu dâm này hay không cho đến những yêu cầu cô hãy "giải trí cho họ"...

“Lúc đầu tôi đã cố nói rằng không phải tôi. Nhưng việc tôi trả lời tất cả tin nhắn của họ dường như chỉ khiến họ phấn khích. Những tin nhắn cứ liên tục đến, với những yêu cầu của họ ngày càng tệ hơn” - cô kể.

Sự sợ hãi ngày càng tăng

Song là một trong số ngày càng nhiều nạn nhân của trò "deepfake" và nhiều người trong số họ còn là trẻ vị thành niên.

Theo Viện Nhân quyền phụ nữ Hàn Quốc, tổng cộng 2.154 người đã tìm kiếm sự giúp đỡ tại Trung tâm hỗ trợ nạn nhân lạm dụng tình dục trực tuyến của viện do nội dung khiêu dâm "deepfake" từ tháng 4/2018 đến 27/8/2024. Trong đó, có 781 người tìm kiếm sự giúp đỡ là nạn nhân lạm dụng tình dục trực tuyến trong năm nay, với 288 người là trẻ vị thành niên.

Song liên tục bị quấy rối trực tuyến từ những hình ảnh khiêu dâm giả của mình
Song liên tục bị quấy rối trực tuyến từ khi những hình ảnh giả của mình bị cắt ghép

Bộ Giáo dục Hàn Quốc cho biết họ sẽ có lập trường cứng rắn chống lại tội phạm khiêu dâm "deepfake" trong trường học. Hình phạt đối với thủ phạm có thể là đuổi học. Đối với thủ phạm ở trường tiểu học hoặc trung học cơ sở thì bị chuyển trường vì cả 2 đối tượng này vẫn phải được giáo dục bắt buộc.

Bộ cũng quyết định thành lập một lực lượng đặc nhiệm khẩn cấp để ứng phó với tội phạm tình dục "deepfake". Nhóm mới sẽ điều tra các tội phạm liên quan đến "deepfake" hàng tuần, xử lý các báo cáo do nạn nhân gửi, cung cấp hỗ trợ tâm lý cho nạn nhân, cung cấp giáo dục và nâng cao nhận thức về các tội phạm như vậy trong trường học, và tăng cường đạo đức kỹ thuật số và trách nhiệm giải trình.

Tuy nhiên, Hàn Quốc không có hệ thống pháp luật nào để xác định, lọc ra và trừng phạt những người sử dụng công nghệ AI trái phép.

Theo Đạo luật về các trường hợp đặc biệt liên quan đến việc trừng phạt tội phạm tình dục, bất kỳ ai biên tập, tổng hợp hoặc xử lý nội dung khiêu dâm "deepfake" đều bị phạt tới 5 năm tù hoặc phạt tiền tới 50 triệu won (37.400 USD). Những người phân phối nội dung để kiếm lợi nhuận sẽ bị phạt tới 7 năm tù. Tuy nhiên, điều đáng chú ý là hiện tại không có luật nào trừng phạt những người tải xuống hoặc xem nội dung khiêu dâm "deepfake".

“Hiện tại, luật pháp trừng phạt hành vi xem video khiêu dâm được quay mà không có sự đồng ý, nhưng luật không có đối với "deepfake"”, luật sư Min Go-eun nói với tờ The Korea Herald.

"Deepfake" là kết hợp giữa "deep learning" (học sâu) và "fake" (giả). Công nghệ này sử dụng AI phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh hoặc video trông như thật về người đó, thậm chí tạo được cả giọng nói.

Thảo Nguyễn (theo Korea Herald)

 

news_is_not_ads=
TIN MỚI