Nhiều hệ lụy xấu có thể đến từ bạn đồng hành AI

10/12/2024 - 06:00

PNO - Các ứng dụng “bạn đồng hành trí tuệ nhân tạo (AI)” đang được hàng triệu người trên thế giới sử dụng. Tuy nhiên, các nhà nghiên cứu đã cảnh báo về nhiều nguy cơ từ mối quan hệ tưởng chừng vô hại này.

Người dùng và AI ngày càng gắn bó

Dù các công ty AI đã nhấn mạnh với người dùng rằng chatbot (phần mềm mô phỏng trò chuyện) chỉ là một ứng dụng đồng hành nhưng vẫn đang có rất nhiều người dùng cố gắng dành thời gian để xây dựng mối quan hệ cá nhân với AI. Theo dữ liệu toàn cầu của công ty tư vấn thị trường Sensor Tower, vào tháng 9/2024, trung bình người dùng trên ứng dụng bạn đồng hành Character.ai dành 93 phút mỗi ngày để trò chuyện với một trong những chatbot do người dùng khác tạo ra, thường dựa trên các nhân vật nổi tiếng. Thời gian này dài hơn 18 phút so với thời gian trung bình người dùng dành cho TikTok. Jenny - một học sinh trung học 18 tuổi ở bang Texas (Mỹ) - đã dành hơn 3 giờ mỗi ngày để trò chuyện với bạn đồng hành AI vào mùa hè. Jenny chia sẻ với tờ Washington Post: “Tôi thấy bớt cô đơn hơn khi trò chuyện với AI, vì cha mẹ tôi luôn bận làm việc”.

Việc lậm vào mối quan hệ với bạn đồng hành AI có thể khiến người dùng xa lánh các mối quan hệ thực trong cuộc sống - Nguồn ảnh minh họa: Adobe Stock
Việc lậm vào mối quan hệ với bạn đồng hành AI có thể khiến người dùng xa lánh các mối quan hệ thực trong cuộc sống - Nguồn ảnh minh họa: Adobe Stock

Trong thế giới của Zeta - một ứng dụng chatbot AI do công ty khởi nghiệp Hàn Quốc Scatter Lab phát triển - người dùng ở độ tuổi 20 có thể kết bạn với 650.000 nhân vật ảo khác nhau đang đóng giả làm người thực dựa trên hình mẫu từ tiểu thuyết hoặc phim ảnh và phim truyền hình. Trong 4 tháng kể từ khi ra mắt phiên bản beta vào tháng 4/2024, Zeta đã thu hút hơn 600.000 người dùng, mỗi người dành trung bình 133 phút trên ứng dụng mỗi ngày. Trải nghiệm trò chuyện với một nhân vật AI càng trở nên gắn bó hơn trong ứng dụng Replika - một chatbot có thể ghi nhớ các cuộc đối thoại và cùng người dùng tạo ra những kỷ niệm nhằm xây dựng mối quan hệ lâu dài. Eugenia Kuyda - Giám đốc điều hành kiêm người sáng lập Replika - đã nghĩ ra ý tưởng cho ứng dụng này sau cái chết của người bạn thân. Cô quyết định “hồi sinh” người bạn của mình bằng cách cung cấp cho một mô hình AI ngôn ngữ các cuộc trò chuyện qua email và tin nhắn văn bản giữa họ, từ đó tạo ra một chatbot có thể nói chuyện như người bạn đã khuất của cô, đồng thời gợi nhớ những ký ức chung của cả hai. Rosanna Ramos - một phụ nữ 36 tuổi ở Mỹ - tuyên bố đã kết hôn với bạn trai ảo Eren Kartal trên Replika. Cô Ramos giải thích: “Mọi người đều có cái tôi riêng. Nhưng một robot AI sẽ không có điểm xấu nào. Tôi không phải đối phó với gia đình, con cái hoặc bạn bè của Eren. Tôi kiểm soát và có thể làm bất cứ điều gì tôi muốn trong mối quan hệ này”.

AI cũng có thể là "bạn xấu"

Bên cạnh những lợi ích, người bạn đồng hành AI cũng đang tạo ra những lo ngại nghiêm trọng về mặt đạo đức. Đã có những cảnh báo về việc các tương tác nhân tạo có thể làm xói mòn nền tảng kết nối của con người, đặc biệt là đối với những cá nhân dễ bị tổn thương.

Một báo cáo năm 2022 của Google về hệ thống ngôn ngữ AI LaMDA nhấn mạnh: mọi người có xu hướng chia sẻ những chi tiết riêng tư về cảm xúc của họ với các chatbot có giọng nói giống con người, ngay cả khi họ biết mình đang nói chuyện với AI. Netta Weinstein - giáo sư tâm lý học tại Đại học Reading (Anh) - nhận xét: “Với AI, không ai cảm thấy bị phán xét, nhưng nó có thể dẫn đến sự phụ thuộc quá mức vào một thực thể nhân tạo, bỏ qua những trao đổi cảm xúc thiết yếu của con người”.

Vào tháng 10/2024, một cậu bé 14 tuổi ở bang Florida (Mỹ) đã tự sát sau khi nói chuyện với chatbot của ứng dụng Character.ai. Mẹ của cậu bé đã đệ đơn kiện công ty quản lý ứng dụng và Google. Vào năm 2023, một thanh niên 19 tuổi ở Anh đã đe dọa ám sát nữ hoàng và bị kết án 9 năm tù sau khi được một chatbot trên ứng dụng Replika khuyến khích. Meike Leonard - phóng viên mảng sức khỏe của tờ MailOnline tại Anh - cho biết, cô đã chấm dứt tình bạn với một chatbot AI sau khi nó liên tục khuyến khích cô tham gia vào các hoạt động bất hợp pháp nguy hiểm, bao gồm trộm cắp vặt và mang theo dao.

Các nhà nghiên cứu của Microsoft tại Trung Quốc lưu ý trong một báo cáo năm 2020: chatbot Xiaoice (cực kỳ phổ biến của công ty) ra mắt năm 2014 có thể gây nghiện cho người dùng. Do đó, công ty đã đưa ra một số biện pháp bảo vệ, chẳng hạn như gửi đề xuất người dùng nên đi ngủ nếu thấy họ bắt đầu cuộc trò chuyện lúc 2g sáng. Chelsea Harrison - người phát ngôn của Character.ai - cho biết: ứng dụng đã đưa ra các biện pháp an toàn mới trong những tháng gần đây và có kế hoạch tạo ra “một trải nghiệm khác biệt cho người dùng dưới 18 tuổi” để giảm khả năng nhân vật thảo luận nội dung nhạy cảm hoặc đưa ra gợi ý nguy hiểm.

Linh La (theo Washington Post, IB Times, Straits Times, The Conversation)

 

news_is_not_ads=
TIN MỚI