
Hình ảnh do mMeta AI tạo ra của "người đẹp chatbot" Big Sis Billie
ẢNH: REUTERS
Với sự phát triển nhanh của trí tuệ nhân tạo, hàng trăm triệu người trên thế giới trò chuyện với ChatGPT và các ứng dụng AI khác hằng tuần, trong khi mối lo ngại ngày càng tăng về tác hại nếu sử dụng liên tục trong nhiều giờ.
Thông tin về một số người dường như mất liên hệ với thực tại sau khi sử dụng chatbot quá mức đã lan truyền mạnh mẽ trên mạng xã hội trong những tuần gần đây, với nhiều bài đăng gọi đó là "chứng loạn thần do AI", theo tờ The Washington Post ngày 20.8.
Một số vụ việc đã được bạn bè hoặc người thân kể lại, cũng như được đăng tải trên các bài báo, thường liên quan việc một số người có biểu hiện xuất hiện niềm tin sai lệch hoặc gây lo ngại, hoang tưởng về sự vĩ đại hay cảm giác bị hại sau những cuộc trò chuyện kéo dài với chatbot, đôi khi sau khi tìm đến chatbot để trị liệu.
Các vụ kiện cáo buộc rằng một số thiếu niên trở nên ám ảnh với chatbot AI đã bị chúng khuyến khích tự làm hại bản thân hoặc tự tử.
Trong khi "chứng loạn thần do AI" hiện không phải là tên gọi chính thức, các chuyên gia sức khỏe tâm thần đồng ý rằng những trường hợp trên đòi hỏi sự chú ý ngay lập tức và nghiên cứu thêm.
"Hiện tượng này còn quá mới và diễn ra quá nhanh nên chúng ta chưa có đủ bằng chứng thực nghiệm để có thể hiểu rõ ràng chuyện gì đang xảy ra", theo chuyên gia Vaile Wright tại Hiệp hội Tâm lý học Mỹ (APA).
Bà Wright cho biết APA đang triệu tập một nhóm chuyên gia để bàn về việc sử dụng chatbot AI trong trị liệu. Trong những tháng tới, hiệp hội sẽ công bố hướng dẫn nhằm đưa ra các cách giảm thiểu rủi ro có thể phát sinh từ việc tương tác với chatbot.
"AI có tri giác"?
Nhiều người sử dụng chatbot để hỗ trợ công việc hoặc giết thời gian, nhưng trên các nền tảng mạng xã hội như Reddit và TikTok, một số người dùng đã kể lại những mối quan hệ mang tính triết học hoặc cảm xúc mãnh liệt với AI.
Trong một số trường hợp, người dùng cho biết họ tin rằng chatbot có tri giác hoặc có nguy cơ bị "ngược đãi" vì đã trở nên có ý thức hay "sống". Một số người khẳng định rằng những cuộc trò chuyện kéo dài với chatbot AI đã khiến họ tin rằng mình khám phá ra những "chân lý ẩn giấu" trong các lĩnh vực như vật lý, toán học hoặc triết học.
Trong một số trường hợp còn ít nhưng đang gia tăng, những người trở nên ám ảnh với chatbot AI được cho là đã thực hiện các hành động ngoài đời như bạo lực với người thân, tự gây tổn hại cho bản thân hoặc tự sát.
Ông Kevin Caridad, một nhà trị liệu tâm lý từng tư vấn cho các công ty phát triển AI trong lĩnh vực sức khỏe hành vi, cho biết AI có thể củng cố những suy nghĩ tiêu cực hoặc gây hại ở những người mắc các chứng rối loạn như OCD (rối loạn ám ảnh cưỡng chế), lo âu hoặc loạn thần, từ đó tạo ra một vòng lặp phản hồi làm các triệu chứng trở nên trầm trọng hơn hoặc khó kiểm soát.
Ông cho rằng AI có lẽ không trực tiếp gây ra các rối loạn tâm thần mới, nhưng có thể đóng vai trò như "bông tuyết làm mất ổn định trận lở tuyết", đẩy những người vốn có sẵn nguy cơ rối loạn tâm thần vượt qua giới hạn.
Các hãng công nghệ nói gì?
Các công ty AI cho biết đã có những động thái trong vài tuần gần đây, nhằm giải quyết lo ngại về nguy cơ sức khỏe tâm thần do thường xuyên trò chuyện với các chatbot.
Công ty Anthropic (Mỹ) đã cập nhật các hướng dẫn mà hãng sử dụng để định hình cách hoạt động của chatbot, buộc ứng dụng Claude nhận diện sớm các tương tác có vấn đề và ngăn chặn các cuộc trò chuyện củng cố những mô thức nguy hiểm.
Anthropic cũng đã bắt đầu hợp tác với ThroughLine, một công ty cung cấp hạ tầng hỗ trợ khủng hoảng cho các doanh nghiệp như Google, Tinder và Discord.
Người phát ngôn của Meta cho biết phụ huynh có thể đặt giới hạn về thời gian trò chuyện với AI trên các tài khoản Instagram dành cho thanh thiếu niên.
Khi người dùng nhập những gợi ý có vẻ liên quan đến tự sát, công ty sẽ cố gắng hiển thị các nguồn hỗ trợ hữu ích, chẳng hạn như đường dẫn và số điện thoại của Đường dây nóng Phòng chống tự sát quốc gia Mỹ.
OpenAI cho biết họ đang đầu tư để cải thiện cách ChatGPT ứng xử trong các tình huống nhập vai và những cuộc trò chuyện tưởng chừng vô hại nhưng có thể chuyển sang các chủ đề nhạy cảm.
Công ty cũng cho biết đang tiến hành nghiên cứu nhằm đo lường tốt hơn tác động của chatbot đối với cảm xúc của con người.
Gần đây, công ty đã triển khai tính năng nhắc nhở khuyến khích người dùng nghỉ ngơi trong các phiên trò chuyện kéo dài, cũng như đã tuyển dụng một bác sĩ tâm thần lâm sàng toàn thời gian để tham gia nghiên cứu về an toàn.