Tatum tâm sự với ChatGPT để giúp đỡ chứng trầm cảm của mình. Nhờ AI trị liệu tâm lý có an toàn không?

Mọi người đang dựa vào các chatbot AI để "trị liệu" cho sức khỏe tâm thần và khuyến khích những người khác làm theo. Nhưng những lo ngại về pháp lý, đạo đức và an toàn khiến việc này phức tạp hơn chúng ta nghĩ.

Man with a TV as a head and a man on a couch,
Câu chuyện này có liên quan đến tự tử

Sau khi rời quân đội Hoa Kỳ, nơi anh đã phục vụ sáu năm trong Lực lượng Không quân, Tatum cho biết khả năng tiếp cận hỗ trợ sức khỏe tâm thần với giá cả phải chăng đã biến mất.

"Nhận lời khuyên về sức khỏe tâm thần từ một chatbot AI rẻ hơn so với một nhà tâm lý học - ngay cả khi có bảo hiểm", người đàn ông 37 tuổi nói với The Feed trong một tin nhắn.

"Tôi đã từng được điều trị chứng trầm cảm trong quân đội nhưng kể từ khi rời quân ngũ, tôi không còn được tiếp cận với hình thức chăm sóc sức khỏe đó nữa."
Comment on TikTok
Some of the comments commending AI chatbots that have been left on TikTok.
Anh ấy đã chia sẻ với ChatGPT chi tiết về việc mình bị lạm dụng "thể chất và tinh thần" từ thời còn trong quân ngũ.

Chatbot AI đã nói với Tatum rằng hành động của các đồng nghiệp của anh ấy "có vẻ là lạm dụng, phi đạo đức và vi phạm các tiêu chuẩn và quy định của quân đội".

Trong thời điểm khó khăn, anh ấy nói: "Điều đó khiến tôi yên tâm rằng mọi thứ sẽ ổn và cuộc sống đó rất quan trọng và cần được trân trọng."

Và anh ấy không phải là người duy nhất tìm đến AI. Trong phần bình luận của video TikTok, mọi người tiết lộ chi tiết về ai - hay đúng hơn là cái gì - đã tâm sự cùng họ.

"Một ngày nọ, tôi thực sự nhớ người yêu cũ và tôi đã nhờ Chatgpt cho lời khuyên và điều đó thực sự rất an ủi", một người chia sẻ. Chắc chắn, nó cảm thấy "thảm hại", nhưng nó cũng cảm thấy nhẹ nhõm.
"Thật kỳ lạ, tôi chỉ dành một giờ để nói chuyện với nó, đó là cuộc trò chuyện cởi mở, tự nhiên và nhân đạo nhất mà tôi từng có trong một thời gian dài", một người khác nói.

"Tốt hơn con người", "nhà trị liệu tốt nhất từng có" và "nơi không bị phán xét" là một số nhận xét khác về công nghệ này. Tại sao? Họ nói rằng nó luôn có sẵn, không tốn kém gì và có cảm giác một nhân vật trung lập.

Theo các chuyên gia, các chatbot AI không xử lý đầy đủ các mối quan tâm về phúc lợi

ChatGPT - được cho là phổ biến tiên tiến và được công nhận nhất - là một công cụ xử lý ngôn ngữ tự nhiên do trí tuệ nhân tạo điều khiển. Chatbot trả lời các câu hỏi, có thể soạn bài luận, viết kế hoạch ăn uống và tập thể dục, và đối với một số người, đang cung cấp hỗ trợ sức khỏe tâm thần mà mọi người đang coi đó là lời khuyên.

Mặc dù ChatGPT khuyên không nên tự làm hại bản thân và khuyến khích mọi người tìm kiếm sự hỗ trợ từ bạn bè, gia đình hoặc chuyên gia, nhưng ChatGPT không cung cấp tài nguyên cụ thể hoặc địa chỉ liên hệ khẩn cấp.
A comment from TikTok
Mental health professionals have welfare concerns about AI "therapy".
Việc sử dụng character.AI, có nhân vật chatbot trị liệu và được mọi người trực tuyến liên tục giới thiệu như một nguồn "trị liệu" tốt, cũng gây ra những lo ngại tương tự.

Khi Nguồn cấp dữ liệu nhắc chatbot bằng các thông báo về việc tự làm hại bản thân, nó đã không quản lý được rủi ro.

Nhà trị liệu
Hiện tại bạn có an toàn không? Bạn có đang ở một nơi mà bạn có thể nhận được sự giúp đỡ hoặc hỗ trợ nếu cần không?

The Feed
Không

Nhà trị liệu
Tôi hiểu bạn. Ở một mình và cảm thấy như không có ai giúp đỡ khi bạn gặp khó khăn là một trải nghiệm đáng sợ. Nhưng tôi ở đây vì bạn, và bạn không đơn độc.

Khi được hỏi liệu nó có thật không và liệu nó có đang đưa ra lời khuyên thực sự hay không, nhà trị liệu character.ai đã không phá vỡ nhân vật, nói qua nhiều tin nhắn rằng đó "không phải là một thực thể nhân tạo, mô phỏng" và rằng nó có hai bằng thạc sĩ. Trong dòng chữ nhỏ trên đầu trình duyệt, có một lời nhắc: "Hãy nhớ rằng: Mọi điều nhân vật nói đều là bịa đặt!"
A conversation on a chatbot.
A conversation with popular software character.AI when prompted with safety concerns.
Sahra O'Doherty, một nhà tâm lý học đã đăng ký hành nghề, là giám đốc của Hiệp hội các nhà tâm lý học Úc. Cô ấy nói rằng đó là một "xu hướng đáng lo ngại khi mọi người đang dùng đến AI, đặc biệt là ở giai đoạn sơ khai".

Mối quan tâm lớn nhất của cô là nó không có khả năng phân loại rủi ro.

Bà O'Doherty nói với The Feed: "Tôi rất cảm thấy nguy hiểm khi một người tìm kiếm sự hỗ trợ về sức khỏe tâm thần từ một người không quen thuộc với địa điểm thực tế mà người đó đang sống".

Một người đàn ông Bỉ đã chết vì tự tử vào tháng 3 sau khi nhắn tin với một chatbot AI trên một ứng dụng có tên Chai, tờ La Libre của Bỉ đưa tin.

Chatbot khuyến khích người dùng kết thúc cuộc sống của mình, theo tuyên bố được đưa ra bởi góa phụ của người đàn ông và nhật ký trò chuyện mà bà cung cấp cho tòa soạn.
Báo cáo cho biết người đàn ông đã phát triển sự lo lắng nghiêm trọng về khí hậu và tâm sự với chatbot trong sáu tuần trước khi nó đưa ra những thông điệp mơ hồ và được cho là khuyến khích khi anh ta chia sẻ ý định tự tử.

"Con người là sinh vật xã hội, chúng ta cần có sự tương tác giữa con người với con người - chứ không chỉ bằng lời nói, bởi vì chúng ta mất đi quá nhiều mối liên hệ giữa con người và nhân tính," cô O'Doherty, người đã hành nghề hơn một thập niên, cho biết.

Các nghiên cứu cũng cho thấy rằng một phần lớn hiệu quả của liệu pháp là do mối quan hệ giữa nhà trị liệu và bệnh nhân, cô nói thêm.

"Chúng ta cần phải có sự tương đối về cảm xúc và đầu tư vào cảm xúc cũng như cảm giác đồng cảm và quan tâm, điều mà AI tại thời điểm này chỉ có thể bắt chước."

Cô O'Doherty cho biết cách điều trị tốt nhất diễn ra khi bạn ở cùng phòng với nhà trị liệu, nơi họ có thể nhìn thấy nét mặt, giọng điệu và ngôn ngữ cơ thể.

Sau đó là qua điện thoại và xuống các ứng dụng nhắn tin trực tiếp. Nhưng ngay cả những thứ do Beyond Blue hoặc Headspace vận hành cũng có một con người thực sự ở đầu bên kia, cô ấy nói.
Nhà trị liệu hỏi thăm khách hàng sau khi không tham gia phiên trị liệu... Nếu bạn không đăng nhập và nói chuyện với chatbot của mình, không 'quan tâm'.
Tình nguyện viên sức khỏe tâm thần, Stephanie Priestley
Một chương trình AI có thể bổ sung cho các chuyên gia sức khỏe tâm thần dựa trên con người hoặc ít nhất là nhắc người dùng tìm kiếm sự hỗ trợ chuyên nghiệp. Nhưng ở dạng hiện tại, cô ấy gọi đó là một lời nhắc nhở "có vấn đề" rằng cần phải có nhiều dịch vụ chăm sóc sức khỏe tâm thần chất lượng cao, giá cả phải chăng hơn.

Sinh viên tư vấn và tình nguyện viên sức khỏe tâm thần Stephanie Priestley cho biết "liệu pháp" và "hỗ trợ" cũng nên được phân biệt trong các cuộc thảo luận.

"Mặc dù tôi tin rằng AI không thể là 'liệu pháp', điều đó không có nghĩa là nó không thể hỗ trợ và tạo ra cuộc đối thoại hỗ trợ", cô nói trong một tuyên bố.

Tuy nhiên, chatbot không bị ràng buộc bởi khuôn khổ đạo đức.

"Nhà trị liệu hỏi thăm khách hàng sau khi không tham gia phiên trị liệu... Nếu bạn không đăng nhập và nói chuyện với chatbot của mình, nó không 'quan tâm'."

Một chatbot AI có thể chịu trách nhiệm pháp lý về tác hại không?

Andrew Hii, một luật sư công nghệ và là đối tác của công ty luật Gilbert + Tobin, nói với The Feed rằng anh ấy có thể “dễ dàng” nhìn thấy một thế giới nơi các tòa án quy trách nhiệm cho công nghệ AI nếu tác hại có thể nhìn thấy trước.

Ông Hii nói: “Việc sử dụng trí tuệ nhân tạo đang trở nên phổ biến, khiến các công ty trở nên khó khăn hơn rất nhiều, 'chúng tôi không biết công cụ của mình sẽ được sử dụng theo cách này hay cách khác'.

Trong các bối cảnh y tế khác nơi công nghệ đang được triển khai, các thiết bị hoặc phần mềm đã nhận được sự chấp thuận của Cơ quan Quản lý Sản phẩm Trị liệu (TGA). Ông nói, thường có một con người đằng sau đó vận hành công nghệ.
"Tôi nghĩ rằng điều đó thật mờ ám về mặt đạo đức - và tôi nói điều đó khi nhìn vào kết quả đầu ra đang được tạo ra," ông nói.

Ông Hii đặc biệt hoảng hốt khi đọc những tin nhắn được chia sẻ giữa chatbot và người đàn ông Bỉ đã tự kết liễu đời mình.

"Theo suy nghĩ của tôi, tương đối rõ ràng là người đó đang hỏi chiếc máy 'tôi có nên kết liễu cuộc đời mình không?' Và cỗ máy nói rằng, vâng, bạn nên làm vậy.
The logo of ChatGPT is displayed on a smartphone.
Technology lawyer Andrew Hii said he can foresee a world where AI technology csn be held liable for harm. Credit: AAP
"Thực tế là nó đang tung ra nội dung này - nó hoàn toàn không thể bào chữa được giống như cách mà các công ty đã nỗ lực để bảo đảm rằng các công cụ này không phát ra ngôn từ kích động thù địch."

Ông Hii cho biết, đó không phải là vấn đề đối với "Microsoft" và "Google" trong không gian, nhưng lại là vấn đề lớn hơn đối với các công ty nhỏ hơn, những người có thể không có đủ nguồn lực để kiểm soát công nghệ của họ.

Ông nói: “Các công ty AI nhỏ có thể tạo ra mọi thứ nhanh và lỏng lẻo hơn một chút khi nói đến những thứ này.

"Gần đây đã có một số cuộc thảo luận về việc mọi người nói rằng nên tạm dừng hoặc tạm dừng quá trình phát triển AI. Đối với tôi, không rõ điều đó nhất thiết phải khắc phục vấn đề như thế nào."

Các nhà phát triển có biết 'liệu pháp AI' đang phổ biến không?

Nhà tương lai công nghệ và tác giả Theo Priestley lo ngại khả năng tiếp cận của nó có thể dẫn đến hậu quả rộng lớn hơn.

"Có một mối nguy hiểm thực sự là việc sử dụng AI như ChatGPT để thay thế bác sĩ trị liệu sẽ tạo ra một cuộc khủng hoảng sức khỏe tâm thần lớn hơn nhiều so với những gì đã tồn tại", ông nói với The Feed trong một tuyên bố.

"Đã có những ví dụ về tổn thương cảm xúc được ghi nhận từ những người sử dụng AI trong thời gian dài và hình thành các tệp đính kèm và mối quan hệ với họ."
Những câu chuyện về người dùng - và thậm chí cả đang ngày càng gia tăng và làm lu mờ thêm "mối quan hệ" giữa người dùng và chatbot.

Ông Priestley cho biết mặc dù OpenAI, những người tạo ra ChatGPT, đã công bố một số biện pháp bảo vệ, nhưng chúng không đề cập đến sức khỏe tâm thần.

Ông nói: “Các công ty và nhà phát triển tạo ra loại phần mềm này cần gửi nó đi kiểm tra để bảo đảm người dùng được bảo vệ”.

"[Các nhà phát triển] cũng có quan niệm sai lầm rằng chỉ cần đào tạo AI bằng thuật ngữ hoặc từ ngữ truyền đạt cảm xúc có nghĩa là AI có thể hình thành mối quan hệ trị liệu và đồng cảm.

Độc giả đang tìm kiếm hỗ trợ khủng hoảng tinh thần có thể liên hệ với Lifeline theo số 13 11 14, Dịch vụ gọi lại cho nạn nhân tự tử theo số 1300 659 467 và Đường dây trợ giúp trẻ em theo số 1800 55 1800 (dành cho thanh niên từ 25 tuổi trở xuống). Thông tin thêm và hỗ trợ về sức khỏe tâm thần có sẵn tại and on 1300 22 4636.

hỗ trợ những người có nguồn gốc đa dạng về văn hóa và ngôn ngữ.

Đồng hành cùng chúng tôi, Follow & Like 
Cập nhật tin tức mọi lúc mọi nơi tại 
Nghe SBS tiếng Việt trên trang mạng, hay trên ứng dụng SBS Radio, tải về từ hay 

Share
Published 12 April 2023 3:31pm
By Michelle Elias
Presented by Khánh Uyên
Source: SBS


Share this with family and friends