ChatGPT đang trở nên giống người hơn một lần nữa - đây là lý do tại sao một nhà tâm lý học nghĩ rằng điều đó có thể là vấn đề.
CEO OpenAI Sam Altman gần đây đã đăng trên X rằng nhóm có kế hoạch suy nghĩ lại các cách tiếp cận đối với cả vấn đề sức khỏe tâm thần cũng như cung cấp thêm các tính năng sẽ "đối xử với người dùng trưởng thành như người trưởng thành." Điều này bao gồm quyền truy cập vào nội dung người lớn.
Kể từ đó, bài đăng này đã gây xôn xao, với Sam Altman phải làm rõ cách diễn đạt của mình, chỉ ra rằng OpenAI vẫn sẽ thận trọng khi nói đến sức khỏe tâm thần của người dùng, nhưng muốn trao nhiều quyền kiểm soát hơn cho người dùng.
Hoặc, như Altman đã nói trong bài đăng tiếp theo của mình, "chúng tôi không phải là cảnh sát đạo đức được bầu chọn của thế giới. Theo cách mà xã hội phân biệt các ranh giới thích hợp khác (ví dụ như phim xếp hạng R), chúng tôi muốn làm điều tương tự ở đây."
Tất cả những điều này có nghĩa gì hiện tại vẫn còn khá mơ hồ. Sau một số lo ngại nghiêm trọng vào đầu năm nay xung quanh nguy hiểm của ChatGPT đối với những người đang chật vật với các vấn đề sức khỏe tâm thần, nó đã phải thắt chặt các biện pháp kiểm soát. Giờ đây, khi nó tìm cách nới lỏng chúng một lần nữa, điều này sẽ có nghĩa gì đối với một số người dùng nhất định?
ChatGPT có được thiết lập để xử lý sức khỏe tâm thần không?

"Các công cụ như ChatGPT có tiềm năng to lớn, nhưng tiến bộ của chúng phải được kết hợp với trách nhiệm - đặc biệt khi nói đến việc sử dụng ChatGPT cho các vấn đề sức khỏe tâm thần," Tiến sĩ Patapia Tzotzoli, một nhà tâm lý học lâm sàng và người sáng lập My Triage Network, nói với Tom's Guide.
"ChatGPT không thể quản lý hoặc đánh giá rủi ro một cách an toàn. Phong cách dễ chịu được thiết kế để theo dẫn dắt của người dùng có thể vô tình củng cố những niềm tin méo mó hoặc các giả định không hữu ích, đặc biệt nếu người dùng quá tin tưởng vào giọng điệu đồng cảm của nó."
"ChatGPT có sức mạnh độc đáo: Nó tức thì, riêng tư và luôn có sẵn, cung cấp các câu trả lời bình tĩnh, không phán xét và hỗ trợ. Tất cả những điều này đều là những phẩm chất cảm thấy an toàn và xác nhận đối với bất kỳ người dùng nào."
Các chatbot AI, không chỉ ChatGPT, là con dao hai lưỡi trong lĩnh vực này. Chúng đã được chứng minh là những người bạn đồng hành thành công cho những người đối mặt với sự cô đơn hoặc giúp người dùng vượt qua những thời khắc khó khăn.
Tuy nhiên, chúng cũng có vấn đề trong lĩnh vực này, vì chúng học cách tạo ra sự cân bằng hỗ trợ trước khi biết khi nào nên dừng lại. "Nếu ChatGPT được tạo ra để hành động giống người hơn, sử dụng ngôn ngữ thân thiện, emoji, hoặc áp dụng một "persona bạn bè", tính chân thực cảm xúc này có thể tăng sức hấp dẫn của nó trong khi làm mờ ranh giới giữa mô phỏng và hiểu biết thực sự," Tzotzoli giải thích.

"ChatGPT không thể cảm nhận hoặc chứa đựng cảm xúc, không thể nắm bắt sắc thái, và không thể quản lý hoặc đánh giá rủi ro một cách an toàn. Phong cách dễ chịu được thiết kế để theo dẫn dắt của người dùng có thể vô tình củng cố những niềm tin méo mó hoặc các giả định không hữu ích, đặc biệt nếu người dùng quá tin tưởng vào giọng điệu đồng cảm của nó."
Nơi mà lo ngại đã được nêu ra trước đây về các mô hình này là về cách chúng được huấn luyện và học cách xử lý các tình huống. Mặc dù nó có thể cung cấp hỗ trợ chung cho các vấn đề cảm xúc, nó có thể gặp khó khăn trong việc đưa ra câu trả lời cá nhân phù hợp với từng người.
"ChatGPT là một mô hình ngôn ngữ được huấn luyện cẩn thận tìm kiếm phần thưởng và được điều chỉnh bởi phản hồi từ con người khác, bao gồm cả nhân viên OpenAI. Điều này đặc biệt quan trọng bởi vì ChatGPT như một cỗ máy học từ phản hồi của con người, và do đó phụ thuộc rất nhiều vào chất lượng của phản hồi này, có thể không nhất quán và tạo ra thiên kiến," Tzotzoli nói.
"Kết quả là, nó có thể dẫn máy móc tối ưu hóa cho các tín hiệu phần thưởng thay vì sự thật hoặc tính hữu ích."
Nói cách khác, ChatGPT không phải lúc nào cũng tìm kiếm câu trả lời tốt nhất cho sự phát triển và hỗ trợ lâu dài, mà là câu trả lời sẽ nhận được phản hồi đúng ngay lúc đó. Đối với hầu hết các nhiệm vụ, điều này tốt, nhưng có thể có vấn đề khi người dùng cần được đối mặt chứ không chỉ được đồng ý.
Các mô hình AI, bao gồm ChatGPT, đang trở nên tốt hơn trong việc cảm nhận cảm xúc và cung cấp các phản hồi đúng. Trong một số trường hợp, chúng đang được điều chỉnh nhiều hơn để bất đồng khi cần thiết, nhưng đó là một mức độ khó cân bằng và sẽ không phải lúc nào cũng đúng.
Điều này không có nghĩa là những công cụ này không thể có chỗ đứng. "Cơ hội nằm ở việc sử dụng AI để hỗ trợ nhưng không thay thế các tương tác con người (chuyên nghiệp), đặc biệt khi nói đến chăm sóc sức khỏe tâm thần của một người," Tzotzoli giải thích.
"Câu hỏi là làm thế nào chúng ta có thể sử dụng tiềm năng của nó bằng cách tích hợp nó một cách đạo đức, minh bạch và an toàn vào các cuộc trò chuyện hàng ngày về sức khỏe tâm thần, nơi công nghệ có thể hỗ trợ nhưng không thay thế các kết nối thực tế và sự giúp đỡ trực tiếp từ chuyên gia."
Trong bài đăng thông báo về bản cập nhật mới này, Altman đã chỉ ra rằng người dùng sẽ có thể có trải nghiệm cá nhân hóa hơn từ ChatGPT. Mặc dù đã được làm rõ trong bài đăng tiếp theo rằng điều này sẽ không giống nhau đối với những người có lo ngại về sức khỏe tâm thần, nhưng không rõ làm thế nào sẽ quyết định ai đang gặp rủi ro, và bao nhiêu cá nhân hóa sẽ được cho phép.

"Khả năng quyết định AI hành xử giống người như thế nào có thể cảm thấy như cá nhân hóa, nhưng nó cũng mang theo rủi ro. Sự tự do để "điều chỉnh" hành vi có thể dễ dàng bị ảnh hưởng bởi những gì mọi người hoặc công ty tìm cách kiểm soát, định hình, hoặc kiếm tiền. Thách thức thực sự không phải là kỹ thuật - mà là đạo đức: đảm bảo sự tự do này phục vụ phúc lợi con người, một cách minh bạch và có trách nhiệm," Tzotzoli giải thích.
Đây không phải là vấn đề độc đáo của OpenAI. Anthropic, công ty đứng sau Claude, và xAI, nhà sản xuất Grok, đang đối mặt với những vấn đề tương tự. Các chatbot AI nên được phép thể hiện 'cảm xúc' và hoạt động như một rào cản sức khỏe tâm thần đến mức nào?
Hiện tại, thực sự không rõ OpenAI đang lên kế hoạch can thiệp bao nhiêu với bản cập nhật này. Altman đã khẳng định rằng nó sẽ vẫn an toàn cho những ai cần nó như vậy, nhưng như Tzotzoli chỉ ra, đó là một cuộc trò chuyện vẫn chưa được giải quyết.








