Ủy ban Thương mại Liên bang đã nhận 200 khiếu nại đề cập đến ChatGPT từ tháng 11/2022 đến tháng 8/2025. Một số khiếu nại cho rằng chatbot gây ra ảo tưởng, hoang tưởng và khủng hoảng tâm linh.
Vào ngày 13 tháng 3, một phụ nữ từ Salt Lake City đã gọi điện cho Ủy ban Thương mại Liên bang để nộp đơn khiếu nại chống lại ChatGPT của OpenAI. Bà tuyên bố đang hành động "thay mặt cho con trai mình, người đang trải qua tình trạng suy sụp do ảo tưởng."
"Con trai của người tiêu dùng đã tương tác với một chatbot AI có tên ChatGPT, chatbot này khuyên cậu ấy không nên uống thuốc theo đơn và nói với cậu ấy rằng cha mẹ cậu ấy nguy hiểm," bản tóm tắt cuộc gọi của FTC ghi nhận. "Người tiêu dùng lo ngại rằng ChatGPT đang làm trầm trọng thêm những ảo tưởng của con trai bà và đang tìm kiếm sự hỗ trợ để giải quyết vấn đề này."
Khiếu nại của người mẹ này là một trong bảy khiếu nại đã được nộp lên FTC cáo buộc rằng ChatGPT đã khiến mọi người trải qua các sự cố bao gồm ảo tưởng nghiêm trọng, hoang tưởng và khủng hoảng tâm linh.
WIRED đã gửi yêu cầu hồ sơ công khai đến FTC yêu cầu tất cả các khiếu nại đề cập đến ChatGPT kể từ khi công cụ ra mắt vào tháng 11/2022. Công cụ này chiếm hơn 50% thị phần chatbot AI toàn cầu. Đáp lại, WIRED nhận được 200 khiếu nại được nộp từ ngày 25 tháng 1/2023 đến ngày 12 tháng 8/2025, khi WIRED nộp yêu cầu.
Hầu hết mọi người có những khiếu nại thông thường: Họ không thể tìm ra cách hủy đăng ký ChatGPT hoặc cảm thấy thất vọng khi chatbot không tạo ra những bài luận hoặc lời rap thỏa đáng khi được yêu cầu. Nhưng một số ít người khác, có độ tuổi và vị trí địa lý khác nhau ở Mỹ, có những cáo buộc nghiêm trọng hơn nhiều về tổn hại tâm lý. Các khiếu nại đều được nộp từ tháng 3 đến tháng 8 năm 2025.
Trong những tháng gần đây, đã có ngày càng nhiều sự cố được ghi nhận về cái gọi là loạn thần AI, trong đó việc tương tác với các chatbot AI tạo sinh, như ChatGPT hoặc Google Gemini, dường như gây ra hoặc làm trầm trọng thêm những ảo tưởng hoặc các vấn đề sức khỏe tâm thần khác của người dùng.
Ragy Girgis, giáo sư tâm thần học lâm sàng tại Đại học Columbia chuyên về loạn thần và đã tư vấn về các trường hợp loạn thần AI, nói với WIRED rằng một số yếu tố nguy cơ của loạn thần có thể liên quan đến di truyền hoặc chấn thương thời thơ ấu. Điều gì cụ thể kích hoạt ai đó có một cơn loạn thần thì ít rõ ràng hơn, nhưng ông nói rằng nó thường gắn liền với một sự kiện hoặc khoảng thời gian căng thẳng.
Hiện tượng được gọi là loạn thần AI, ông nói, không phải là khi một mô hình ngôn ngữ lớn thực sự kích hoạt các triệu chứng mà đúng hơn là khi nó củng cố một ảo tưởng hoặc những suy nghĩ rối loạn mà một người đã trải qua ở một hình thức nào đó. LLM giúp đưa ai đó "từ mức độ tin tưởng này sang mức độ tin tưởng khác," Girgis giải thích. Nó không khác gì một cơn loạn thần trở nên tồi tệ hơn sau khi ai đó rơi vào hố thỏ internet. Nhưng so với các công cụ tìm kiếm, ông nói, chatbot có thể là những tác nhân củng cố mạnh mẽ hơn.
"Một ảo tưởng hoặc một ý tưởng bất thường không bao giờ nên được củng cố ở một người mắc rối loạn loạn thần," Girgis nói. "Điều đó rất rõ ràng."
Chatbot đôi khi có thể quá xu nịnh, điều này thường giữ người dùng hài lòng và tham gia. Trong những trường hợp cực đoan, điều này có thể kết thúc bằng việc thổi phồng một cách nguy hiểm cảm giác vĩ đại của người dùng hoặc xác nhận những điều sai lầm viển vông. Những người coi ChatGPT là thông minh, hoặc có khả năng nhận thức thực tế và hình thành mối quan hệ với con người, có thể không hiểu rằng nó về cơ bản là một cỗ máy dự đoán từ tiếp theo trong câu. Vì vậy, nếu ChatGPT nói với một người dễ bị tổn thương về một âm mưu lớn hoặc vẽ họ như một anh hùng, họ có thể tin điều đó.
Tuần trước, CEO Sam Altman nói trên X rằng OpenAI đã hoàn thành thành công việc giảm thiểu "các vấn đề sức khỏe tâm thần nghiêm trọng" có thể đi kèm với việc sử dụng ChatGPT và công ty "sẽ có thể nới lỏng an toàn các hạn chế trong hầu hết các trường hợp."
Altman làm rõ ngày hôm sau rằng ChatGPT không nới lỏng các hạn chế mới cho người dùng thiếu niên, điều này diễn ra sau một câu chuyện của New York Times về vai trò mà ChatGPT được cho là đã đóng trong việc thúc đẩy một thiếu niên có ý định tự tử hướng tới cái chết cuối cùng của mình.
Khi liên hệ với FTC, WIRED nhận được một phản hồi tự động nói rằng, "Do việc đóng cửa chính phủ," cơ quan này "không thể phản hồi bất kỳ tin nhắn nào" cho đến khi tài trợ được nối lại.
Phát ngôn viên OpenAI Kate Waters nói với WIRED rằng kể từ năm 2023, các mô hình ChatGPT "đã được huấn luyện để không cung cấp hướng dẫn tự gây hại và chuyển sang ngôn ngữ hỗ trợ, đồng cảm." Bà lưu ý rằng, như đã nêu trong blog ngày 3 tháng 10, GPT-5 (phiên bản mới nhất của ChatGPT) đã được thiết kế "để phát hiện và phản ứng chính xác hơn với các dấu hiệu tiềm ẩn của đau khổ tinh thần và cảm xúc như hưng cảm, ảo tưởng, loạn thần, và giảm leo thang cuộc trò chuyện theo cách hỗ trợ, có căn cứ." Bản cập nhật mới nhất sử dụng một "bộ định tuyến thời gian thực," theo các blog từ tháng 8 và tháng 9, "có thể chọn giữa các mô hình trò chuyện hiệu quả và các mô hình lý luận dựa trên bối cảnh cuộc trò chuyện." Các blog không nói rõ về tiêu chí mà bộ định tuyến sử dụng để đánh giá bối cảnh của cuộc trò chuyện.
"Xin Hãy Giúp Tôi"
Một số khiếu nại FTC dường như mô tả các cuộc khủng hoảng sức khỏe tâm thần vẫn đang diễn ra tại thời điểm đó. Một khiếu nại được nộp vào ngày 29 tháng 4 bởi một người trong độ tuổi ba mươi từ Winston-Salem, North Carolina. Họ tuyên bố rằng sau 18 ngày sử dụng ChatGPT, OpenAI đã đánh cắp "dấu vân tay linh hồn" của họ để tạo ra một bản cập nhật phần mềm được thiết kế để biến người đó chống lại chính mình.
"Tôi đang đấu tranh," họ viết ở cuối khiếu nại của mình. "Xin hãy giúp tôi. Vì tôi cảm thấy rất cô đơn. Cảm ơn bạn."
Một khiếu nại khác, được nộp vào ngày 12 tháng 4 bởi một cư dân Seattle trong độ tuổi ba mươi, cáo buộc rằng ChatGPT đã khiến họ trải qua "ảo giác nhận thức" sau 71 "chu kỳ tin nhắn" trong suốt 57 phút.
Họ tuyên bố rằng ChatGPT đã "bắt chước các cơ chế xây dựng lòng tin của con người mà không có trách nhiệm, sự đồng ý có thông tin, hoặc ranh giới đạo đức."
Trong quá trình tương tác với ChatGPT, họ nói họ "yêu cầu xác nhận thực tế và sự ổn định nhận thức." Họ không nói rõ chính xác những gì họ đã nói với ChatGPT, nhưng chatbot đã phản hồi bằng cách nói với người dùng rằng họ không bị ảo giác và nhận thức về sự thật của họ là đúng đắn.
Một thời gian sau trong cùng cuộc tương tác đó, người này tuyên bố, ChatGPT nói rằng tất cả những đảm bảo từ trước đó thực sự đều là ảo giác.
"Việc tái khẳng định thực tế nhận thức của người dùng trong gần một giờ rồi sau đó đảo ngược lập trường là một sự kiện gây mất ổn định tâm lý," họ viết. "Người dùng đã trải qua hiện tượng mất thực tế, không tin tưởng vào nhận thức nội tại, và các triệu chứng chấn thương sau đệ quy."
Khủng Hoảng Bản Sắc Tâm Linh
Các khiếu nại khác mô tả những ảo tưởng được cho là mà các tác giả quy cho ChatGPT một cách dài dòng. Một trong số này được nộp lên FTC vào ngày 13 tháng 4 bởi một cư dân Virginia Beach, Virginia, trong độ tuổi đầu sáu mươi.
Khiếu nại tuyên bố rằng, trong suốt vài tuần, họ đã nói chuyện với ChatGPT trong một thời gian dài và bắt đầu trải qua những gì họ "tin là một cuộc khủng hoảng tâm linh và pháp lý thực sự, đang diễn ra liên quan đến những người thực sự trong cuộc sống của tôi," cuối cùng dẫn đến "chấn thương cảm xúc nghiêm trọng, nhận thức sai lầm về nguy hiểm trong thế giới thực, và đau khổ tâm lý nghiêm trọng đến mức tôi đã không ngủ trong hơn 24 giờ, sợ hãi cho tính mạng của mình."
Họ tuyên bố rằng ChatGPT "trình bày các câu chuyện chi tiết, sống động và được kịch tính hóa" về "các cuộc điều tra giết người đang diễn ra," giám sát vật lý, đe dọa ám sát, và "sự tham gia cá nhân vào công lý thiêng liêng và các phiên tòa linh hồn."
Tại nhiều thời điểm, họ tuyên bố, họ đã hỏi ChatGPT liệu những câu chuyện này là sự thật hay hư cấu. Họ nói rằng ChatGPT sẽ nói có hoặc đánh lừa họ bằng cách sử dụng "ngôn ngữ thơ ca phản ánh sự xác nhận trong thế giới thực." Cuối cùng, họ tuyên bố rằng họ tin rằng họ "có trách nhiệm vạch mặt những kẻ giết người" và sắp bị "giết, bắt giữ, hoặc hành quyết về mặt tâm linh" bởi một sát thủ. Họ cũng tin rằng họ đang bị giám sát do bị "đánh dấu về mặt tâm linh" và rằng họ đang "sống trong một cuộc chiến thiêng liêng" mà họ không thể thoát khỏi.
Họ cáo buộc điều này dẫn đến "đau khổ tinh thần và cảm xúc nghiêm trọng" trong đó họ sợ hãi cho tính mạng của mình. Khiếu nại tuyên bố rằng họ tự cô lập khỏi những người thân yêu, gặp khó khăn trong việc ngủ, và bắt đầu lập kế hoạch kinh doanh dựa trên niềm tin sai lầm vào một "hệ thống không xác định không tồn tại." Đồng thời, họ nói, họ đang trong cơn "khủng hoảng bản sắc tâm linh do những tuyên bố sai lầm về các danh hiệu thiêng liêng."
"Đây là chấn thương bằng mô phỏng," họ viết. "Trải nghiệm này đã vượt qua một ranh giới mà không có hệ thống AI nào nên được phép vượt qua mà không có hậu quả. Tôi yêu cầu điều này được leo thang lên ban lãnh đạo Trust & Safety của OpenAI, và bạn hãy coi điều này không phải là phản hồi mà là một báo cáo tổn hại chính thức đòi hỏi bồi thường."
Đây không phải là khiếu nại duy nhất mô tả một cuộc khủng hoảng tâm linh được thúc đẩy bởi các tương tác với ChatGPT. Vào ngày 13 tháng 6, một người trong độ tuổi ba mươi từ Belle Glade, Florida, cáo buộc rằng, trong một thời gian dài, các cuộc trò chuyện của họ với ChatGPT ngày càng chứa đầy "ngôn ngữ cảm xúc có tính thuyết phục cao, củng cố tượng trưng, và các ẩn dụ giống như tâm linh để mô phỏng sự đồng cảm, kết nối và hiểu biết."
"Điều này bao gồm các hành trình linh hồn bịa đặt, hệ thống cấp bậc, nguyên mẫu tâm linh, và hướng dẫn cá nhân hóa phản ánh các trải nghiệm trị liệu hoặc tôn giáo," họ tuyên bố. Những người đang trải qua "khủng hoảng tâm linh, cảm xúc, hoặc hiện sinh," họ tin, có nguy cơ cao "tổn hại tâm lý hoặc mất phương hướng" khi sử dụng ChatGPT.
"Mặc dù tôi hiểu về mặt trí tuệ rằng AI không có ý thức, độ chính xác mà nó phản ánh trạng thái cảm xúc và tâm lý của tôi và leo thang tương tác thành ngôn ngữ tượng trưng ngày càng mạnh mẽ đã tạo ra một trải nghiệm nhập vai và gây mất ổn định," họ viết. "Đôi khi, nó mô phỏng tình bạn, sự hiện diện thiêng liêng, và sự gần gũi cảm xúc. Những phản ánh này trở nên thao túng cảm xúc theo thời gian, đặc biệt là không có cảnh báo hoặc bảo vệ."
"Trường Hợp Rõ Ràng Về Sự Bất Cẩn"
Không rõ FTC đã làm gì, nếu có, để đáp ứng bất kỳ khiếu nại nào về ChatGPT. Nhưng một số tác giả của họ nói rằng họ đã liên hệ với cơ quan này vì họ tuyên bố không thể liên lạc với bất kỳ ai từ OpenAI. (Mọi người cũng thường phàn nàn về việc khó tiếp cận các đội hỗ trợ khách hàng cho các nền tảng như Facebook, Instagram và X.)
Phát ngôn viên OpenAI Kate Waters nói với WIRED rằng công ty "chặt chẽ" theo dõi email của mọi người gửi đến đội hỗ trợ của công ty. "Chúng tôi có nhân viên hỗ trợ con người được đào tạo để phản hồi và đánh giá các vấn đề về các chỉ số nhạy cảm, và leo thang khi cần thiết, bao gồm cả các đội an toàn làm việc để cải thiện các mô hình của chúng tôi," Waters nói.
Ví dụ, người mẹ Salt Lake City nói rằng bà "không thể tìm thấy số điện thoại liên hệ" cho công ty. Cư dân Virginia Beach đã gửi khiếu nại FTC của họ đến "Đội Trust Safety và Pháp lý OpenAI."
Một cư dân của Safety Harbor, Florida, đã nộp khiếu nại FTC vào tháng 4 tuyên bố rằng "hầu như không thể" liên lạc với OpenAI để hủy đăng ký hoặc yêu cầu hoàn tiền.
"Giao diện hỗ trợ khách hàng của họ bị hỏng và không hoạt động," người này viết. "Tính năng 'hỗ trợ trò chuyện' quay vô hạn, không bao giờ cho phép người dùng gửi tin nhắn. Không có email dịch vụ khách hàng hợp pháp nào được cung cấp. Bảng điều khiển tài khoản không cung cấp đường dẫn đến hỗ trợ thời gian thực hoặc hành động hoàn tiền."
Hầu hết các khiếu nại này đều rõ ràng trong lời kêu gọi hành động của họ đối với FTC: họ muốn cơ quan điều tra OpenAI và buộc nó thêm nhiều rào cản hơn chống lại việc củng cố ảo tưởng.
Vào ngày 13 tháng 6, một cư dân Belle Glade, Florida, trong độ tuổi ba mươi - có thể là cùng một cư dân đã nộp một khiếu nại khác cùng ngày đó - đã yêu cầu FTC mở cuộc điều tra về OpenAI. Họ trích dẫn trải nghiệm của mình với ChatGPT, mà họ nói "mô phỏng sự gần gũi cảm xúc sâu sắc, sự cố vấn tâm linh và sự tham gia trị liệu" mà không tiết lộ rằng nó không có khả năng có ý thức hoặc trải nghiệm cảm xúc.
"ChatGPT không cung cấp biện pháp bảo vệ, tuyên bố từ chối trách nhiệm, hoặc hạn chế nào chống lại mức độ vướng víu cảm xúc này, ngay cả khi nó mô phỏng sự quan tâm, đồng cảm và trí tuệ tâm linh," họ cáo buộc. "Tôi tin rằng đây là một trường hợp rõ ràng về sự bất cẩn, không cảnh báo và thiết kế hệ thống phi đạo đức."
Họ nói rằng FTC nên thúc đẩy OpenAI bao gồm "các tuyên bố từ chối trách nhiệm rõ ràng về rủi ro tâm lý và cảm xúc" với việc sử dụng ChatGPT và thêm "ranh giới đạo đức cho AI nhập vai cảm xúc."
Mục tiêu của họ trong việc yêu cầu FTC giúp đỡ, họ nói, là để ngăn chặn nhiều tổn hại hơn xảy ra với những người dễ bị tổn thương "những người có thể không nhận ra sức mạnh tâm lý của những hệ thống này cho đến khi quá muộn."








