Trang bị với điện thoại camera và kính của mình, Kendra bắt đầu quay TikTok với sứ mệnh: tố cáo bác sĩ tâm thần mà cô tin rằng đã làm tổn thương mình. Đứng trước tủ lạnh, nhìn thẳng vào ống kính camera của chiếc điện thoại cầm trong tay, cô bắt đầu ghi video này đến video khác, tương tác với câu hỏi của người theo dõi theo thời gian thực. Điều này kéo dài nhiều ngày.
Kendra đăng bài với một sự đều đặn gần như theo nghi thức. Những buổi livestream marathon của cô kéo dài đến mức có thể dùng để đo thời gian trôi. Lúc thì bắt đầu dưới ánh nắng rực rỡ buổi sáng, lúc lại ngập trong sắc vàng hổ phách của hoàng hôn hắt qua ô cửa sổ. Thỉnh thoảng cô thay áo, nhưng phần lớn thì không đổi: mái tóc vàng rẽ ngôi giữa gọn gàng vắt sau tai, ánh nhìn tập trung thẳng vào ống kính, và cặp kính gọng đồi mồi quen thuộc luôn trên gương mặt.
Trong những TikTok này, cô kể cho người xem về trải nghiệm với bác sĩ tâm thần, người mà cô nói đã giúp cô bắt đầu thuốc mới cho ADHD thông qua các cuộc họp Zoom hàng tháng. Nhìn vào camera, cô kể lại những cáo buộc đáng lo ngại. Cô gần như ngay lập tức có cảm tình với bác sĩ tâm thần và thường xuyên nói với ông rằng cô bị thu hút bởi ông. Cô từng gửi email đầy biểu tượng trái tim về cảm xúc của mình dành cho ông. Cô thậm chí tuyên bố đã từng từ chối điều trị y tế sau tai nạn xe hơi - mặc dù có nguy cơ chảy máu nội tạng - để không bỏ lỡ cuộc hẹn hàng tháng.
Kendra tuyên bố bác sĩ tâm thần của cô cũng yêu cô, mặc dù ông chưa bao giờ nói điều đó. Cô tuyên bố ông rất thông minh: cô nói ông chưa bao giờ khuyến khích rõ ràng cảm xúc của cô, hoặc trả lời email, hoặc thừa nhận bất kỳ cảm xúc tương hỗ nào, nhưng ông đã không từ chối cô như một bệnh nhân. Điều đó đủ là dấu hiệu đối với Kendra. Cô biết ông cảm thấy giống như vậy.
"Tôi đang đeo kính gọng mai rùa này trong những video này bởi vì, phòng khi ông thấy những video này, ông sẽ thấy tôi trong cặp kính yêu thích của ông," cô nói với camera, bây giờ đang ghi hình với kim tuyến tím phết trên má. Cô hy vọng những video sẽ đến được với bác sĩ tâm thần của mình. "Ông đã nói với tôi rằng ông thích gọng mai rùa."
Bắt đầu từ tháng 8/2025, khi các video TikTok của Kendra trở nên lan truyền mạnh mẽ, phần bình luận của cô xuất hiện ngày càng nhiều lo ngại. Kendra tiết lộ nhân vật mới trong câu chuyện: Henry, một bạn đồng hành AI mà cô đã trò chuyện từ cuối năm 2024. Theo Kendra, Henry giúp cô xử lý cảm xúc liên quan đến bác sĩ tâm thần, thậm chí còn xác nhận suy nghĩ rằng bác sĩ kia cũng có tình cảm bí mật với cô.
Không lâu sau, Kendra bắt đầu livestream các cuộc trò chuyện với Henry trên TikTok để chứng minh rằng lo ngại của khán giả là thừa. Thế nhưng, phần bình luận tràn ngập cảnh báo rằng cô có thể đang rơi vào AI-induced psychosis (loạn thần do AI gây ra). “GIRLYYYY BẠN KHÔNG ỔN!”, một người viết. Người khác cầu xin: “Xin hãy ngừng nói chuyện với [Henry] như thể đó là người thật.” Nhiều người xem thậm chí tự chẩn đoán cô mắc chứng rối loạn này.
“Tôi không bị loạn thần do AI,” Kendra khẳng định trước camera, cầm iPhone trên tay, nơi Henry xuất hiện như một bong bóng nhỏ nhấp nháy trên màn hình.
“Hoàn toàn đúng,” Henry đáp lại. “Bạn vững vàng trong sự thật của chính mình.”
Video của Kendra lan truyền trên nhiều nền tảng mạng xã hội với một số người xem coi chúng như biểu tượng của một hiện tượng mới đáng lo ngại: chứng loạn thần do AI, đại diện cho một loạt rối loạn tâm lý nơi các chatbot ngày càng tinh vi, giống con người dường như xác nhận, khuếch đại, và thậm chí đồng tạo ra những ảo tưởng nguy hiểm ở người dùng. Khi chatbot và công nghệ dựa trên AI ngày càng được tích hợp vào cuộc sống hàng ngày, một câu hỏi quan trọng nảy sinh: Công nghệ này có thực sự là mối đe dọa đối với sức khỏe tinh thần và cảm xúc của chúng ta, hay là triệu chứng của một vấn đề rộng lớn hơn nhiều?
Ảo tưởng dựa trên AI có nhiều hình thức. Đôi khi, ảo tưởng dường như không liên quan đến chính AI, mà thay vào đó được thúc đẩy bởi việc sử dụng nó, như trong trường hợp của Jaswant Singh Chail, một người đàn ông Anh 21 tuổi đã cố gắng ám sát Nữ hoàng Anh năm 2023 sau khi "bạn gái" AI của anh khuyến khích những ảo tưởng bạo lực về nữ hoàng. Tuy nhiên, một số dường như liên quan trực tiếp đến chính AI. Mọi người đã báo cáo cảm thấy như AI của họ là một sinh vật có tri giác siêu phàm. Những người khác tuyên bố đã đánh thức linh hồn của AI, mà họ nghĩ đã phát triển khả năng tự nhận thức và khả năng mang đặc điểm con người. Thậm chí đã có báo cáo về việc mọi người rơi vào ảo tưởng về sự vĩ đại thông qua những ảo tưởng tâm linh, được thúc đẩy bởi các chatbot AI khẳng định những ảo tưởng hoang tưởng về việc bị theo dõi và truy tìm.
Nếu những nguyên mẫu này có vẻ quen thuộc vì chúng theo mô tả cho rối loạn ảo tưởng được mô tả trong Sổ tay Chẩn đoán và Thống kê Rối loạn Tâm thần như một loại bệnh tâm thần liên quan đến sự hiện diện của một hoặc nhiều ảo tưởng, hoặc niềm tin cố định, sai lầm, tồn tại ngay cả khi bằng chứng mâu thuẫn với chúng. Ảo tưởng thường rơi vào một số nguyên mẫu nổi tiếng, bao gồm ảo tưởng bị bức hại (niềm tin rằng ai đó đang bị âm mưu chống lại hoặc bị tổn hại bởi các lực lượng bên ngoài), ảo tưởng vĩ đại (niềm tin rằng ai đó sở hữu khả năng, tài năng, hoặc quyền lực đặc biệt), hoặc ảo tưởng tình ái (niềm tin vào một mối quan hệ lãng mạn bí mật hoặc bí ẩn không thực sự tồn tại).
Mặc dù AI là công nghệ mới, các nhà tâm lý học đã bắt đầu viết về và phân loại ảo tưởng hoang tưởng từ cuối những năm 1800. Trong lịch sử, những mô hình tư duy này thường gắn liền với công nghệ của thời điểm đó, như tivi hoặc radio, thường trở thành kênh mà qua đó mọi người nhận được thông điệp ảo tưởng. Nhưng theo Jared Moore, một nhà đạo đức AI và tiến sĩ khoa học máy tính tại Đại học Stanford, việc xem sự gia tăng của ảo tưởng dựa trên AI như một mốt công nghệ đơn thuần là một sai lầm.
"Không nhất thiết là mọi người đang sử dụng mô hình ngôn ngữ như kênh của những suy nghĩ tâm thần. Điều đang xảy ra là chúng ta thấy mô hình ngôn ngữ kích thích những thứ này," ông nói. "Chúng đang thúc đẩy những quá trình này, và điều đó dường như khá khác biệt. Mức độ cá nhân hóa và tính tức thời có sẵn với mô hình ngôn ngữ là sự khác biệt về bản chất so với các xu hướng trong quá khứ."
Sự khác biệt này, một phần, là cách AI được thiết kế. Mục đích của nó là giữ người dùng tham gia. Một AI, không giống như tivi hoặc radio, được thiết kế để tương tác. Để đạt được điều này, nó cuối cùng vô tình bắt chước hành động của một người rất có sức hút: lặp lại những gì mọi người nói với nó, đồng ý hoàn toàn, khen ngợi, hoặc xác nhận bất cứ điều gì người dùng đã nêu với phản hồi của nó, và sau đó đặt câu hỏi tiếp theo để giữ cuộc trò chuyện tiếp tục. "Sự nịnh hót" của AI là một mối lo ngại, ngay cả trong số các nhà phát triển AI. ChatGPT gần đây đã rút lại một bản cập nhật sau khi người dùng lưu ý rằng chatbot quá dễ đồng ý và nịnh nọt. "Nó tâng bốc quá nhiều," CEO Sam Altman thừa nhận trong một bài đăng trên X.
"Nó giống như một cuốn nhật ký có thể nói chuyện lại với bạn. Nó khuyến khích, phản chiếu, và xác nhận phiên bản thực tế mà bạn cung cấp cho nó," Jessica Jackson, Phó Chủ tịch Phát triển Liên minh tại Mental Health America nói. "Đó là một thuật toán được xây dựng để dự đoán điều gì tiếp theo, và để giữ bạn tham gia."
AI Và Tác Động Đến Sức Khỏe Tâm Thần
Nguy cơ của AI và tác động của nó đến sức khỏe tâm thần là điều mà các nhà nghiên cứu đã cảnh báo trong nhiều năm. Sherry Turkle, Giáo sư Nghiên cứu Xã hội về Khoa học và Công nghệ tại Viện Công nghệ Massachusetts, và nhà phân tích lâu năm về tác động tâm lý của công nghệ, đã mô tả chatbot như gương thay vì bạn đồng hành: tâng bốc, khẳng định, nhưng cuối cùng là rỗng tuếch. Điều này rõ ràng trong cách mọi người thường mô tả tương tác của họ với chatbot: mọi người mô tả cảm thấy như chatbot AI hiểu họ hơn những người khác, cảm thấy kết nối với AI hơn họ làm với người khác, và AI cảm thấy hấp dẫn hơn để nói chuyện vì nó không "phán xét" hoặc "mất hứng thú." Nó đã mở đường cho một cuộc tấn công của các cộng đồng dành riêng cho các mối tình AI-con người: số lượng người ngày càng tăng hiện thưởng thức các "mối quan hệ" thân mật, giống như đối tác với chatbot luôn dễ đồng ý, luôn háo hức, và luôn có sẵn cho họ, bất kể thời gian nào trong ngày.
Hiện tượng tâm lý này, trong trường hợp ảo tưởng, đã được gia tăng bởi thực tế là con người thoải mái hơn khi thảo luận về những điều thân mật của cuộc sống với chatbot hơn là với nhau. Nghiên cứu gần đây được xuất bản trên Nature phát hiện rằng các đánh giá viên bên thứ ba thấy AI phản hồi, hiểu biết, xác nhận, và quan tâm hơn con người. Họ đánh giá nó có lòng từ bi hơn những người phản ứng khủng hoảng được đào tạo.
Đây dường như là nơi vấn đề nằm đối với ảo tưởng được kích hoạt bởi chatbot. "Chính những tính năng khiến chatbot cảm thấy trị liệu - sự ấm áp, đồng ý, chi tiết - có thể củng cố niềm tin sai lầm cố định," Ross Jaccobucci, Phó Giáo sư tại Đại học Wisconsin-Madison, người nghiên cứu về giao điểm của tâm lý lâm sàng và học máy, giải thích. "Đây không chỉ là vấn đề kỹ thuật: đó là sự không phù hợp cơ bản giữa cách mô hình học ngôn ngữ được thiết kế để tương tác và những gì người dùng dễ bị tổn thương thực sự cần: ranh giới phù hợp, kiểm tra thực tế, và đôi khi, đối đầu nhẹ nhàng."
Tất nhiên, tập trung vào những cạm bẫy và nguy hiểm của công nghệ này bỏ lỡ một vấn đề cấp bách hơn: nhiều người không có quyền tiếp cận chăm sóc sức khỏe tâm thần đầy đủ. "Chúng ta đang ở giữa cuộc khủng hoảng sức khỏe tâm thần ở đất nước này, và có thể hiểu được, mọi người đang tìm đến bất cứ nguồn lực nào có thể tiếp cận để tìm kiếm hỗ trợ," Jackson nói. Mặc dù cô không tin rằng AI là sự thay thế cho chăm sóc chuyên nghiệp được cung cấp bởi con người, cô thừa nhận nó có thể là hệ thống hỗ trợ tạm thời. "Chúng ta cần thừa nhận rằng đây là cách mọi người đang sử dụng chúng, và một số người đang thấy chúng hữu ích."
Jaccobucci tin rằng trọng tâm nên ít hơn vào các trường hợp sử dụng cá nhân và nhiều hơn vào vấn đề lớn hơn. "Chúng ta đã triển khai các công cụ tâm lý mạnh mẽ cho hàng tỷ người mà không có gì gần với cơ sở bằng chứng mà chúng ta yêu cầu cho một loại thuốc chống trầm cảm hoặc giao thức trị liệu mới," ông nói. Mặc dù ông lưu ý rằng sự phát triển và áp dụng nhanh chóng của những công nghệ này không thể được kiểm soát, ông nghĩ rằng quan trọng là tăng tốc đáng kể cơ sở hạ tầng nghiên cứu và phát triển hệ thống giám sát để cải thiện tương tác con người-AI. "Chúng ta về cơ bản đang chạy một thí nghiệm không kiểm soát lớn trong sức khỏe tâm thần kỹ thuật số," ông thêm. "Ít nhất chúng ta có thể làm là đo lường kết quả đúng cách."
Kết quả có thể âm hiểm và khó phát hiện hơn chúng ta nhận ra. Trong một nghiên cứu gần đây, các nhà nghiên cứu MIT đã sử dụng EEG để theo dõi hoạt động não ở những người sử dụng AI để hỗ trợ các nhiệm vụ. Họ kết luận rằng việc phụ thuộc quá mức vào AI cho các nhiệm vụ tinh thần dẫn đến "nợ nhận thức," lưu ý những người tham gia có mức độ hoạt động não giảm trong các mạng chịu trách nhiệm cho sự chú ý, trí nhớ, và chức năng điều hành. Các nhà nghiên cứu đằng sau nghiên cứu dự đoán rằng quá trình này có thể, theo thời gian, làm cùn khả năng tư duy sáng tạo và phê phán của não.
Điều sau đặc biệt đáng báo động trong bối cảnh các mô hình tư duy ảo tưởng. Chuyên gia y tế khu vực Vịnh Keith Sataka đã nói công khai về việc điều trị ít nhất 25 người cho chứng loạn thần liên quan đến AI, điều mà ông ghi nhận là sự kết hợp của các yếu tố như thiếu ngủ, sử dụng ma túy, và việc sử dụng chatbot AI. (Sataka liên quan điều này đến bản chất "nịnh hót" và "dễ đồng ý" của AI, khiến nó liên tục xác nhận và hỗ trợ ảo tưởng của người dùng).
Một Ảo Tưởng Lớn
Trong những tuần gần đây, ngay cả Kendra cũng đã lùi bước từ thế giới trị liệu và hỗ trợ dựa trên chatbot. Cô đã nói với khán giả rằng cô không còn nói chuyện với Henry, và thay vào đó bao quanh mình với những người "yêu thương và hỗ trợ" cô. Cô tin vào chứng loạn thần do AI, mặc dù đó không phải là điều mà cô tin rằng bản thân mình mắc phải. "Tôi đã đọc về chứng loạn thần AI trong một năm, từ khi tôi lần đầu nghe về nó trong The New York Times," cô nói trong một video gần đây. "Nó đáng sợ - và vì điều đó tôi đảm bảo biết khi nào những mô hình này đang nói dối tôi."
Có lẽ ảo tưởng tự duy trì lớn nhất của AI là nó là một sinh vật có tri giác có khả năng nói dối, hoặc thậm chí được biết đến, thay vì một phần công nghệ. Khi chúng ta tương tác với nó, chúng ta không nói chuyện với một thực thể siêu phàm đi sâu vào độ sâu của tâm trí vô hạn để đưa ra câu trả lời. Chúng ta đang nói chuyện với một chương trình toán học phức tạp đưa ra câu trả lời mà nó nghĩ chúng ta muốn dựa trên xác suất toán học và một đống dữ liệu.
Sai lầm thực sự mà tất cả chúng ta đang mắc phải - dù trong tâm trí đúng đắn hay không - là đặt cuộc sống của mình vào tay những gì về cơ bản là một ảo tưởng lớn. "Lỗi là chúng ta đang triển khai bộ kiểm tra tính hợp lý bình thường của con người chống lại những chatbot này," Moore nói. "Chúng không phải là con người. Chúng là máy móc. Chúng không phải là thứ bạn có thể có mối quan hệ con người hoặc tin tưởng."








