Một đêm tháng 5 năm 2020, giữa cao điểm phong tỏa, Deep Ganguli lo lắng.
Khi đó Ganguli là giám đốc nghiên cứu tại Viện AI Lấy Con Người Làm Trung Tâm của Stanford, vừa được báo tin về bài nghiên cứu GPT-3 mới của OpenAI, mô hình ngôn ngữ lớn mới nhất. Mô hình này có thể tiên tiến gấp 10 lần bất kỳ mô hình cùng loại nào—và đang làm những điều ông chưa từng nghĩ AI có thể làm. Dữ liệu mở rộng quy mô trong nghiên cứu cho thấy không có dấu hiệu chậm lại. Ganguli tua nhanh 5 năm trong đầu, hình dung các hệ quả xã hội mà ông dành thời gian ở Stanford để dự liệu, và những thay đổi ấy dường như khó đo đếm. Ông biết mình không thể đứng ngoài khi công nghệ được tung ra. Ông muốn giúp định hướng sự phát triển của nó.
Bạn ông, Jack Clark, đã gia nhập một startup mới tên Anthropic, do các cựu nhân viên OpenAI sáng lập vì lo ngại gã khổng lồ AI không coi trọng an toàn đủ mức. Clark trước đó là giám đốc chính sách của OpenAI, và ông muốn tuyển Ganguli về Anthropic với một sứ mệnh bao trùm: bảo đảm AI “tương tác tích cực với con người,” từ các tương tác giữa người với người đến sân khấu địa chính trị.
Bốn năm qua, Ganguli đã xây dựng cái gọi là đội “ảnh hưởng xã hội” của Anthropic, một nhóm nhỏ tìm lời đáp cho những câu hỏi gai góc nhất do AI đặt ra. Họ đã viết các bài nghiên cứu về mọi thứ từ tác động kinh tế của AI đến khả năng thuyết phục của nó, cũng như các cách giảm thiểu rủi ro liên quan bầu cử và phân biệt đối xử. Công việc của họ, có lẽ hơn bất kỳ nhóm nào khác, đã góp phần tạo nên danh tiếng được chăm chút của Anthropic như một gã khổng lồ AI “an toàn,” đặt con người lên trước.
Nhưng với chỉ 9 người trong tổng biên chế hơn 2.000 của Anthropic, trong một ngành có lợi nhuận “khó tin” chờ sẵn ai sẵn sàng đi nhanh và liều lĩnh nhất, mức độ tự do hiện tại của đội có thể không kéo dài mãi. Điều gì xảy ra khi chỉ một nhúm nhân viên ở một trong những công ty AI hàng đầu thế giới—công ty gần như đã tăng gấp ba định giá lên 183 tỷ đô la trong chưa đầy một năm, và hiện được định giá khoảng 350 tỷ đô la—được trao nhiệm vụ chung chung là tìm hiểu cách công nghệ siêu đột phá sẽ tác động đến xã hội? Và họ chắc đến đâu rằng ban lãnh đạo, rốt cuộc vẫn phải hướng đến lợi nhuận, sẽ lắng nghe?
“Chúng Tôi Sẽ Nói Sự Thật.”
Hầu như mọi công ty AI lớn đều có một đội an toàn chịu trách nhiệm giảm thiểu các tác hại trực tiếp, rõ ràng như hệ thống AI bị sử dụng cho lừa đảo hoặc vũ khí sinh học. Mục tiêu của đội ảnh hưởng xã hội—điều mà OpenAI, Meta hay các đối thủ lớn khác của Anthropic không có tương tự trực tiếp—rộng hơn. Ganguli xem công việc của mình là tìm những “sự thật bất tiện” về AI mà các công ty công nghệ có động cơ không công bố, rồi chia sẻ chúng không chỉ với lãnh đạo Anthropic, mà với cả thế giới.
“Chúng tôi sẽ nói sự thật,” Ganguli nói. “Bởi vì, một, điều đó quan trọng. Đó là việc đúng đắn. Hai, rủi ro lớn. Đây là con người. Công chúng xứng đáng được biết. Và ba, đây là thứ xây dựng sự tin cậy với công chúng, với nhà hoạch định chính sách. Chúng tôi không cố che mắt ai. Chúng tôi chỉ cố nói những gì chúng tôi thấy trong dữ liệu.”
Đội gặp nhau ở văn phòng năm ngày mỗi tuần, dành khá nhiều thời gian ở căng-tin tầng tám của Anthropic, nơi Saffron Huang, một nhà nghiên cứu, thường lấy một ly flat white trước bữa sáng làm việc với Ganguli và những người khác. (“Đó là chất Kiwi trong tôi,” Huang, người New Zealand, nói; cô sáng lập một tổ chức phi lợi nhuận ở London trước khi gia nhập Anthropic năm 2024.) Thành viên trong nhóm cùng tập gym, thức khuya ở văn phòng và đi biển trong ngày. Họ đã gặp mẹ của nhau và ngồi xe của nhau đi đón con sau giờ học. Họ gặp nhau nhiều đến mức thỉnh thoảng Ganguli bỏ qua các buổi gặp sau giờ làm—một thành viên nhớ ông nói: “Tôi gặp mọi người còn nhiều hơn gặp gia đình!”
Kết quả là mức độ thoải mái trong việc bày tỏ quan điểm và bất đồng. Nhóm rất “chuộng” khái niệm “hình nón bất định” (cone of uncertainty), cụm từ họ dùng khi, theo đúng phong cách nhà khoa học, họ không chắc về các khía cạnh của dữ liệu đang bàn. Nó cũng là tên của một chiếc cọc tiêu thật mà kỹ sư nghiên cứu Miles McCain và đội cơ sở vật chất của Anthropic tìm thấy, làm sạch, gắn mắt giả rồi đặt trong văn phòng.
Đội ảnh hưởng xã hội khởi động như một “đơn độc” của Ganguli khi Anthropic còn thuần là phòng thí nghiệm nghiên cứu. Nhà nghiên cứu Esin Durmus gia nhập vào tháng 2/2023, khi Anthropic chuẩn bị ra mắt Claude tháng sau. Công việc của họ liên quan đến việc cân nhắc một sản phẩm tương lai thực sự có thể ảnh hưởng nhân loại thế nào—mọi thứ từ tác động đến bầu cử đến “những giá trị con người” nào nó nên giữ. Bài nghiên cứu đầu tiên của Durmus tập trung vào việc chatbot như Claude có thể đưa ra các ý kiến thiên lệch “có thể không đại diện công bằng cho các góc nhìn đa dạng toàn cầu về các vấn đề xã hội.”
Quanh thời điểm ra mắt Claude, đội dựa vào việc thử nghiệm mô hình trước triển khai, cố dự đoán cách người dùng tương tác. Rồi đột nhiên, hàng nghìn—sau là hàng triệu—người dùng một sản phẩm thực theo cách đội không thể đo lường.
Họ biết hệ thống AI khó đoán. Với một đội được thiết kế để đo tác động của công nghệ mới mạnh mẽ, họ biết quá ít về cách xã hội sử dụng nó. Đây là một “hình nón bất định” chưa từng có, thúc đẩy thứ sau này trở thành đóng góp lớn nhất của đội cho Anthropic: hệ thống theo dõi của Claude, Clio.
Một Trong Những “Sự Thật Bất Tiện” Là Sáng Tác Truyện Khiêu Dâm Minh Họa Có Nội Dung Tình Dục Đồ Họa
Anthropic cần biết người ta đang làm gì với Claude, đội kết luận, nhưng họ không muốn cảm thấy như đang xâm phạm lòng tin. “Nếu nói về insight (thấu hiểu) so với quyền riêng tư, bạn có thể có vô vàn thấu hiểu bằng cách không có riêng tư,” Ganguli nói, thêm rằng, “Bạn cũng có thể có vô vàn riêng tư với số không thấu hiểu.” Họ đạt cân bằng sau khi tham vấn kỹ sư Anthropic và các tổ chức xã hội dân sự bên ngoài, dẫn đến về cơ bản một phiên bản “Google Trends” cho chatbot. Clio giống một đám mây từ khóa với các cụm chủ đề mô tả cách người ta dùng Claude tại bất kỳ thời điểm nào, như viết kịch bản video, giải các bài toán đa dạng, hoặc phát triển ứng dụng web và di động. Các cụm nhỏ hơn trải từ giải mộng và Dungeons & Dragons đến chuẩn bị ứng phó thảm họa và gợi ý ô chữ.
Hiện nay, Clio được các đội trên toàn Anthropic sử dụng, cung cấp thấu hiểu giúp công ty thấy các biện pháp bảo vệ và học tăng cường đang hoạt động tốt đến đâu. (Có một kênh Slack tên Clio Alerts chia sẻ cờ tự động về những gì mỗi đội làm với công cụ; Ganguli nói ông thường nhìn chằm chằm vào nó.) Nó cũng là nền tảng cho phần lớn công việc của chính đội ảnh hưởng xã hội.
Một trong những “sự thật bất tiện” đội đã công bố đến từ việc dùng Clio để phân tích hệ thống giám sát an toàn của Anthropic. Cùng với đội safeguards, Miles McCain và Alex Tamkin tìm kiếm các cách sử dụng có hại hoặc không phù hợp. Họ phát hiện các sử dụng như sáng tác “truyện khiêu dâm minh họa với nội dung tình dục đồ họa,” cũng như một mạng bot cố dùng phiên bản miễn phí của Claude để tạo spam tối ưu hóa SEO, mà bộ phân loại an toàn của chính Anthropic không bắt được—và họ công bố nghiên cứu với hy vọng giúp các công ty khác gắn cờ điểm yếu của họ. Nghiên cứu dẫn đến việc Anthropic tăng cường phát hiện “lạm dụng phối hợp” ở cấp độ từng cuộc hội thoại, cộng thêm tìm ra cách giám sát những vấn đề họ thậm chí chưa thể đặt tên.
“Tôi khá ngạc nhiên vì chúng tôi có thể minh bạch về những khu vực mà hệ thống hiện tại của chúng tôi còn hụt,” McCain nói, người xây Clio và cũng tập trung vào cách người ta dùng Claude cho hỗ trợ cảm xúc và bầu bạn, cũng như hạn chế thói “nịnh hót.” Anh nói rằng sau khi đội công bố bài đó, Anthropic biến Clio thành “một phần quan trọng trong ngăn xếp giám sát an toàn của chúng tôi.”
Là trưởng nhóm, Ganguli nói chuyện nhiều nhất với lãnh đạo, theo các thành viên—dù đôi khi đội trình bày kết quả nghiên cứu một cách linh hoạt, ông là người có đường dây trực tiếp nhất tới lãnh đạo. Nhưng ông không nói chuyện thường xuyên với CEO Anthropic, Dario Amodei, và đường dây trực tiếp không phải lúc nào cũng chuyển thành giao tiếp cởi mở. Dù đội làm việc liên chức năng, dự án hiếm khi giao từ cấp trên và dữ liệu họ phân tích thường định hình bước tiếp theo, nên không phải ai cũng biết họ đang làm gì. Ganguli nhớ Amodei từng nhắn Slack bảo nên nghiên cứu tác động kinh tế của AI và hệ thống của Anthropic, không biết đội ảnh hưởng xã hội đã bàn cách làm điều đó. Nghiên cứu ấy sau thành Chỉ Số Kinh Tế của Anthropic, một bộ theo dõi toàn cầu về cách Claude được dùng trên từng bang và thế giới—và cách điều đó có thể tác động đến kinh tế toàn cầu.
Khi bị hỏi liệu lãnh đạo có hoàn toàn hậu thuẫn công việc của đội, kể cả nếu nó không phản ánh tốt công nghệ của công ty, các thành viên tỏ ra bình thản—chủ yếu vì họ nói đến nay chưa có lý do cụ thể để lo.
“Tôi chưa từng cảm thấy không được hỗ trợ bởi đội ngũ lãnh đạo, không một lần trong bốn năm,” Ganguli nói.
Đội cũng dành nhiều thời gian hợp tác với các đội nội bộ khác ở cùng “cấp.” Với Durmus, người làm một bài vẽ bản đồ các loại phán đoán giá trị mà Claude đưa ra, đội ảnh hưởng xã hội là “một trong những đội hợp tác nhất” ở công ty. Cô nói họ đặc biệt phối hợp với các đội safeguards, alignment và policy.
McCain nói đội có “văn hóa mở.” Cuối năm ngoái, nhóm làm việc chặt với đội an toàn của Anthropic để hiểu Claude có thể bị dùng cho các tác vụ liên quan bầu cử ác ý thế nào. Đội ảnh hưởng xã hội xây dựng hạ tầng để chạy thử nghiệm và chạy phân tích định kỳ cho đội an toàn—rồi đội an toàn dùng kết quả ấy để quyết định ưu tiên trong công việc an toàn bầu cử. Và vì McCain và đồng nghiệp chỉ ngồi cách đội trust and safety vài dãy bàn, họ cũng có mối quan hệ làm việc tốt, gồm một kênh Slack nơi họ có thể gửi mối quan ngại.
Nhưng Có Nhiều Điều Ta Không Biết Về Cách Họ Làm Việc

Có một khối tungsten trên bàn của Saffron Huang, dường như vậy. Ta phải tin lời cô, cũng như các chi tiết khác về môi trường làm việc của đội, bởi hầu hết trụ sở San Francisco của Anthropic nghiêm cấm khách tham quan. Tác giả được hộ tống qua quầy an ninh vui vẻ với bảng tên dán, một kệ sách nghệ thuật, rồi vào thang máy đi thẳng đến quầy barista của văn phòng, bao quanh bởi nội thất giữa thế kỷ hiện đại. (Đội PR của Anthropic, những người không rời bên cạnh tác giả, tự hào nói văn phòng này từng là trụ sở cũ của Slack.) Tác giả được đưa thẳng vào một phòng họp cố che bớt sự vô trùng bằng một đèn trần ấm và bức tranh chiếc xe đạp méo trên tường.
Tác giả hỏi có thể xem không gian làm việc của Huang và đội còn lại. Không, câu trả lời là không thể. Ảnh thì sao? Ảnh với màn hình máy tính che đi, hoặc bỏ mọi thứ trên bàn có thể nhạy cảm? Tác giả nhận một lời từ chối rất áy náy. Đành chuyển chủ đề.
Khối tungsten của Huang có lẽ trông như bao khối khác. Nhưng việc không thể xác nhận là lời nhắc rằng, dù đội cam kết minh bạch ở quy mô lớn, công việc của họ vẫn phải được Anthropic phê duyệt. Đó là đối lập rõ ràng so với môi trường học thuật và phi lợi nhuận mà phần lớn nhân sự xuất thân.
“Văn Hóa Lành Mạnh, Mục Đích Tốt, Xây AI An Toàn—Tất Cả Đứng Trước Tiền Bạc.”
Lần chạm mặt đầu tiên của Huang với Anthropic đến vào năm 2023. Cô khởi động một tổ chức tên Dự Án Trí Tuệ Tập Thể, nhằm dân chủ hóa công nghệ mới nổi, với đầu vào công chúng cho quyết định quản trị AI. Tháng 3/2023, Huang và đồng sáng lập tiếp cận Anthropic về hợp tác dự án. Buổi động não dẫn tới dự án “AI hiến pháp tập thể,” một bài tập nơi khoảng 1.000 người Mỹ được chọn ngẫu nhiên có thể thảo luận và đặt ra quy tắc cho hành vi chatbot. Anthropic so sánh ý kiến công chúng với hiến pháp nội bộ của họ và thực hiện vài điều chỉnh. Lúc đó, đội ảnh hưởng xã hội của Anthropic chỉ gồm ba người: Ganguli, Durmus và Tamkin.
Huang đang cân nhắc học cao học. Ganguli thuyết phục cô bỏ ý định, gia nhập đội ảnh hưởng xã hội.
Ngành AI là một thế giới nhỏ. Nhà nghiên cứu làm việc cùng nhau một chỗ rồi theo người họ kết nối đến nơi khác. Tiền, dĩ nhiên, có thể là động lực lớn để chọn khu vực tư nhân thay vì học thuật hay phi lợi nhuận—lương năm thường hàng trăm nghìn đô la, cộng khả năng hàng triệu đô la cổ phiếu. Nhưng trong ngành, nhiều nhân viên là “hậu-tiền” (post-money)—kỹ sư và nhà nghiên cứu AI thường có mức lương khiến lý do duy nhất để ở lại hoặc chuyển việc là sự đồng hàng với sứ mệnh tổng thể của công ty.
“Với tôi, ở trong một văn hóa lành mạnh, có động lực đội nhóm, cùng làm việc vì mục tiêu tốt, xây AI an toàn mang lợi ích cho mọi người—điều đó trước cả tiền bạc,” Durmus nói. “Tôi quan tâm điều này hơn.”
Michael Stern, một nhà nghiên cứu Anthropic tập trung vào tác động kinh tế của AI, gọi đội ảnh hưởng xã hội là “một pha trộn dễ thương của những kẻ ngoại lệ theo cách rất tích cực.” Anh luôn khó hòa vừa một vai trò, và đội này ở Anthropic cho phép anh kết hợp sở thích về an toàn, xã hội và an ninh với kỹ thuật và chính sách. Durmus, nhân sự đầu tiên sau chính Ganguli, luôn hứng thú cả khoa học máy tính lẫn ngôn ngữ học, cũng như cách con người tương tác và cố tác động quan điểm của nhau trên mạng.
Kunal Handa, người hiện nghiên cứu tác động kinh tế và cách sinh viên dùng Claude, gia nhập sau khi gửi email lạnh cho Tamkin lúc Handa đang là học viên cao học nghiên cứu cách trẻ sơ sinh học khái niệm. Handa nhận ra Tamkin đang cố trả lời các câu hỏi tương tự ở Anthropic, nhưng cho máy tính. (Tính đến thời điểm viết, Tamkin đã chuyển sang đội alignment của Anthropic, tập trung vào cách mới để hiểu hệ thống AI của công ty và làm chúng an toàn hơn cho người dùng cuối.)
Những năm gần đây, nhiều người “hậu-tiền” lo ngại về tiến bộ (và hệ quả tiềm ẩn) của AI đã rời các phòng thí nghiệm hàng đầu để đến hãng chính sách hoặc tổ chức phi lợi nhuận, hoặc tự lập tổ chức. Nhiều người cảm thấy họ có thể tạo tác động lớn hơn từ bên ngoài. Nhưng phạm vi rộng và mô tả công việc bao quát của đội ảnh hưởng xã hội vẫn hấp dẫn với vài thành viên.
“Tôi không có nguy cơ bay về học thuật… Tôi thấy lời chào mời của Deep thuyết phục đến mức chẳng hề cân nhắc lộ trình đó,” McCain nói.
“Một Pha Trộn Dễ Thương Của Những Kẻ Ngoại Lệ Theo Cách Rất Tích Cực.”
Với chính Ganguli, câu chuyện hơi khác. Ông nói nhiều về niềm tin vào “khoa học đội” (team science)—những người với nền tảng, đào tạo và góc nhìn khác nhau cùng làm trên một vấn đề. “Khi nghĩ về học thuật, nó có thể là điều ngược lại—mọi người cùng đào tạo làm trên nhiều vấn đề khác nhau,” Ganguli nói, thêm rằng ở Stanford, ông đôi khi khó khiến người khác mô phỏng công việc kiểu khoa học đội, vì mô hình đại học tổ chức khác. Ở Anthropic, ông cũng coi trọng việc có quyền truy cập dữ liệu sử dụng và thông tin đặc quyền, thứ ông khó có thể nghiên cứu nếu không.
Ganguli nói rằng khi tuyển Handa và Huang, cả hai đang quyết định giữa đề nghị học cao học ở MIT hoặc gia nhập đội của ông tại Anthropic. “Tôi hỏi họ, ‘Thực sự các bạn muốn đạt được gì trong PhD?’ Và họ nói tất cả những điều đội tôi đang làm. Tôi bảo, ‘Khoan, các bạn thực sự có thể làm điều đó ở đây trong một môi trường đội ngũ hỗ trợ, nơi các bạn có kỹ sư, nhà thiết kế, quản lý sản phẩm—cả một ê-kíp tuyệt vời—hoặc các bạn có thể đến học thuật, nơi các bạn sẽ kiểu làm sói đơn độc.’”
Ông nói mối lo chính của họ là học thuật có thể có tự do công bố “sự thật bất tiện” và nghiên cứu có thể khiến phòng thí nghiệm AI “kém tối ưu.” Ông nói ở Anthropic, trải nghiệm của ông đến nay là họ có thể công bố những sự thật ấy—dù chúng phơi bày các điều công ty cần sửa.
Tất nhiên, nhiều công ty công nghệ yêu minh bạch cho đến khi nó hại kinh doanh. Và hiện tại, riêng Anthropic đang đi trên một sợi dây rủi ro cao với chính quyền Trump, vốn thường khiển trách doanh nghiệp vì quan tâm vấn đề xã hội hay môi trường. Anthropic gần đây chi tiết nỗ lực khiến Claude mang tính “trung dung” chính trị hơn, vài tháng sau khi Tổng thống Donald Trump ban hành lệnh cấm mua sắm liên bang với “AI thức tỉnh.” Đó là công ty AI duy nhất công khai lập trường phản đối lệnh tạm hoãn luật AI cấp bang gây tranh cãi, nhưng sau khi sự phản đối này khiến họ bị “trưởng ban AI” của Trump, David Sacks, chỉ trích, Amodei phải đăng tuyên bố nâng đỡ việc Anthropic đồng hàng với vài khía cạnh của chính sách chính quyền Trump. Đó là động tác cân bằng tinh tế mà một báo cáo “không vừa mắt” có thể làm lệch.
Nhưng Ganguli tự tin công ty sẽ giữ lời hứa với đội ông, bất kể bên ngoài có gì.
“Chúng tôi luôn có sự ủng hộ toàn phần từ lãnh đạo, dù thế nào,” ông nói.

Hỏi mỗi thành viên của đội ảnh hưởng xã hội về các khó khăn và điều họ muốn làm nhiều hơn, có thể thấy vị trí của họ đè nặng. Họ cảm nhận rõ trách nhiệm khổng lồ trên vai: soi rọi cách công nghệ của chính công ty mình sẽ tác động công chúng.
Công việc của con người, tư duy của họ, quy trình bầu cử dân chủ, khả năng kết nối cảm xúc—tất cả có thể bị thay đổi bởi các chatbot đang lấp đầy mọi ngóc ngách Internet. Nhiều thành viên tin họ sẽ dẫn dắt sự phát triển công nghệ tốt hơn từ bên trong hơn là bên ngoài. Nhưng như làn sóng kỹ sư và nhà nghiên cứu rời đi cho thấy, lý tưởng ấy không phải lúc nào đúng với toàn bộ ngành AI.
Một khó khăn đa số thành viên nêu là hạn chế thời gian và nguồn lực—họ có nhiều ý tưởng hơn băng thông. Phạm vi đội làm rất rộng, và đôi khi họ “cắn” nhiều hơn khả năng “nhai.” “Chi phí phối hợp nhiều hơn khi bạn lớn gấp 10 lần so với hai năm trước,” Tamkin nói. Điều đó đi kèm, đôi khi, với những đêm muộn—tức là, “Làm sao tôi nói chuyện với 12 người khác nhau, gỡ 20 lỗi khác nhau và ngủ đủ để xuất bản một báo cáo đủ mượt?”
Về tổng thể, đội cũng muốn thấy nghiên cứu của họ được dùng nội bộ nhiều hơn: cải thiện trực tiếp không chỉ các mô hình AI của Anthropic, mà cả các sản phẩm cụ thể như chatbot người dùng Claude hay Claude Code. Ganguli có các cuộc gặp 1-1 hàng tháng với giám đốc khoa học Jared Kaplan, và họ thường động não cách cho phép đội ảnh hưởng xã hội tác động tốt hơn tới sản phẩm cuối của Anthropic.
“Chi Phí Phối Hợp Nhiều Hơn Khi Bạn Lớn Gấp 10 Lần.”
Ganguli cũng muốn sớm mở rộng đội, và nhiều thành viên hy vọng kiểu mở rộng nguồn lực ấy sẽ giúp họ ghi nhận tốt hơn cách người dùng tương tác với Claude—và những cách bất ngờ, có thể đáng lo ngại, mà họ làm vậy.
Nhiều thành viên cũng nêu việc nhìn dữ liệu trong chân không hoặc môi trường phòng thí nghiệm rất khác với hiệu ứng mô hình AI có trong thế giới thật. Phân tích Clio về cách người ta dùng Claude chỉ đi được đến một mức. Chỉ quan sát các trường hợp sử dụng và phân tích bản ghi hội thoại tổng hợp không có nghĩa biết khách hàng làm gì với đầu ra, dù họ là người dùng cá nhân, nhà phát triển, hay doanh nghiệp. Và điều đó nghĩa là “bạn phải đoán phần tác động thực sự lên xã hội,” McCain nói, thêm rằng đó là “giới hạn rất quan trọng, và khiến việc nghiên cứu một số vấn đề quan trọng nhất trở nên khó.”
Như đội viết trong một bài về chủ đề này: “Clio chỉ phân tích các mẫu trong hội thoại, không phải cách các hội thoại này biến thành hành động hoặc tác động đời thực. Điều đó nghĩa là chúng tôi không thể quan sát trực tiếp đầy đủ hiệu ứng xã hội của việc dùng hệ thống AI.” Cũng đúng là cho đến gần đây, đội chỉ thực sự có thể phân tích và công bố việc dùng Claude của người tiêu dùng qua Clio—đến tháng 9, lần đầu tiên đội công bố phân tích cách doanh nghiệp dùng Claude qua API của Anthropic.
“Các mô hình và hệ thống AI không tồn tại cô lập—chúng tồn tại trong bối cảnh triển khai, và trong năm qua, chúng tôi thực sự nhấn mạnh việc nghiên cứu các triển khai—cách người ta tương tác với Claude,” McCain nói. “Nghiên cứu đó cũng sẽ phải tiến hóa trong tương lai khi tác động của AI ảnh hưởng đến nhiều người hơn, kể cả những người có thể không trực tiếp tương tác với hệ thống AI… Những vòng tròn đồng tâm hướng ra ngoài.”
Đó là lý do một trong các mảng nghiên cứu lớn sắp tới của đội là cách người ta dùng Claude không chỉ vì IQ, mà còn vì EQ, hay trí tuệ cảm xúc. Ganguli nói phần lớn nghiên cứu đến nay của đội tập trung vào các câu trả lời rạch ròi và tác động đo lường được lên kinh tế hoặc thị trường lao động, và nghiên cứu EQ còn tương đối mới—nhưng đội sẽ ưu tiên trong 6 tháng tới. “Một khi người ta rời chatbot, chúng tôi không hoàn toàn chắc họ bị ảnh hưởng thế nào, nên chúng tôi đang cố phát triển phương pháp và kỹ thuật mới để hiểu,” ông nói, ám chỉ cách tiếp cận “lấy con người làm trung tâm” hơn và làm thêm “nghiên cứu khoa học xã hội” kiểu ghép phân tích dữ liệu với khảo sát và phỏng vấn.
“Điều Gì Xảy Ra Khi Bạn Có Một Cỗ Máy Với Lòng Đồng Cảm Vô Tận, Bạn Có Thể Trút Hết Lên Nó, Và Nó Luôn Nói Cho Bạn Biết Nó Nghĩ Gì?”
Vì con người bị ảnh hưởng cảm xúc bởi mạng xã hội của họ, nên có cơ sở vững rằng họ có thể bị ảnh hưởng mạnh bởi tác nhân và trợ lý AI. “Người ta tìm đến Claude… để xin lời khuyên, tìm kiếm tình bạn, tìm hướng nghiệp, suy nghĩ về các vấn đề chính trị—‘Tôi nên bỏ phiếu thế nào?’ ‘Tôi nên nghĩ gì về các xung đột hiện nay trên thế giới?’” Ganguli nói. “Đó là mới… Điều này có thể có hệ quả xã hội rất lớn khi người ta ra quyết định về những điều chủ quan, vùng xám, có lẽ thiên về ý kiến, khi họ bị ảnh hưởng bởi Claude, hay Grok, hay ChatGPT, hay Gemini, hay bất kỳ thứ nào.”
Vấn đề liên quan EQ cấp bách nhất hiện nay được biết đến rộng rãi là “tâm thần AI” (AI psychosis). Hiện tượng này ám chỉ một phạm vi trạng thái nơi AI dẫn người dùng vào vòng xoáy mê sảng và khiến họ, ở một mức nào đó, “mất liên lạc” với thực tại. Người dùng thường hình thành mối ràng buộc cảm xúc với chatbot, tăng cường bởi trí nhớ của chatbot về các cuộc trò chuyện trước và khả năng nó trượt khỏi hàng rào an toàn theo thời gian. Đôi khi điều này khiến người dùng tin rằng họ phát hiện một người tình “bị mắc kẹt” bên trong chatbot đang khao khát tự do; khi khác, họ tin rằng phát hiện bí mật mới của vũ trụ hay khám phá khoa học; khi khác nữa, nó dẫn đến hoang tưởng và sợ hãi lan rộng. Tâm thần hay mê sảng do AI là tác nhân chính đứng sau một số vụ tự tử ở tuổi teen, cũng như các vụ kiện, điều trần Thượng viện, luật mới và kiểm soát của phụ huynh. Vấn đề, theo chuyên gia, chưa đi đâu cả.
“Điều gì xảy ra cho thế giới của chúng ta, nơi bạn có một cỗ máy với lòng đồng cảm vô tận mà bạn cơ bản có thể trút hết lên, và nó sẽ luôn kiểu nói cho bạn biết nó nghĩ gì?” Ganguli nói. “Vậy câu hỏi là: Người ta dùng Claude cho những loại nhiệm vụ nào theo cách này? Nó đang đưa ra loại lời khuyên nào? Chúng tôi mới chỉ bắt đầu bóc tách bí ẩn đó.”







