Krista Pawloski nhớ rõ khoảnh khắc định hình quan điểm của mình về đạo đức trí tuệ nhân tạo. Là một nhân viên AI trên Amazon Mechanical Turk - một thị trường nơi các công ty thuê người làm các tác vụ như nhập dữ liệu hoặc ghép lời nhắc AI với đầu ra - Pawloski dành thời gian kiểm duyệt và đánh giá chất lượng văn bản, hình ảnh, video do AI tạo ra, cùng với một số công việc kiểm tra sự thật.
Khoảng hai năm trước, khi làm việc tại nhà bên bàn ăn, cô nhận một nhiệm vụ phân loại tweet có phân biệt chủng tộc hay không. Trước một tweet viết “Listen to that mooncricket sing” (Nghe con dế đó hát), cô suýt nhấn “không” rồi dừng lại để tra nghĩa “mooncricket” — và bất ngờ phát hiện đó là một từ miệt thị phân biệt chủng tộc nhằm vào người Mỹ gốc Phi.
“Tôi ngồi đó nghĩ mình đã bao nhiêu lần có thể mắc cùng lỗi mà không tự nhận ra,” Pawloski kể.
Quy mô tiềm ẩn của những sai sót như vậy - từ chính cô và hàng nghìn người làm việc tương tự - khiến Pawloski hoảng sợ. Bao nhiêu nội dung xúc phạm đã vô tình lọt qua? Hoặc tệ hơn, được cho phép?
Sau nhiều năm chứng kiến bên trong hoạt động của mô hình AI, Pawloski quyết định không dùng sản phẩm AI tạo sinh cho cá nhân và khuyên gia đình tránh xa.
“Trong nhà tôi là một cái không tuyệt đối,” Pawloski nói, ám chỉ việc cô không cho con gái tuổi teen dùng các công cụ như ChatGPT. Với người cô gặp ngoài xã hội, cô khuyến khích họ hỏi AI về thứ họ hiểu rất rõ để tự phát hiện lỗi và thấy công nghệ này dễ sai như thế nào. Cô nói mỗi lần thấy danh sách nhiệm vụ mới trên Mechanical Turk, cô tự hỏi liệu việc mình làm có thể bị dùng hại người hay không, và nhiều lần, câu trả lời là có.
Amazon cho biết nhân viên được quyền tự chọn nhiệm vụ và xem chi tiết trước khi chấp nhận. Người yêu cầu đặt các thông số như thời gian, tiền công và mức độ hướng dẫn, theo Amazon.
“Amazon Mechanical Turk là một thị trường kết nối doanh nghiệp và nhà nghiên cứu - gọi là người yêu cầu - với nhân viên để hoàn thành các tác vụ trực tuyến như gắn nhãn hình ảnh, trả lời khảo sát, phiên âm văn bản hoặc xem xét đầu ra AI,” người phát ngôn Amazon Montana MacLachlan nói.
Pawloski không đơn độc. Hơn một tá người đánh giá AI - những người kiểm tra độ chính xác và căn cứ của phản hồi AI - nói với Guardian rằng sau khi hiểu cách chatbot và trình tạo hình ảnh hoạt động và mức độ sai lệch của đầu ra, họ bắt đầu khuyên bạn bè, gia đình đừng dùng AI tạo sinh hoặc ít nhất hãy dùng cực kỳ thận trọng. Những người huấn luyện này làm việc trên nhiều mô hình Gemini của Google, Grok của Elon Musk, các mô hình phổ biến khác và cả các bot nhỏ hơn, ít được biết đến.
Một nhân viên đánh giá AI tại Google phụ trách kiểm tra phản hồi do AI Overviews của Google Search tạo ra nói cô cố gắng hạn chế dùng AI hết mức có thể. Cách công ty xử lý phản hồi AI cho câu hỏi sức khỏe đặc biệt khiến cô chùn bước, cô cho biết với điều kiện ẩn danh vì sợ bị trả đũa nghề nghiệp. Cô nói đã thấy đồng nghiệp đánh giá phản hồi y tế do AI tạo ra một cách thiếu phê phán và được giao xử lý các câu hỏi như vậy dù không có đào tạo y khoa.
Ở nhà, cô cấm con gái 10 tuổi dùng chatbot. “Con bé phải học tư duy phản biện trước, nếu không sẽ không biết đầu ra có tốt hay không,” cô nói.
“Đánh giá chỉ là một trong nhiều điểm dữ liệu tổng hợp giúp chúng tôi đo lường hệ thống hoạt động tốt đến đâu, nhưng không tác động trực tiếp đến thuật toán hoặc mô hình,” Google tuyên bố. “Chúng tôi cũng có một loạt biện pháp bảo vệ mạnh mẽ để hiển thị thông tin chất lượng cao trên sản phẩm.”
Những Người Theo Dõi Bot Báo Động
Những người này thuộc lực lượng lao động toàn cầu hàng chục nghìn người giúp chatbot nghe giống con người hơn. Khi kiểm tra phản hồi AI, họ cố gắng đảm bảo chatbot không tuôn ra thông tin sai hoặc gây hại.
Nhưng khi chính những người khiến AI trông đáng tin lại là người ít tin nó nhất, các chuyên gia cho rằng đó là tín hiệu cho một vấn đề lớn hơn.
“Nó cho thấy có lẽ đang có động lực ưu tiên tung ra và mở rộng quy mô thay vì xác thực chậm, cẩn thận, và phản hồi của người đánh giá đang bị bỏ qua,” Alex Mahadevan, giám đốc MediaWise tại Poynter - một chương trình hiểu biết truyền thông - nói. “Nghĩa là khi thấy phiên bản cuối cùng của chatbot, chúng ta có thể kỳ vọng cùng kiểu lỗi mà họ đang gặp. Đó không phải tin tốt cho công chúng ngày càng tìm đến LLM để lấy tin tức và thông tin.”
Các nhân viên AI nói họ không tin các mô hình mình làm việc vì sự nhấn mạnh liên tục vào thời gian xử lý nhanh, đánh đổi chất lượng. Brook Hansen, một nhân viên AI trên Amazon Mechanical Turk, cho biết dù không phủ nhận AI tạo sinh như một khái niệm, cô không tin các công ty phát triển và triển khai những công cụ này. Bước ngoặt với cô là nhận ra những người huấn luyện hệ thống được hỗ trợ quá ít.
“Chúng tôi được kỳ vọng giúp mô hình tốt hơn, nhưng thường nhận hướng dẫn mơ hồ hoặc không đầy đủ, đào tạo tối thiểu và thời gian giới hạn phi thực tế,” Hansen — người làm dữ liệu từ năm 2010 và từng huấn luyện một số mô hình AI phổ biến nhất ở Thung lũng Silicon — nói. “Nếu nhân viên thiếu thông tin, tài nguyên và thời gian cần thiết, làm sao kết quả có thể an toàn, chính xác hoặc đạo đức? Với tôi, khoảng cách giữa kỳ vọng và những gì chúng tôi thực sự nhận được là bằng chứng rõ ràng rằng các công ty ưu tiên tốc độ và lợi nhuận hơn trách nhiệm và chất lượng.”
Theo các chuyên gia, việc AI tạo sinh phát ngôn tự tin khi thiếu thông tin — thay vì chọn không trả lời — là một lỗ hổng lớn. Một cuộc kiểm toán 10 mô hình AI tạo sinh hàng đầu, gồm ChatGPT, Gemini và AI của Meta, do tổ chức phi lợi nhuận NewsGuard thực hiện, cho thấy tỷ lệ không phản hồi của chatbot giảm từ 31% (tháng 8/2024) xuống 0% (tháng 8/2025). Đồng thời, khả năng lặp lại thông tin sai lệch gần như tăng gấp đôi từ 18% lên 35%. Không công ty nào phản hồi yêu cầu bình luận của NewsGuard tại thời điểm đó.
“Tôi sẽ không tin bất kỳ ‘sự thật’ nào bot đưa ra nếu không tự kiểm tra — nó đơn giản là không đáng tin,” một người đánh giá AI khác tại Google nói, yêu cầu ẩn danh theo thỏa thuận bảo mật với công ty thầu phụ. Cô cảnh báo mọi người khi dùng và lặp lại lo ngại về việc người có kiến thức sơ sài được giao các câu hỏi y tế và đạo đức nhạy cảm. “Đây không phải robot đạo đức. Nó chỉ là một robot.”
“Chúng tôi đùa rằng chatbot sẽ tuyệt vời nếu có thể khiến chúng ngừng nói dối,” một gia sư AI đã làm việc với Gemini, ChatGPT và Grok nói, yêu cầu ẩn danh.
Một người đánh giá khác bắt đầu kiểm tra phản hồi cho sản phẩm Google đầu 2024 nói anh mất niềm tin vào AI sau khoảng sáu tháng. Nhiệm vụ của anh là “làm khó” mô hình — đặt câu hỏi phơi bày hạn chế hoặc điểm yếu. Có bằng cấp lịch sử, anh hỏi các câu về lịch sử.
“Tôi hỏi về lịch sử người Palestine, và nó không trả lời dù tôi diễn đạt thế nào,” anh nhớ lại, yêu cầu ẩn danh. “Khi hỏi về lịch sử Israel, nó lại đưa ra bản tóm tắt rất rộng. Chúng tôi báo cáo, nhưng dường như không ai ở Google quan tâm.” Khi được hỏi về tình huống này, Google không đưa ra tuyên bố.
Với nhân viên Google này, mối lo chính là dữ liệu phản hồi mà người đánh giá đưa vào mô hình. “Sau khi thấy dữ liệu đầu vào tệ thế nào mà được coi là huấn luyện mô hình, tôi biết không thể nào nó được huấn luyện đúng,” anh nói. Anh dùng cụm “rác vào, rác ra” — nguyên lý trong lập trình: dữ liệu đầu vào xấu hoặc thiếu thì đầu ra sẽ mang cùng lỗ hổng.
Anh tránh dùng AI tạo sinh và “khuyên mọi người thân bạn bè không mua điện thoại mới có AI tích hợp, chống cập nhật tự động nếu có thể thêm AI, và không chia sẻ thông tin cá nhân với AI,” anh nói.
Mong Manh, Không Phải Tương Lai
Bất cứ khi nào chủ đề AI xuất hiện trong trò chuyện, Hansen nhắc rằng AI không phải phép màu — giải thích đội quân nhân viên vô hình phía sau, sự thiếu tin cậy của thông tin và tác động môi trường.
“Một khi bạn thấy cách những hệ thống này được ghép lại — thiên kiến, deadline vội, thỏa hiệp liên miên — bạn ngừng xem AI là tương lai và bắt đầu thấy nó mong manh,” Adio Dinika, nhà nghiên cứu lao động phía sau AI tại Viện Nghiên Cứu AI Phân Tán, nói về những người làm hậu trường. “Theo kinh nghiệm của tôi, thường là những người không hiểu AI mới bị mê hoặc bởi nó.”
Các nhân viên AI chia sẻ với Guardian cho biết họ đang tự đưa ra lựa chọn tốt hơn và nâng cao nhận thức, đặc biệt nhấn mạnh rằng AI, như lời Hansen, “chỉ tốt bằng những gì đưa vào nó — và những gì đưa vào không phải lúc nào cũng là thông tin tốt nhất”. Cô và Pawloski đã thuyết trình vào tháng 5 tại hội nghị mùa xuân của Hiệp Hội Hội Đồng Trường Học Michigan. Trước phòng đầy thành viên hội đồng và quản trị viên từ khắp bang, họ nói về tác động đạo đức và môi trường của AI, hy vọng khơi dậy đối thoại.
“Nhiều người tham dự sốc vì những gì họ biết — đa số chưa từng nghe về lao động con người hay dấu chân môi trường phía sau AI,” Hansen nói. “Một số biết ơn vì góc nhìn, số khác thì phòng thủ hoặc thất vọng, cáo buộc chúng tôi ‘bi quan u ám’ về công nghệ mà họ thấy thú vị và đầy tiềm năng.”
Pawloski so sánh đạo đức AI với ngành dệt may: khi người ta không biết quần áo rẻ được làm ra thế nào, họ vui mừng vì giá hời và tiết kiệm vài đô. Nhưng khi các câu chuyện về xưởng may bóc lột xuất hiện, người tiêu dùng bắt đầu có lựa chọn và biết cần đặt câu hỏi. Cô tin AI cũng vậy.
“Dữ liệu của bạn đến từ đâu? Mô hình có xây trên vi phạm bản quyền không? Nhân viên có được trả công công bằng cho công việc của họ không?” cô nói. “Chúng ta mới bắt đầu đặt những câu hỏi ấy, nên đa phần công chúng chưa tiếp cận được sự thật. Nhưng như ngành dệt may, nếu chúng ta tiếp tục hỏi và thúc đẩy, thay đổi là khả thi.”







