Hơn 200 nhân viên hợp đồng làm việc đánh giá và cải thiện các sản phẩm AI của Google đã bị sa thải không báo trước trong ít nhất hai đợt cắt giảm nhân sự vào tháng trước. Động thái này diễn ra giữa cuộc đấu tranh đang diễn ra về mức lương và điều kiện làm việc, theo các công nhân đã nói chuyện với WIRED.
Trong vài năm qua, Google đã thuê ngoài công việc đánh giá AI của mình—bao gồm đánh giá, chỉnh sửa hoặc viết lại phản hồi của chatbot Gemini để làm cho nó nghe có vẻ con người và "thông minh" hơn—cho hàng nghìn nhân viên hợp đồng được tuyển dụng bởi GlobalLogic thuộc sở hữu của Hitachi và các công ty thuê ngoài khác. Hầu hết các nhà đánh giá làm việc tại GlobalLogic có trụ sở tại Mỹ và xử lý nội dung tiếng Anh.
Giống như các người kiểm duyệt nội dung giúp loại bỏ và phân loại nội dung trên mạng xã hội, những công nhân này sử dụng chuyên môn, kỹ năng và phán đoán của họ để dạy chatbot và các sản phẩm AI khác, bao gồm tính năng tóm tắt tìm kiếm của Google được gọi là AI Overviews—những phản hồi đúng về nhiều chủ đề. Các công nhân cáo buộc rằng những đợt cắt giảm mới nhất diễn ra giữa những nỗ lực dập tắt các cuộc biểu tình của họ về các vấn đề bao gồm lương và tình trạng mất an ninh việc làm.
Những công nhân này, thường được thuê vì kiến thức chuyên môn của họ, phải có bằng thạc sĩ hoặc tiến sĩ để tham gia chương trình siêu đánh giá, và thường bao gồm các nhà văn, giáo viên và những người từ các lĩnh vực sáng tạo.
"Tôi chỉ bị cắt đứt," Andrew Lauzon nói, người đã nhận được một email với tin tức về việc chấm dứt hợp đồng của mình vào ngày 15 tháng 8. "Tôi hỏi lý do, và họ nói giảm quy mô dự án—dù điều đó có nghĩa là gì." Anh gia nhập GlobalLogic vào tháng 3 năm 2024, nơi công việc của anh dao động từ đánh giá đầu ra AI đến đưa ra nhiều lời nhắc khác nhau để đưa vào mô hình.
Lauzon nói rằng động thái này của công ty cho thấy sự bất ổn của những công việc kiểm duyệt nội dung như vậy. Anh cáo buộc rằng GlobalLogic bắt đầu thường xuyên sa thải công nhân của mình trong năm nay. "Làm sao chúng tôi có thể cảm thấy an toàn trong công việc này khi chúng tôi biết rằng chúng tôi có thể mất việc bất cứ lúc nào?" anh bổ sung.
Các công nhân vẫn còn tại công ty tuyên bố họ ngày càng lo ngại rằng họ đang được chuẩn bị để thay thế chính mình. Theo các tài liệu nội bộ mà WIRED xem được, GlobalLogic dường như đang sử dụng những nhà đánh giá con người này để đào tạo hệ thống AI của Google có thể tự động đánh giá các phản hồi, với mục tiêu thay thế họ bằng AI.
Đồng thời, công ty cũng đang tìm cách loại bỏ nhân viên hiện tại khi tiếp tục tuyển dụng công nhân mới. Vào tháng 7, GlobalLogic đã bắt buộc các công nhân của mình ở Austin, Texas, phải trở lại văn phòng, theo một thông báo mà WIRED đã thấy. Điều này đã tác động trực tiếp đến một số công nhân không thể đủ khả năng đi làm do hạn chế tài chính hoặc không thể đi làm do khuyết tật hoặc trách nhiệm chăm sóc.
Mặc dù xử lý công việc mà họ mô tả là có kỹ năng và có tính chất quan trọng cao, tám công nhân đã nói chuyện với WIRED cho biết họ đang bị trả lương thấp và chịu đựng tình trạng thiếu an ninh việc làm và điều kiện làm việc không thuận lợi. Những điều kiện bị cáo buộc này đã tác động đến tinh thần công nhân và thách thức khả năng của mọi người thực hiện công việc tốt, các nguồn tin cho biết.
Một số nhân viên hợp đồng đã cố gắng thành lập công đoàn vào đầu năm nay nhưng tuyên bố những nỗ lực đó đã bị dập tắt. Bây giờ họ cáo buộc rằng công ty đã trả thù họ. Hai công nhân đã nộp đơn khiếu nại lên Hội đồng Quan hệ Lao động Quốc gia, cáo buộc họ bị sa thải một cách bất công, một người do đưa ra vấn đề minh bạch lương, và người kia vì ủng hộ bản thân và các đồng nghiệp.
"Những cá nhân này là nhân viên của GlobalLogic hoặc các nhà thầu phụ của họ, không phải Alphabet," Courtenay Mencini, phát ngôn viên Google, nói trong một tuyên bố. "Với tư cách là chủ lao động, GlobalLogic và các nhà thầu phụ của họ chịu trách nhiệm về việc làm và điều kiện làm việc của nhân viên họ. Chúng tôi coi trọng mối quan hệ nhà cung cấp và kiểm toán các công ty chúng tôi làm việc cùng theo Quy tắc Ứng xử Nhà cung cấp của chúng tôi." GlobalLogic từ chối bình luận.
Trong một thập kỷ, công ty phần mềm GlobalLogic đã có một nhóm "nhà đánh giá tổng quát" giúp đánh giá kết quả tìm kiếm của Google. Vào mùa xuân năm 2023, Google yêu cầu GlobalLogic tập hợp một nhóm "siêu đánh giá" để đánh giá các sản phẩm AI của mình, bắt đầu với AI Overviews.
Ricardo Levario, một giáo viên từ Texas, được thuê trong số lô đầu tiên của các siêu đánh giá. Lúc đó anh làm việc trên "trải nghiệm tìm kiếm tạo sinh" của Google, nơi kết quả tìm kiếm sẽ hiển thị một bản tóm tắt được tạo bởi AI—bây giờ được đổi tên thành AI Overviews. Công việc của anh là xác định mô hình hoạt động tốt như thế nào và viết lại các phản hồi của nó để đảm bảo nó có căn cứ và sử dụng nguồn tốt hơn.
"Sau thành công, chúng tôi biết rằng Google quan tâm đến việc phát triển chương trình, và họ sẽ tuyển các nhóm 20 người mỗi tuần," Levario nói, thêm rằng công ty cuối cùng đã tuyển dụng tới 2.000 siêu đánh giá để làm việc trên AI của Google. Nhưng các vấn đề bắt đầu khi GlobalLogic bắt đầu sử dụng các nhà thầu bên thứ ba để tăng cường tuyển dụng, Levario tuyên bố—vì trong khi lương của các siêu đánh giá GlobalLogic dao động từ 28 đến 32 đô la một giờ, các siêu đánh giá được tuyển qua các nhà thầu bên thứ ba được trả 18 đến 22 đô la một giờ cho cùng một công việc.
Công ty cũng có vài trăm "nhà đánh giá tổng quát" cho các sản phẩm AI của mình không nhất thiết phải có bằng cấp cao hơn như các siêu đánh giá. Một nhà đánh giá tổng quát như vậy, Alex, được thuê vào năm 2023 để đánh giá đầu ra của bot dựa trên các hướng dẫn được cung cấp—bao gồm các câu hỏi "mềm mại" hơn như hỏi về nhà hàng gần nhất nhưng cũng có những câu "không ngon miệng" lắm. Cô nói rằng cô chưa nhận được "mức tăng lương đáng kể" mặc dù được kéo vào các dự án "đòi hỏi hơn". (Alex yêu cầu WIRED chỉ xác định cô bằng tên đầu tiên do lo ngại về quyền riêng tư).
"Chúng tôi với tư cách là các nhà đánh giá đóng một vai trò cực kỳ quan trọng, vì các kỹ sư giữa việc làm rối code và mọi thứ, họ sẽ không có thời gian để tinh chỉnh và nhận phản hồi họ cần cho bot," Alex nói. "Chúng tôi giống như những người cứu hộ trên bãi biển, chúng tôi ở đó để đảm bảo không có điều gì xấu xảy ra." Alex cuối cùng đã có thể đảm bảo một vị trí toàn thời gian với GlobalLogic, nhưng cô cáo buộc rằng khoảng 80% nhân viên dự án của cô tiếp tục làm theo hợp đồng, không có bất kỳ phúc lợi hoặc thời gian nghỉ có lương nào.
Vào cuối năm 2023, các công nhân tạo ra một nhóm WhatsApp có tên Super Secret Secondary Location với khoảng 80 thành viên nơi một số người trong số họ bắt đầu thảo luận về cách tổ chức. Vào mùa xuân năm 2024, một số công nhân này đã cùng nhau với Công đoàn Công nhân Alphabet để thảo luận về cách tạo ra một chi nhánh GlobalLogic cho các nhà đánh giá AI để có thể đòi lương tốt hơn và điều kiện làm việc. "Chúng tôi bắt đầu xây dựng phong trào ngầm," Levario nói. "Chúng tôi về cơ bản đang đặt nền móng cho công đoàn của mình, phát triển hệ thống của chúng tôi." Đến tháng 12 năm 2024, chi nhánh của họ có 18 thành viên.
Vào thời điểm đó, sự thất vọng tại nơi làm việc chỉ ngày càng tăng. Alex, cùng với một số công nhân khác, được kéo vào một dự án vài tháng trước đó mà ban đầu cô nghĩ sẽ dẫn đến thăng chức. Nhưng thay vào đó, nó dẫn đến căng thẳng tại nơi làm việc tăng cường. Alex nói rằng trong dự án này, bộ đếm thời gian nhiệm vụ của họ được đặt ở năm phút, làm dấy lên lo ngại giữa cô và các đồng nghiệp rằng họ đang "hy sinh chất lượng tại thời điểm này." "Tôi thậm chí không đếm xem tôi làm bao nhiêu trong một ngày,"
Alex nói. "Tôi chỉ tập trung vào bộ đếm thời gian hơn bất cứ thứ gì khác—nó đã chuyển từ công việc kích thích tinh thần thành tê liệt trí óc." Cô bổ sung rằng cô thường không đạt được chỉ số hoàn thành mỗi nhiệm vụ trong vòng năm phút và công ty đã "đe dọa nhiều người trong chúng tôi sẽ mất việc hoặc dự án nói chung nếu chúng tôi không giảm những con số này xuống."
Vào tháng 1 khi một công nhân nghỉ việc và để lại tin nhắn trên các kênh xã hội và qua email yêu cầu các công nhân tổ chức, mọi thứ bắt đầu trở nên tệ hơn. Các công nhân bắt đầu có các cuộc trò chuyện về điều kiện làm việc và bình đẳng lương trên những kênh xã hội này. "Phản ứng của GlobalLogic là đàn áp cuộc trò chuyện, vì vậy họ bắt đầu xóa các chủ đề," Levario tuyên bố. "Một trưởng nhóm thậm chí còn nói với chúng tôi rằng chúng tôi đang vi phạm chính sách công ty, điều này không đúng—không có chính sách công ty nào xung quanh điều đó." Cuối tháng đó, để chuyển sự bất bình của công nhân này thành hành động, Levario—người là một trong những người tổ chức có tiếng nói hơn đã chia sẻ một cuộc khảo sát về lương và điều kiện trong các kênh xã hội. Điều này đã hiệu quả, và thành viên công đoàn tăng từ 18 lên 60 vào tháng 2.
Tuy nhiên, sau sự cố này, mọi thứ nhanh chóng tan rã. Trong tuần đầu tiên của tháng 2, nhiều công nhân nhận được email nói rằng các kênh xã hội của công ty là cách để tất cả các công nhân từ xa kết nối và tạo tình bạn—bị cấm sử dụng trong giờ làm việc. Những không gian trò chuyện nội bộ này trên Google Chat cho tất cả các loại nhóm và sở thích—từ người đồng tính và gay đến game thủ và nhà văn.
"Các không gian xã hội giúp chúng tôi cảm thấy ít robot hơn và con người hơn," Faith Frontera nói về việc công ty loại bỏ việc sử dụng các kênh xã hội. "Điều này quan trọng đặc biệt trong môi trường từ xa nơi bạn không được gặp các đồng nghiệp trực tiếp." Frontera gia nhập GlobalLogic với tư cách là một nhà đánh giá tổng quát để chú thích, đọc lại và viết phản hồi cho Gemini và Magi, đây là dự án mới của Google để tích hợp AI vào tìm kiếm.
Nhiều công nhân tin rằng việc cấm các không gian xã hội là kết quả trực tiếp của việc công nhân thảo luận về bình đẳng lương. "Tôi tin rằng [vì] công đoàn đang xảy ra, mọi người đang thảo luận về lương của họ và những thứ khác, vẽ ra một bức tranh xấu" về GlobalLogic, một siêu đánh giá gia nhập công ty hai năm trước tuyên bố, yêu cầu ẩn danh để nói tự do. "Và vì vậy họ đã làm điều đó như một phương tiện để ngăn chúng tôi giao tiếp với nhau và đó là điều làm cho môi trường trở nên thù địch."
Ngay cả khi công ty hạn chế việc sử dụng các không gian xã hội, Levario tiếp tục tham gia vào các kênh xã hội, sau đó anh được gọi vào một cuộc họp để cảnh báo anh không sử dụng những không gian này. Levario sau đó nộp đơn khiếu nại người tố giác với Hitachi. Bốn ngày sau, Levario nhận được phản hồi về khiếu nại của mình và một lời mời lịch. Trong cuộc gọi năm phút, Levario bị sa thải. Họ nói với anh rằng họ đang chấm dứt hợp đồng của anh "vì vi phạm chính sách không gian xã hội."
Các nhà nghiên cứu lao động cáo buộc đây là cách nó thường diễn ra trên khắp thế giới với các cơ quan ký hợp đồng và công nhân. "Đây là kịch bản," Mila Miceli, trưởng nghiên cứu tại Viện DAIR, một tổ chức làm việc với các công nhân dữ liệu AI trên toàn cầu, nói. "Chúng tôi đã thấy điều này ở những nơi khác, hầu như mọi công ty thuê ngoài làm công việc dữ liệu nơi công nhân đã cố gắng tập thể hóa và tổ chức—điều này đã khó khăn. Họ đã chịu đựng sự trả thù."
Trên toàn cầu, các công nhân hợp đồng AI khác đang đấu tranh và tổ chức để có sự đối xử và lương tốt hơn. Đầu năm nay, một nhóm người gắn nhãn dữ liệu AI Kenya đã thành lập Hiệp hội Người gắn nhãn Dữ liệu trong nỗ lực đấu tranh cho lương tốt hơn và điều kiện làm việc và hỗ trợ sức khỏe tâm thần. Đồng thời, các người kiểm duyệt nội dung từ khắp nơi trên thế giới, những người đã đối mặt và tiếp tục đối phó với các vấn đề tương tự, đã thành lập liên minh công đoàn toàn cầu vào tháng 4. Liên minh Công đoàn Toàn cầu của Người kiểm duyệt Nội dung bao gồm công nhân từ Kenya, Thổ Nhĩ Kỳ và Colombia.
Những người vẫn còn làm việc tại GlobalLogic nói rằng họ sợ lên tiếng vì có thể mất việc. "Nó chỉ là một bầu không khí áp bức," Alex nói. "Chúng tôi không thể thực sự tổ chức—chúng tôi sợ rằng nếu chuyện bị lộ ra, chúng tôi sẽ bị sa thải."








