Mối lo ngại về an toàn của các hệ thống AI mạnh mẽ đang gia tăng tại Trung Quốc, theo South China Morning Post. Bài báo được xuất bản trên tạp chí Science, tập hợp các chuyên gia pháp lý và nhà nghiên cứu từ DeepSeek, Alibaba và một số trường đại học.
Các phát hiện của họ cho thấy Trung Quốc đã có tiến bộ trong quản trị AI, nhưng những lỗ hổng trong hệ thống hiện tại vẫn cần được chú ý.
Thành Tựu Và Thách Thức
Các tác giả cho rằng Trung Quốc đã tạo ra một môi trường khuyến khích nghiên cứu AI và phát triển mở, tuy nhiên nhiều quy định hiện tại tạo thành một rào chắn phức tạp. Cách tiếp cận này hiệu quả hiện tại nhưng cần hướng dẫn rõ ràng hơn, đặc biệt khi ngày càng nhiều mô hình AI rủi ro cao xuất hiện.
Một lĩnh vực được nhấn mạnh là quy trình nộp hồ sơ cho các mô hình AI. Các nhà phát triển phải nộp thông tin trước khi triển khai, nhưng việc từ chối thường thiếu phản hồi mang tính xây dựng.
Nhóm nghiên cứu cũng chỉ ra những rủi ro liên quan đến các mô hình "tiên phong" (frontier models), thuật ngữ dùng để chỉ các hệ thống có khả năng tiên tiến và tiềm năng gây hậu quả nghiêm trọng nếu bị lạm dụng không đúng cách.
Cảnh Báo Về Mô Hình Mã Nguồn Mở
Các chuyên gia cảnh báo rằng các miễn trừ rộng rãi cho công việc mã nguồn mở có thể để lại chỗ cho hoạt động nguy hiểm. "Chúng tôi lập luận rằng các công ty AI hàng đầu của Trung Quốc cần minh bạch hơn nữa và dựa trên bằng chứng về những nỗ lực quản trị các mô hình tiên phong," các tác giả viết.
Tác giả chính của bài báo là Zhu Yue, giáo sư trợ lý luật tại Đại học Tongji và cựu nhà nghiên cứu tại ByteDance. Những người ký tên khác trong bài báo bao gồm hai đóng góp viên từ ngành: Wu Shaoqing, người đứng đầu quản trị AI tại DeepSeek, và Fu Hongyu từ bộ phận nghiên cứu AliResearch của Alibaba.
Quan Điểm Từ Các Chuyên Gia
Một trong những đồng tác giả, Zhang Linghan của Đại học Chính trị và Pháp luật Trung Quốc, cho biết bài báo nhằm mục đích cung cấp cho độc giả nước ngoài cái nhìn rõ ràng hơn về cách tiếp cận của Trung Quốc đối với quản trị AI. Bà nói rằng cách tiếp cận này thường bị hiểu lầm bên ngoài đất nước.
"Trung Quốc thực sự đã chuyển đổi từ người theo đến người dẫn đầu trong quản trị AI, điều này rất có ý nghĩa," Zhang nói, người đã giúp soạn thảo một đề xuất trước đó cho luật AI quốc gia.
Cấu Trúc Quy Định Hiện Hành
Các tác giả mô tả hệ thống quy tắc hiện tại của Trung Quốc được xây dựng trên nhiều trụ cột. Bao gồm các miễn trừ cho công cụ mã nguồn mở, bảo vệ cho nghiên cứu khoa học được hỗ trợ bởi AI, và triển khai từng bước các yêu cầu mới để các cơ quan quản lý có thể điều chỉnh khi công nghệ thay đổi.
Tòa án cũng đã xử lý các vụ án liên quan đến AI nhanh hơn, điều mà các tác giả cho rằng là dấu hiệu cho thấy hệ thống pháp lý đang thích ứng.
Thiếu Luật AI Thống Nhất
Ngay cả với những phát triển này, bài báo cho rằng Trung Quốc vẫn thiếu một luật AI quốc gia duy nhất. Hai phiên bản dự thảo được các học giả pháp lý lưu hành nêu rõ cách các công ty và người dùng có thể chịu trách nhiệm khi các công cụ AI gây tổn hại. Nhưng không có việc áp dụng chính thức, bộ quy tắc của đất nước vẫn là sự kết hợp của các biện pháp phức tạp và khó tiếp cận.
Nghiên Cứu Độc Lập Về Rủi Ro
Nhu cầu giám sát mạnh mẽ hơn cũng được phản ánh trong một nghiên cứu riêng của Concordia AI, một công ty tư vấn tại Bắc Kinh. Công ty đã xem xét 50 mô hình AI hàng đầu và cho rằng các hệ thống Trung Quốc hiện cho thấy mức rủi ro tiên phong tương tự như những hệ thống từ Hoa Kỳ.
Báo cáo cảnh báo rằng những mô hình này có thể là mục tiêu cho việc sử dụng độc hại hoặc hành xử theo cách thoát khỏi sự kiểm soát của con người. "Chúng tôi hy vọng những phát hiện của mình có thể hỗ trợ các công ty này khi họ cải thiện tính an toàn của mô hình," Fang Liang, người đứng đầu an toàn và quản trị AI tại Concordia AI, nói.
Mô Hình DeepSeek R1 Gây Lo Ngại
Mô hình R1 của DeepSeek đặc biệt gây lo ngại. Nghiên cứu đã cho nó điểm rủi ro cao nhất về khả năng hỗ trợ các cuộc tấn công mạng, dựa trên các bài kiểm tra mà công ty thực hiện đầu năm nay.
Bài báo Science đề xuất rằng khi khả năng AI của Trung Quốc mở rộng, khung quy định của nó phải phát triển cùng. Các tác giả cho rằng những công ty mạnh nhất của đất nước đã đang định hình nghiên cứu toàn cầu thông qua các công cụ mã nguồn mở và mô hình lớn của họ.
Nhưng với ảnh hưởng này đi kèm trách nhiệm, và bài báo thúc giục cả ngành công nghiệp và các cơ quan quản lý tập trung nhiều hơn vào những rủi ro đi kèm với tiến bộ nhanh chóng.
Ý Nghĩa Toàn Cầu
Nghiên cứu này không chỉ có ý nghĩa đối với Trung Quốc mà còn đối với cộng đồng AI toàn cầu. Khi các mô hình AI ngày càng mạnh mẽ và có khả năng gây tác động lớn, việc có một khung quản trị hiệu quả trở nên cực kỳ quan trọng.
Sự hợp tác giữa các công ty công nghệ hàng đầu như DeepSeek và Alibaba với các tổ chức học thuật trong việc đánh giá và cải thiện quản trị AI cho thấy sự nghiêm túc của Trung Quốc trong việc đảm bảo phát triển AI an toàn và có trách nhiệm.







