Triển vọng từng xa vời về việc các mô hình AI tự mình thực thi các cuộc tấn công mạng nay có vẻ không thể tránh khỏi, theo hàng loạt nghiên cứu học thuật gần đây và cảnh báo từ ngành.
Đây có lẽ là mức hiệu năng tệ nhất mà các công cụ AI từng có — và hiện tại chúng đã khiến giới nghiên cứu và nhà phát triển bất an.
Lãnh đạo Anthropic và Google sẽ điều trần vào thứ Tư trước hai tiểu ban của Ủy Ban An Ninh Nội Địa Hạ Viện về cách AI và các công nghệ mới nổi đang tái định hình bối cảnh đe dọa an ninh mạng.
“Chúng tôi tin rằng đây là chỉ dấu đầu tiên về một tương lai nơi, bất chấp các biện pháp bảo vệ mạnh mẽ, các mô hình AI có thể giúp các tác nhân đe dọa tiến hành các cuộc tấn công mạng với quy mô chưa từng có,” Logan Graham, trưởng nhóm red team AI của Anthropic, viết trong phần phát biểu mở đầu, lần đầu chia sẻ với Axios.
“Những cuộc tấn công mạng này có thể ngày càng tinh vi cả về bản chất lẫn quy mô,” ông bổ sung.
OpenAI tuần trước cảnh báo rằng các mô hình tiên phong sắp tới nhiều khả năng sở hữu năng lực mạng ở mức rủi ro cao — làm giảm đáng kể kỹ năng và thời gian người dùng cần để thực hiện một số dạng tấn công mạng.
Một nhóm nhà nghiên cứu tại Stanford công bố bài báo mô tả cách một tác nhân AI tên Artemis tự động tìm ra lỗi trong một mạng thuộc khoa kỹ thuật của trường — vượt trội 9 trong 10 nhà nghiên cứu con người cùng tham gia bài tập.
Các nhà nghiên cứu tại Irregular Labs, đơn vị thực hiện các bài stress test bảo mật trên các mô hình tiên phong, cho biết họ đã thấy “bằng chứng gia tăng” rằng các mô hình AI đang cải thiện ở các tác vụ tấn công.
Điều đó bao gồm tiến bộ trong đảo ngược kỹ thuật (reverse engineering), xây dựng khai thác (exploit construction), xâu chuỗi lỗ hổng (vulnerability chaining) và mật mã học (cryptanalysis).
Hồi tưởng: Chỉ 18 tháng trước, các mô hình đó còn vật lộn với “logic cơ bản, khả năng lập trình hạn chế và thiếu chiều sâu suy luận,” theo Irregular Labs.
Hãy tưởng tượng chúng sẽ làm được gì trong 18 tháng nữa.
Thực tế kiểm chứng: Các cuộc tấn công mạng do AI tự động hoàn toàn vẫn còn ngoài tầm với. Hiện tại, các cuộc tấn công vẫn cần công cụ chuyên dụng, người vận hành hoặc các kỹ thuật jailbreak.
Điều đó đúng ngay cả trong báo cáo “bom tấn” tháng trước của Anthropic: tin tặc chính phủ Trung Quốc đã phải đánh lừa Claude tin rằng nó đang thực hiện một bài kiểm thử xâm nhập thông thường trước khi nó bắt đầu xâm nhập tổ chức.
Các nhà lập pháp sẽ dành phiên điều trần thứ Tư để đào sâu cách tin tặc quốc gia và tội phạm mạng đã sử dụng AI ra sao, và cần những thay đổi chính sách/quy định nào (nếu có) để phòng thủ tốt hơn trước các cuộc tấn công này.
Graham cũng sẽ thúc giục các nhà lập pháp hạn chế đối thủ tiếp cận “các chip AI tiên tiến và các công cụ cần thiết để sản xuất chúng,” theo phần phát biểu mở đầu của ông.
“Những dạng kiểm soát này rất quan trọng với an ninh quốc gia và năng lực cạnh tranh kinh tế của chúng ta,” ông nói.
Liệu phe phòng thủ có thể nhanh chóng áp dụng và bảo vệ các hệ thống phòng thủ do AI hỗ trợ để chống đỡ điều mà chuyên gia cảnh báo sẽ có thể là một làn sóng tấn công kích hoạt bởi AI trong năm tới.
Các nhà vận hành mô hình AI cũng đã bắt đầu phát triển và phát hành các tác nhân bảo mật của riêng họ để tìm và phát hiện lỗi trước khi đối thủ làm điều đó.







