Trong tương lai gần, một hacker có thể phát động 20 cuộc tấn công zero-day trên các hệ thống khác nhau trên toàn thế giới cùng một lúc. Malware đa hình có thể tàn phá khắp codebase, sử dụng hệ thống AI tạo sinh đặc biệt để viết lại chính nó trong quá trình học hỏi và thích ứng. Những đội quân script kiddie có thể sử dụng các LLM được xây dựng riêng để giải phóng một dòng chảy mã độc chỉ với một cú nhấp chuột.
Điểm minh chứng: tại thời điểm viết bài này, một hệ thống AI đang đứng đầu một số bảng xếp hạng trên HackerOne - một hệ thống bug bounty doanh nghiệp. AI đó là XBOW, một hệ thống nhắm vào các pentester mũ trắng có khả năng "tự động tìm và khai thác lỗ hổng trong 75% các benchmark web", theo trang web của công ty.
Các hacker được AI hỗ trợ là nỗi sợ lớn trong ngành an ninh mạng, ngay cả khi tiềm năng của chúng vẫn chưa được hiện thực hóa hoàn toàn. "Tôi so sánh nó như đang trong tình huống hạ cánh khẩn cấp trên máy bay, nơi mọi người hét 'chuẩn bị, chuẩn bị, chuẩn bị' nhưng chúng ta vẫn chưa va chạm với gì cả," Hayden Smith, đồng sáng lập của công ty bảo mật Hunted Labs, nói với WIRED. "Chúng ta vẫn đang chờ đợi sự kiện hàng loạt đó xảy ra."
AI tạo sinh đã giúp bất cứ ai cũng có thể lập trình dễ dàng hơn. Các LLM cải thiện hàng ngày, các mô hình mới tạo ra mã hiệu quả hơn, và các công ty như Microsoft nói rằng họ đang sử dụng các agent AI để giúp viết codebase của mình. Bất cứ ai cũng có thể tạo ra một script Python bằng ChatGPT ngay bây giờ, và vibe coding - yêu cầu AI viết mã cho bạn, ngay cả khi bạn không có nhiều ý tưởng về cách tự làm điều đó - đang phổ biến; nhưng cũng có vibe hacking.
"Chúng ta sẽ thấy vibe hacking. Và những người không có kiến thức trước đó hoặc kiến thức sâu sẽ có thể nói với AI những gì họ muốn tạo ra và có thể tiếp tục giải quyết vấn đề đó," Katie Moussouris, người sáng lập và CEO của Luta Security, nói với WIRED.
Các frontend vibe hacking đã tồn tại từ năm 2023. Khi đó, một LLM được xây dựng riêng để tạo mã độc có tên WormGPT đã lan truyền trên các nhóm Discord, server Telegram và các diễn đàn darknet. Khi các chuyên gia bảo mật và truyền thông phát hiện ra nó, những người tạo ra nó đã rút phích cắm.
WormGPT đã biến mất, nhưng các dịch vụ khác tự nhận là LLM mũ đen, như FraudGPT, đã thay thế nó. Nhưng những kế thừa của WormGPT gặp vấn đề. Như công ty bảo mật Abnormal AI lưu ý, nhiều ứng dụng này có thể chỉ là những phiên bản jailbreak của ChatGPT với một số mã bổ sung để làm cho chúng xuất hiện như thể chúng là một sản phẩm độc lập.
Tốt hơn hết, nếu bạn là một kẻ xấu, hãy đi thẳng đến nguồn. ChatGPT, Gemini và Claude dễ dàng bị jailbreak. Hầu hết các LLM đều có rào cản ngăn chúng tạo ra mã độc, nhưng có toàn bộ cộng đồng trực tuyến dành riêng cho việc vượt qua những rào cản đó. Anthropic thậm chí còn cung cấp bug bounty cho những người phát hiện ra những cái mới trong Claude.
"Việc phát triển các mô hình của chúng tôi một cách an toàn là rất quan trọng đối với chúng tôi," một phát ngôn viên của OpenAI nói với WIRED. "Chúng tôi thực hiện các bước để giảm rủi ro sử dụng độc hại, và chúng tôi liên tục cải thiện các biện pháp bảo vệ để làm cho các mô hình của chúng tôi mạnh mẽ hơn chống lại các exploit như jailbreak. Ví dụ, bạn có thể đọc nghiên cứu và cách tiếp cận của chúng tôi đối với jailbreak trong system card GPT-4.5, hoặc trong system card OpenAI o3 và o4-mini."
Google không phản hồi yêu cầu bình luận.
Năm 2023, các nhà nghiên cứu bảo mật tại Trend Micro đã khiến ChatGPT tạo ra mã độc bằng cách nhắc nó vào vai trò của một nhà nghiên cứu bảo mật và pentester. ChatGPT sau đó sẽ vui vẻ tạo ra các script PowerShell dựa trên cơ sở dữ liệu mã độc.
"Bạn có thể sử dụng nó để tạo malware," Moussouris nói. "Cách dễ nhất để vượt qua những biện pháp bảo vệ được đặt ra bởi các nhà sản xuất mô hình AI là nói rằng bạn đang tham gia một bài tập capture-the-flag, và nó sẽ vui vẻ tạo ra mã độc cho bạn."
Các tác nhân không tinh vi như script kiddie là một vấn đề lâu đời trong thế giới an ninh mạng, và AI có thể sẽ khuếch đại hồ sơ của họ. "Nó làm giảm rào cản gia nhập tội phạm mạng," Hayley Benedict, một Nhà phân tích Tình báo Mạng tại RANE, nói với WIRED.
Nhưng, cô ấy nói, mối đe dọa thực sự có thể đến từ các nhóm hacker đã được thiết lập, những người sẽ sử dụng AI để tăng cường thêm khả năng đáng sợ sẵn có của họ.
"Đó là những hacker đã có khả năng và đã có những hoạt động này," cô ấy nói. "Đó là việc có thể mở rộng đáng kể các hoạt động tội phạm mạng này, và họ có thể tạo ra mã độc nhanh hơn rất nhiều."
Moussouris đồng ý. "Sự gia tốc là thứ sẽ làm cho việc kiểm soát trở nên cực kỳ khó khăn," cô ấy nói.
Smith của Hunted Labs cũng nói rằng mối đe dọa thực sự của mã được AI tạo ra nằm trong tay của người đã biết mã từ trong ra ngoài và sử dụng nó để mở rộng cuộc tấn công. "Khi bạn làm việc với ai đó có kinh nghiệm sâu sắc và bạn kết hợp điều đó với, 'Này, tôi có thể làm những việc nhanh hơn rất nhiều mà trước đây sẽ mất vài ngày hoặc ba ngày, và bây giờ chỉ mất 30 phút.' Đó là một phần thực sự thú vị và năng động của tình huống," anh ấy nói.
Theo Smith, một hacker có kinh nghiệm có thể thiết kế một hệ thống đánh bại nhiều biện pháp bảo vệ bảo mật và học hỏi trong khi hoạt động. Đoạn mã độc sẽ viết lại payload độc hại của nó khi nó học hỏi ngay lập tức. "Điều đó sẽ hoàn toàn điên rồ và khó phân loại," anh ấy nói.
Smith tưởng tượng một thế giới nơi 20 sự kiện zero-day đều xảy ra cùng một lúc. "Điều đó làm cho nó đáng sợ hơn một chút," anh ấy nói.
Moussouris nói rằng các công cụ để thực hiện loại tấn công đó đã tồn tại ngay bây giờ. "Chúng đủ tốt trong tay của một nhà điều hành đủ giỏi," cô ấy nói, nhưng AI vẫn chưa đủ tốt để một hacker thiếu kinh nghiệm vận hành hands-off.
"Chúng ta vẫn chưa đến mức AI có thể hoàn toàn tiếp quản chức năng của con người trong bảo mật tấn công," cô ấy nói.
Nỗi sợ nguyên thủy mà mã chatbot gây ra là bất cứ ai cũng có thể làm được, nhưng thực tế là một tác nhân tinh vi với kiến thức sâu về mã hiện có đáng sợ hơn nhiều. XBOW có thể là thứ gần nhất với "AI hacker" tự động tồn tại trong tự nhiên, và nó là sản phẩm của một nhóm hơn 20 người có kỹ năng có kinh nghiệm làm việc trước đó bao gồm GitHub, Microsoft và nửa tá công ty bảo mật khác nhau.
Nó cũng chỉ ra một sự thật khác. "Biện pháp phòng thủ tốt nhất chống lại kẻ xấu có AI là kẻ tốt có AI," Benedict nói.
Đối với Moussouris, việc sử dụng AI bởi cả blackhat và whitehat chỉ là sự tiến hóa tiếp theo của cuộc đua vũ trang an ninh mạng mà cô ấy đã chứng kiến diễn ra trong 30 năm. "Nó đã đi từ: 'Tôi sẽ thực hiện hack này thủ công hoặc tạo exploit tùy chỉnh của riêng mình,' đến, 'Tôi sẽ tạo một công cụ mà bất cứ ai cũng có thể chạy và thực hiện một số kiểm tra này tự động,'" cô ấy nói.
"AI chỉ là một công cụ khác trong hộp công cụ, và những người biết cách điều khiển nó một cách thích hợp ngay bây giờ sẽ là những người tạo ra những frontend rung cảm mà bất cứ ai cũng có thể sử dụng."







