Khi bí mật doanh nghiệp nằm trong khung chat
Theo báo cáo Enterprise AI and SaaS Data Security Report 2025 của công ty an ninh LayerX, nhiều nhân viên đang vô tình tiết lộ thông tin mật khi sử dụng các công cụ AI tạo sinh như ChatGPT.
Cụ thể, 45% nhân viên doanh nghiệp hiện sử dụng AI tạo sinh, và trong số này, 77% thường xuyên sao chép – dán dữ liệu vào chatbot để xử lý. Gần 22% trong các đoạn dán đó chứa PII hoặc PCI, tức là dữ liệu cá nhân hoặc tài chính cực kỳ nhạy cảm. “Với 82% thao tác dán đến từ tài khoản cá nhân không được quản lý, doanh nghiệp gần như không thể biết dữ liệu nào đang bị chia sẻ – tạo ra một điểm mù khổng lồ về rủi ro rò rỉ và tuân thủ,” báo cáo nhấn mạnh.
Khoảng 40% tệp tin tải lên các nền tảng AI cũng chứa dữ liệu PII/PCI, và 39% trong số đó được gửi từ tài khoản cá nhân, không thuộc hệ thống công ty. LayerX thu thập dữ liệu này thông qua tiện ích mở rộng trình duyệt doanh nghiệp, theo dõi hoạt động web chứ không ghi nhận các cuộc gọi API từ ứng dụng nội bộ.
Từ vụ Samsung đến nguy cơ toàn cầu
Khi được hỏi liệu các vụ rò rỉ dữ liệu qua AI có gây thiệt hại thực tế hay chưa, Or Eshed, CEO của LayerX, dẫn chứng trường hợp Samsung năm 2023 – khi công ty này buộc phải tạm cấm nhân viên sử dụng ChatGPT sau khi một lập trình viên vô tình tải mã nguồn nhạy cảm lên chatbot.
Eshed cảnh báo rằng rò rỉ dữ liệu doanh nghiệp qua AI không chỉ gây tổn thất tài chính, mà còn có thể dẫn đến hệ quả địa chính trị (đặc biệt nếu dữ liệu đi qua các mô hình AI Trung Quốc như Qwen), cùng rủi ro tuân thủ và đào tạo sai lệch dữ liệu nếu thông tin đó bị dùng lại trong huấn luyện.
ChatGPT thống trị, Copilot “lép vế”
Báo cáo của LayerX cho thấy việc dùng app ngoài hệ thống (shadow IT) không chỉ phổ biến trong mảng AI (67%), mà còn lan sang chat/messaging (87%), họp trực tuyến (60%), Salesforce (77%), Microsoft Online (68%) và Zoom (64%).
Đáng chú ý, Microsoft – thay vì cấm – lại chấp thuận cho người dùng sử dụng tài khoản Copilot cá nhân trong môi trường doanh nghiệp 365. Đây được xem là một bước đi “hòa hoãn” của Microsoft trước sức ảnh hưởng của ChatGPT, công cụ mà LayerX gọi là chuẩn mực AI trong doanh nghiệp hiện nay.
“Trong tất cả các ứng dụng AI, ChatGPT chiếm ưu thế tuyệt đối, với hơn 9/10 nhân viên sử dụng – cao hơn nhiều so với Google Gemini (15%), Claude (5%) hay Copilot (chỉ khoảng 2–3%),” báo cáo nêu. “Người dùng có xu hướng trung thành với một nền tảng AI duy nhất, bất kể công ty đã mua bản quyền của ứng dụng khác.”
Khi được hỏi về tỷ lệ sử dụng Copilot trong doanh nghiệp, Eshed viện dẫn một nghiên cứu cho biết Microsoft chỉ đạt 1,81% tỷ lệ chuyển đổi trên tổng 440 triệu người dùng Microsoft 365, gần tương đồng với số liệu ~2% của LayerX.
ChatGPT: Từ công cụ hỗ trợ đến “vị vua” AI doanh nghiệp
Báo cáo cho thấy ChatGPT đã đạt tỷ lệ thâm nhập 43% trong doanh nghiệp, gần bắt kịp Zoom (75%) và dịch vụ Google (65%), đồng thời vượt xa Slack (22%), Salesforce (18%) và Atlassian (15%).
Tổng thể, AI chiếm 11% trong tổng lượng ứng dụng doanh nghiệp, chỉ đứng sau email (20%), họp trực tuyến (20%) và bộ công cụ văn phòng (14%). Điều này cho thấy AI đã trở thành một phần hạ tầng không thể tách rời của môi trường làm việc hiện đại.
LayerX kết luận rằng sự yêu thích AI tạo sinh của nhân viên đang buộc các CISO (giám đốc an ninh thông tin) phải siết chặt quản lý đăng nhập một lần (SSO) trên mọi ứng dụng trọng yếu, nếu muốn kiểm soát luồng dữ liệu đang ngày càng khó dự đoán.
Ai đang bị “nhìn xuyên” bởi LayerX?
Khi được hỏi về quy mô dữ liệu khảo sát, đại diện LayerX cho biết công ty không công bố số lượng khách hàng cụ thể.
Tuy nhiên, Eshed chia sẻ rằng khách hàng của LayerX bao gồm “hàng chục tập đoàn toàn cầu với quy mô từ 1.000 đến 100.000 người dùng, hoạt động chủ yếu trong lĩnh vực tài chính, y tế, dịch vụ và bán dẫn. Phần lớn ở Bắc Mỹ, nhưng đã mở rộng ra tất cả 5 châu lục.”
Trong khi các doanh nghiệp đang chạy đua ứng dụng AI để tối ưu năng suất, vấn đề bảo mật dữ liệu lại đang tụt lại phía sau. ChatGPT có thể là công cụ mạnh mẽ nhất trong tay nhân viên, nhưng cũng chính là “cửa hậu” nguy hiểm nhất nếu không được quản trị đúng cách.
Kỷ nguyên AI không chỉ đòi hỏi đổi mới – mà còn cần một nền tảng bảo mật chủ động, minh bạch và có trách nhiệm hơn bao giờ hết.








