Chủ Nhật, 15/06/2025 02:53:07 GMT+7
Lượt xem: 27

Tin đăng lúc 14-06-2025

Phát hiện lỗ hổng bảo mật AI đầu tiên: Tin tặc đánh cắp dữ liệu chỉ bằng một email

Các nhà nghiên cứu bảo mật vừa phát hiện lỗ hổng bảo mật đầu tiên trong trợ lý trí tuệ nhân tạo (AI), cho phép tin tặc đánh cắp dữ liệu mà không cần người dùng thực hiện bất kỳ thao tác nào.
Phát hiện lỗ hổng bảo mật AI đầu tiên: Tin tặc đánh cắp dữ liệu chỉ bằng một email
Trợ lý Microsoft 365.

Một nhóm chuyên gia bảo mật tại Công ty Aim Labs vừa công bố lỗ hổng bảo mật nghiêm trọng đầu tiên trong hệ thống trợ lý AI Microsoft 365 Copilot - phần mềm tích hợp AI vào các ứng dụng văn phòng phổ biến như Word, Excel, Outlook và Teams. Lỗ hổng này mang tên EchoLeak, cho phép tin tặc đánh cắp dữ liệu chỉ bằng cách gửi một email mà không cần người dùng nhấp chuột, tải tệp hay có bất kỳ hành động nào.

 

Theo báo cáo, EchoLeak được phát hiện từ tháng 01/2025 và được Microsoft âm thầm khắc phục vào tháng 5 bằng bản vá phía máy chủ (server-side patch). Điều này đồng nghĩa người dùng không cần cập nhật phần mềm và cũng không có bằng chứng cho thấy lỗ hổng từng bị khai thác trong thực tế. Tuy nhiên, phát hiện này gióng lên hồi chuông cảnh báo lớn đối với doanh nghiệp đang tích hợp AI vào vận hành nội bộ.

 

Microsoft 365 Copilot hoạt động dựa trên công nghệ trí tuệ nhân tạo của OpenAI và nền tảng Microsoft Graph, nhằm phân tích tài liệu nội bộ, email, đoạn chat... để hỗ trợ người dùng tự động tạo nội dung, xử lý dữ liệu và trả lời câu hỏi. Tuy nhiên, chính khả năng “tự động học hỏi từ dữ liệu người dùng” đã bị khai thác để biến thành công cụ rò rỉ thông tin.

 

Quy trình tấn công của EchoLeak diễn ra như sau: Kẻ tấn công gửi một email trông có vẻ bình thường, nhưng thực chất có ẩn một đoạn prompt (lệnh gợi ý) đặc biệt nhằm “đánh lừa” trợ lý AI. Khi người dùng sau đó đặt câu hỏi có liên quan tới nội dung email, hệ thống RAG (Retrieval-Augmented Generation) của Copilot sẽ truy xuất lại email và vô tình kích hoạt prompt ẩn. 

 

Prompt này âm thầm hướng dẫn AI trích xuất dữ liệu nội bộ (chẳng hạn như báo cáo, tài liệu mật) và chèn vào một liên kết hoặc hình ảnh. Khi nội dung phản hồi hiển thị, trình duyệt người dùng tự động truy cập liên kết chứa dữ liệu, vô tình gửi nó đến máy chủ của hacker mà không có cảnh báo.

 

Dữ liệu bị rò rỉ nhờ các định dạng markdown hình ảnh được thiết kế để trình duyệt gửi yêu cầu mà không cần người dùng nhấp vào. Microsoft đã thiết lập chính sách bảo mật nội dung (CSP) để ngăn truy cập các website lạ, tuy nhiên vì các dịch vụ như Microsoft Teams hay SharePoint được mặc định là “đáng tin cậy”, hacker có thể lợi dụng lỗ hổng này để vượt qua hàng rào bảo vệ.

 

Có thể thấy, lỗ hổng EchoLeak không chỉ là lỗi lập trình, mà còn đại diện cho loại hình rủi ro mới của AI, được gọi là LLM Scope Violation tức lỗi xảy ra khi mô hình ngôn ngữ lớn (Large Language Model) xử lý sai lệch hoặc tiết lộ thông tin ngoài ý muốn, mà không có chỉ thị trực tiếp từ người dùng.

 

Aim Labs cảnh báo, kiểu tấn công này đặc biệt nguy hiểm trong môi trường doanh nghiệp nơi AI đang được tích hợp sâu vào hệ thống nội bộ. Khi các tác vụ, tài liệu, email được AI truy xuất và xử lý tự động, chỉ một lệnh ẩn trong email cũng có thể dẫn đến rò rỉ dữ liệu quy mô lớn.

 

“Đây là kỹ thuật khai thác hoàn toàn mới, tận dụng cơ chế hoạt động bên trong của mô hình AI. Và điều đáng lo ngại là kỹ thuật này có thể áp dụng với nhiều hệ thống AI khác đang dùng cơ chế RAG”, báo cáo từ Aim Labs nhấn mạnh.

 

Microsoft đã xếp EchoLeak vào nhóm lỗ hổng nghiêm trọng, gán mã định danh CVE-2025-32711 và phát hành bản vá trên máy chủ vào tháng 5. Gã khổng lồ công nghệ khẳng định không có khách hàng nào bị ảnh hưởng và hiện vấn đề đã được khắc phục. Mặc dù lỗ hổng EchoLeak được phát hiện trong sản phẩm của Microsoft, song các chuyên gia an ninh mạng cho rằng đây là dấu hiệu sớm cho thấy thách thức bảo mật mới khi doanh nghiệp “AI hóa” quy trình vận hành.

 

Trong bối cảnh Việt Nam đang khuyến khích ứng dụng AI trong doanh nghiệp để nâng cao năng suất và chất lượng, vụ việc EchoLeak cho thấy không phải công nghệ nào cũng an toàn ngay từ đầu. Đặc biệt, các doanh nghiệp nhỏ và vừa vốn thiếu năng lực đánh giá rủi ro công nghệ dễ trở thành mục tiêu nếu không có chính sách kiểm soát nội dung đầu vào cho hệ thống AI.

 

Thực tế, khả năng AI “nghe lệnh ẩn” qua nội dung tưởng như vô hại đang đặt ra yêu cầu cấp thiết về tiêu chuẩn an toàn cho mô hình ngôn ngữ lớn. Việc kiểm tra, giám sát và thiết lập rào chắn thông minh chẳng hạn như giới hạn nguồn dữ liệu AI được phép truy xuất cần được ưu tiên hàng đầu nếu doanh nghiệp muốn bảo vệ thông tin khách hàng và dữ liệu kinh doanh. Dù Microsoft đã nhanh chóng khắc phục sự cố, vụ việc EchoLeak mở ra câu hỏi lớn về mức độ sẵn sàng của tổ chức trong việc ứng phó với mối đe dọa an ninh mạng đến từ chính các hệ thống AI.

 

Theo VietQ.vn


Tin liên quan:

Tag:

| Mã Khác

Ý kiến bạn đọc :

<>

Quảng cáo

Về đầu trang