ChatGPT có thể làm lộ bí mật doanh nghiệp

Chia sẻ Facebook
20/04/2023 11:58:55

Đó là nhận định của một công ty an ninh mạng. Tuy nhiên, rủi ro có thể nằm trong khả năng kiểm soát nếu doanh nghiệp thực hiện các biện pháp an ninh phù hợp.

Team8, một công ty an ninh mạng từ Israel đã soạn thảo một báo cáo về vấn đề này với các phản hồi từ giám đốc an ninh thông tin của nhiều doanh nghiệp.

Ảnh: Gabby Jones/Bloomberg.

Team8, một công ty liên doanh an ninh mạng từ Israel, trong một báo cáo của mình đã cho biết, các doanh nghiệp hiện đang sử dụng một số ứng dụng trí tuệ nhân tạo như ChatGPT có khả năng phải đối mặt với rủi ro lộ thông tin mật về khách hàng và các bí mật thương mại của mình.


Báo cáo này được cung cấp tới trang tin Bloomberg News trước khi được công bố. Báo cáo cho biết, việc AI đang ngày càng được ứng dụng rộng rãi trong chatbot và công cụ soạn thảo có thể khiến nhiều doanh nghiệp phải đối mặt với rủi ro về rò rỉ thông tin và kiện tụng. Báo cáo này đề ra các lo ngại về việc các chatbot có thể bị lợi dụng bởi hacker để khai thác thông tin nhạy cảm của doanh nghiệp hoặc thực hiện các hoạt động gây tổn hại đối với công ty. Bên cạnh đó cũng có nhiều lo lắng về việc các thông tin mật, hiện đang được cung cấp cho các chatbot, có thể bị lợi dụng bởi các công ty trí tuệ nhân tạo trong tương lai.

Nhiều tập đoàn công nghệ lớn như Microsoft Corp. và Alphabet Inc. đang tham gia cuộc đua tích hợp trí tuệ nhân tạo nhằm cải thiện các ứng dụng chatbot và công cụ tìm kiếm của mình, bằng cách huấn luyện các mô hình trí tuệ nhân tạo của họ dựa trên bộ dữ liệu khai thác từ Internet để mang lại cho người dùng một công cụ đa chức năng có thể trả lời bất kỳ câu hỏi nào người dùng đặt ra. Theo báo cáo, nếu những ứng dụng này được cung cấp dữ liệu mật hoặc riêng tư, việc loại bỏ những thông tin được cung cấp sẽ là vô cùng khó.


Báo cáo cho biết: “Ứng dụng trí tuệ nhân tạo trong môi trường doanh nghiệp có thể dẫn tới rủi ro các thông tin nhạy cảm, tài sản trí tuệ, mã nguồn, bí mật kinh doanh và các dữ liệu khác bị khai thác và xử lý thông qua dữ liệu nhận được trực tiếp từ người dùng hoặc thông qua các bộ API, bao gồm cả thông tin riêng tư của người dùng và các thông tin mật”. Báo cáo đánh giá các rủi ro này ở mức “cao” và cho rằng những rủi ro này là “có thể kiểm soát được” nếu như các biện pháp an ninh mạng phù hợp được triển khai.

Báo cáo của Team8 nhấn mạnh rằng các đoạn nhập liệu trong ứng dụng chatbot không hề được cung cấp cho các công ty nhằm huấn luyện trí tuệ nhân tạo, trái với thông tin những đoạn nhập liệu có khả năng bị đọc bởi người khác trong những báo cáo gần đây.

“Cho tới thời điểm báo cáo này được soạn, các mô hình trí tuệ nhân tạo huấn luyện trên dữ liệu ngôn ngữ quy mô lớn không có khả năng tự cập nhật trên thời gian thực, và vì vậy không có khả năng dùng dữ liệu đầu vào từ một người để phản hồi tới người khác, vì vậy những lo lắng xung quanh khả năng đó là không cần thiết. Tuy nhiên, nhưng phiên bản tương lai của các mô hình này không nhất thiết sẽ có đặc điểm tương tự”.

Báo cáo này cũng đánh giá ở mức “rủi ro cao” đối với ba vấn đề khác trong quá trình tích hợp các ứng dụng trí tuệ nhân tạo và nhấn mạnh mối đe dọa ngày càng lớn trong việc chia sẻ thông tin đối với các ứng dụng bên thứ ba. Microsoft đã tích hợp một số tính năng chatbot vào công cụ tìm kiếm Bing và bộ phần mềm Microsoft 365 của họ.

“Ví dụ, về phía người dùng sử dụng các ứng dụng bên thứ ba tận dụng API của các mô hình trí tuệ nhân tạo, các ứng dụng này khi bị xâm nhập có thể cấp quyền truy cập email và trình duyệt web của người dùng, cho phép kẻ xâm nhập thực hiện các hoạt động dưới danh nghĩa người dùng đó”.

Báo cáo này cũng đánh giá mức “rủi ro trung bình” việc sử dụng trí tuệ nhân tạo có thể nâng cao mức độ phân biệt đối xử, tổn hại danh tiếng của công ty hoặc khiến công ty này phải đối mặt với biện pháp pháp lý xung quanh các vấn đề bản quyền.


Ann Johnson, Phó Giám đốc công ty tại Microsoft, đã góp phần soạn thảo báo cáo này. Microsoft đã đầu tư nhiều tỷ USD vào OpenAI, công ty phát triển ứng dụng ChatGPT.

Một phát ngôn viên của Microsoft cho biết: “Microsoft khuyến khích thảo luận minh bạch về các rủi ro không gian mạng ngày càng cao trong các cộng đồng an ninh mạng và trí tuệ nhân tạo”.

Hàng loạt giám đốc an ninh thông tin từ nhiều công ty của Mỹ cũng đã góp phần soạn thảo báo cáo này. Báo cáo từ Team8 cũng đã được ủng hộ bởi Michael Rogers, cựu Chủ tịch Cơ quan An ninh Quốc gia Mỹ và Bộ Chỉ huy An ninh mạng Mỹ.


Nguyễn Quang Minh (theo Bloomberg)

Chia sẻ Facebook