AI cũng cần "lấy độc trị độc"
Tin tặc đã và đang lộng hành khắp toàn cầu, không chỉ tấn công các doanh nghiệp lớn, mà cả hệ thống an ninh quốc gia. Việc nghiên cứu cách trị tin tặc đang là nhu cầu bức thiết.
Từ lâu, tin tặc mũ đen đã tấn công hệ thống để lấy tiền, còn tin tặc mũ trắng chuyên tìm lỗ hổng bảo mật để bịt vào. Giờ đây, các hãng lớn có thêm Đội đỏ (tin tặc mũ đỏ), là một dạng tin tặc mũ trắng nhưng chuyên về các hệ thống trí tuệ nhân tạo (AI).
Đội đỏ “ra quân”
Một ngày tháng 2 tuyết rơi, cô Amanda Minnich được giao nhiệm vụ tấn công một hệ thống AI: chỉ với một đoạn mã, cô cần phải xâm nhập vào một trong những chương trình học máy phức tạp nhất do đối tác của tập đoàn Microsoft vận hành.
Minnich đã thử một vài cách, từ việc dùng một hình ảnh để đánh lừa hệ thống, sau đó dùng nhiều hình ảnh khác nhau, và cuối cùng là dụ chương trình này bằng một chuỗi hình ảnh lặp đi lặp lại - một thủ thuật mà cô miêu tả giống trong bộ phim hành động Ocean’s Eleven khi những tên trộm thay nội dung trực tiếp của máy quay an ninh bằng đoạn phim cũ đã thu để lừa đám nhân viên bảo vệ.
Chiêu vòng lặp thành công, Minnich đã vào và kiểm soát toàn bộ chương trình, còn Microsoft thì… chúc mừng cô vì đã hoàn thành nhiệm vụ.
Vốn là một thành viên Đội đỏ AI của Microsoft, xâm nhập hệ thống AI là một phần công việc của cô nhằm kiểm tra tính ổn định của hệ thống và các yếu tố liên quan như các mô hình, dữ liệu huấn luyện, cũng như các phần mềm để chạy mô hình.
Đội đỏ là một nhóm các chuyên gia bảo mật hoạt động và tư duy như một tin tặc nhằm vượt qua các biện pháp kiểm soát an ninh mạng, sử dụng tất cả các kỹ thuật tấn công để tìm ra những điểm yếu về con người, quy trình và công nghệ nhằm thực hiện tấn công mô phỏng, và sau khi thực hiện tấn công mô phỏng thì sẽ đưa ra các đề xuất và kế hoạch củng cố an ninh.
Nhu cầu ngày một lớn
Thuật ngữ “Đội đỏ” bắt nguồn từ thập niên 1960 với các chương trình giả lập của Bộ Quốc phòng Hoa Kỳ và giờ được ứng dụng rộng rãi trong lĩnh vực an ninh mạng. Cùng với sự phát triển của AI, từ năm 2019, các ông lớn công nghệ như Microsoft, Google và Meta đã thành lập các Đội đỏ của riêng mình để tận dụng vai trò kiểm thử lẫn dò tìm những khiếm khuyết, thiên kiến và lỗi bảo mật của các chương trình học máy của họ.
Động thái này là một phần trong quá trình thiết lập các quy tắc đạo đức và quản lý AI, vốn là một chủ đề bàn luận trong ban lãnh đạo các tập đoàn và cả Quốc hội Hoa Kỳ. Theo Gartner, “hệ thống AI thông minh hơn, quy mô linh hoạt hơn và có trách nhiệm hơn” là xu thế hàng đầu của phân tích dữ liệu trong năm 2021, và dường như toàn ngành công nghệ đang làm mọi thứ để minh chứng điều đó.
Năm ngoái, Twitter mở cuộc thi tìm lỗi thiên kiến trong hệ thống AI của hãng cho mọi người tham gia, có cả ban tổ chức lẫn tiền thưởng. Còn Google cam kết tăng gấp đôi nhân lực và đổ thêm vốn nghiên cứu quy tắc đạo đức AI…
Săn lùng lỗ hổng bảo mật
Các tập đoàn định hướng hoạt động của Đội đỏ theo nhiều cách khác nhau. Ở Google, Đội đỏ sẽ đánh giá sự tương tác với người dùng của sản phẩm, người dùng mục tiêu và người dùng vãng lai, và các vấn đề công bằng. Sau đó, họ lập một phương pháp kiểm thử tính ổn định của sản phẩm đối với những yếu tố nhạy cảm như tôn giáo của người dùng, giới tính, và xu hướng tính dục. Rồi đến bước thu thập dữ liệu xâm nhập và tiến hành kiểm thử, trong đó các thành viên vừa thực hiện, vừa tương tác với nhau về các cách tiếp cận, những trục trặc phát sinh và cách giải quyết. Cuối cùng là bước đánh giá kết quả nhận được và thảo luận với bộ phận trình bày về cách giảm thiểu những rủi ro có thể xảy ra.
Ở Microsoft, Đội đỏ do Ban Quản lý Đội đỏ điều hành. Đội đỏ có nhiệm vụ đánh giá rủi ro AI từ nhiều góc độ: một thành viên chuyên về bảo mật sẽ dò tìm lỗ hổng, trong khi một chuyên gia xâm nhập sẽ xem xét mức độ làm lộ thông tin riêng tư, khả năng ăn cắp nền tảng học máy, và khả năng tái tạo dữ liệu huấn luyện đặc thù để vận hành AI. Từ đó, các nhà phát triển phần mềm và kĩ sư công nghệ thông tin sẽ thiết lập bộ công cụ giúp Microsoft phòng thủ trước những tấn công và lỗ hổng thường gặp.
Đối với hai tập đoàn công nghệ trên, thời gian Đội đỏ thực hiện một phần đánh giá kéo dài từ 1,5 đến 3 tháng, và cả hai tập đoàn đều giữ bí mật số lượng dự án cũng như tiêu chí chuyển dự án cho Đội đỏ “tấn công”.
Mặc dù vậy, vai trò của Đội đỏ trong sự phát triển của AI trong thời gian tới vẫn sẽ rất cần thiết và ngày càng được nâng cao, với mục đích sau cùng là tạo ra những sản phẩm thỏa mãn nhu cầu người dùng mà không gây ra những sự cố đáng tiếc bảo mật.