AI tác động thế nào đến quyền riêng tư của cá nhân?
VietTimes – Đó là chủ đề của tọa đàm do Viện Nghiên cứu Chính sách và Phát triển Truyền thông (IPS) tổ chức ngày 15/6 tại Hà Nội. Các chuyên gia đã cùng chia sẻ những tác động của AI đối với dữ liệu và quyền riêng tư của mỗi cá nhân
Mở đầu tọa đàm, ông Trần Hữu Nhân - kỹ sư dữ liệu và máy học tại Công ty Cổ phần One Mount Group - đã đưa ra các nhận định, phân tích về công nghệ trí tuệ nhân tạo và tác động của nó đến quyền riêng tư của cá nhân.
Theo ông Nhân, trí tuệ nhân tạo là bước tiến công nghệ tiếp theo của lịch sử loài người, sau các sáng chế về máy móc kĩ thuật, mạng internet. Trí tuệ nhân tạo được hiểu là công nghệ có khả năng mô phỏng hành vi của con người, trong đó dữ liệu chính là "Trái tim". Trí tuệ nhân tạo chỉ hoạt động được khi được cung cấp dữ liệu đầu vào và đây là công cụ phục vụ mục đích của con người. Chính vì cần dữ liệu đầu vào nên phải thực hiện thu thập dữ liệu, trong đó có dữ liệu cá nhân.
Dữ liệu cá nhân của mỗi người được thu thập liên tục thông qua tương tác của cá nhân trên không gian số. Khối dữ liệu này được xử lý để phục vụ cuộc sống con người như tạo ra sự trải nghiệm tiêu dùng, giải trí. Tuy nhiên việc thu thập và xử lý dữ liệu cá nhân đến đâu là phù hợp thì cần có các quy định của pháp luật.
Nghị định 13 về bảo vệ dữ liệu cá nhân
Nói về các quy định của pháp luật đối với lĩnh vực trí tuệ nhân tạo và quyền riêng tư, bà Nguyễn Lan Phương - cán bộ phân tích của Viện Nghiên cứu Chính sách và Phát triển Truyền thông (IPS) - cho biết, trong khi thế giới đã ban hành một số bộ luật kiểm soát việc thu thập dữ liệu cá nhân, thì Việt Nam hiện nay mới chỉ có duy nhất Nghị định 13/2023/NĐ-CP (viết tắt là Nghị định 13).
Nghị định 13 là văn bản pháp lý đầu tiên tại Việt Nam chính thức sử dụng khái niệm "dữ liệu cá nhân". Những phân tích của bà Phương về Nghị định 13 tập trung vào hai khía cạnh: Nghị định tác động như thế nào đến hoạt động xử lý dữ liệu cá nhân bằng AI; và hoạt động thu thập dữ liệu cá nhân bằng công nghệ Trí tuệ nhân tạo sẽ tạo ra những thách thức gì đối với các quy định trong Nghị định 13.
Ở khía cạnh thứ nhất , bà Nguyễn Lan Phương đánh giá Nghị định 13 đã có các quy định về nghĩa vụ bảo vệ dữ liệu cá nhân đối với các chủ thể có hoạt động thu thập, xử lý dữ liệu cá nhân.
Nghĩa vụ bảo vệ dữ liệu cá nhân bao gồm 3 loại nghĩa vụ về nhân sự, hành chính, kĩ thuật và được xây dựng dựa trên 4 nguyên tắc gồm đồng thuận, tối thiểu, bảo mật và hợp pháp.
Chủ thể thu thập, xử lý dữ liệu cá nhân chỉ được thu thập, xử lý dữ liệu cá nhân cho mục đích nhất định khi có sự đồng ý của chủ thể dữ liệu. Khi xử lý dữ liệu cá nhân, chủ thể này phải thực hiện đánh giá tác động xử lý dữ liệu cá nhân và dự báo các rủi ro có khả năng xảy ra, thực hiện biện pháp kỹ thuật từ khi bắt đầu và trong suốt quá trình xử lý dữ liệu. Chủ thể được khuyến khích áp dụng các tiêu chuẩn trong ngành để bảo vệ dữ liệu cá nhân.
Bà Phương đánh giá, đây là các quy định đáp ứng được thách thức do loại công nghệ phức tạp như công nghệ trí tuệ nhân tạo đặt ra. Bởi hiện nay chúng ta chưa dự liệu hết các rủi ro khi áp dụng trí tuệ nhân tạo để xử lý dữ liệu cá nhân.
Công nghệ trí tuệ nhân tạo phát triển rất nhanh chóng nên quy định nghĩa vụ đánh giá rủi ro và khuyến khích áp dụng tiêu chuẩn công nghệ sẽ đảm bảo hoạt động xử lý dữ liệu cá nhân luôn được thiết kế để đảm bảo quyền riêng tư cá nhân.
Ở khía cạnh thứ hai , bà Phương đánh giá sự ứng dụng trí tuệ nhân tạo trong xử lý dữ liệu cá nhân sẽ tạo ra một số thách thức với chính sách: làm sao để tận dụng trí tuệ nhân tạo trong xử lý lượng lớn dữ liệu cá nhân để phát triển kinh tế mà vẫn đảm bảo sự riêng tư, tự do cá nhân? Liệu nguyên tắc đồng thuận và tối thiểu có tạo ra thách thức cho hoạt động tận dụng công nghệ để phát triển kinh tế - xã hội?
Vị nữ cán bộ nghiên cứu của Viện IPS nói rằng nên chăng đặt ra nguyên tắc hợp lý và tương thích: Cho phép sử dụng lại dữ liệu cá nhân vào mục đích khác mục đích ban đầu, trong trường hợp không ảnh hưởng đến lợi ích hợp pháp, chính đáng của chủ thể dữ liệu và sử dụng biện pháp bảo mật tương thích, để bảo vệ dữ liệu cá nhân.
Bên cạnh đó, cơ quan quản lý cần hướng dẫn thêm về hoạt động sử dụng dữ liệu cá nhân mới, tạo ra từ dữ liệu cá nhân ban đầu, và quyền xóa dữ liệu cá nhân. Với năng lực của AI, các dữ liệu cá nhân rời rạc được thu thập và kết nối lại với nhau, tạo ra dữ liệu cá nhân mới từ quá trình suy luận, cho phép lập hồ sơ cá nhân tự động.
Các dữ liệu cá nhân tạo ra từ quá trình suy luận của máy tính, hồ sơ cá nhân tự động này sau đó được sử dụng cho mục đích nghiên cứu, kinh doanh, thử nghiệm các công nghệ mới. Vậy chủ thể dữ liệu cá nhân có yêu cầu xóa dữ liệu thì loại dữ liệu cá nhân mới tạo ra có thuộc dữ liệu phải xóa hay không?.
Theo quy định trong Nghị định 13/2023/NĐ-CP, quyền xóa dữ liệu cá nhân sẽ không được thực hiện trong trường hợp dữ liệu cá nhân phục vụ mục đích nghiên cứu, thống kê theo quy định pháp luật.
Theo Luật Thống kê, hoạt động thống kê ngoài Nhà nước phục vụ hoạt động kinh doanh, nhu cầu hợp pháp và chính đáng khác, không xâm phạm lợi ích quốc gia và lợi ích hợp pháp của cá nhân, tổ chức. Vậy dữ liệu cá nhân mới tạo ra dùng cho mục đích thống kê để ra quyết định kinh doanh của doanh nghiệp, nghiên cứu và thử nghiệm công nghệ mới mà không xâm phạm lợi ích của cá nhân, tổ chức, sẽ hợp pháp?
Cần có luật riêng về trí tuệ nhân tạo
Nói thêm về sự phát triển của trí tuệ nhân tạo, ông Trần Hữu Nhân cho biết lịch sử loài người đã chứng kiến nhiều bước nhảy về công nghệ với khoảng cách giữa các lần ngày càng rút ngắn, từ 60 năm, rồi 55 năm, 50 năm, 40 năm, 30 năm và hiện nay được dự báo là 25 năm.
Trong khoảng 25 năm tới, những thay đổi về công nghệ nói chung và trí tuệ nhân tạo nói riêng sẽ khó dự đoán chính xác. Tuy nhiên, ông Nhân vẫn nhấn mạnh rằng trí tuệ là công cụ của con người, hỗ trợ con người ra quyết định tốt hơn. Công nghệ trí tuệ nhân tạo sẽ không thay thể được con người trong việc ra quyết định và chịu trách nhiệm.
Phóng viên VietTimes đã đặt câu hỏi tới các diễn giả rằng, cá nhân làm thế nào để tự bảo vệ mình trước khả năng giả mạo của AI, cụ thể là các phần mềm deepfake, tạo sinh video, hay phải nhờ sự can thiệp của bên thứ ba?
Ông Trần Hữu Nhân nói rằng từ xa xưa khi deepfake chưa xuất hiện thì đã có sự giả mạo từ các phần mềm như Photoshop và các kỹ xảo video khác. Giờ đây, khi deepfake xuất hiện thì cũng đã có những công cụ có khả năng phát hiện video giả mạo, nên người dùng không cần quá lo ngại về những phần mềm AI.
Về vấn đề đạo đức đối với việc sử dụng trí tuệ nhân tạo, ông Nguyễn Quang Đồng - Viện trưởng Viện IPS - đặt câu hỏi: Liệu rằng nên hiểu đạo đức của trí tuệ nhân tạo là đạo đức của người sử dụng trí tuệ nhân tạo, và hiện nay đã có quốc gia nào có bộ quy tắc về đạo đức của trí tuệ nhân tạo hay chưa?
Trả lời câu hỏi này, ông Huỳnh Thiên Tứ - giảng viên khoa Luật, Đại học Kinh tế TP.HCM - nêu nhận định: Hiện nay, có hai hướng thảo luận về đạo đức của trí tuệ nhân tạo.
Hướng thứ nhất là không cần nguyên tắc đạo đức trong lĩnh vực trí tuệ nhân tạo vì các nguyên tắc đạo đức đã tồn tại và được sử dụng lâu đời như công bằng, bình đẳng, tự do, yêu thương sẽ luôn tồn tại và được sử dụng dù cho có trí tuệ nhân tạo hay không có trí tuệ nhân tạo.
Hướng thứ hai là tạo ra các bộ nguyên tắc đạo đức trong từng ngành nghề có sử dụng trí tuệ nhân tạo. Các bộ nguyên tắc này sẽ hướng dẫn cụ thể, đáp ứng theo đặc trưng của ngành nghề. Hiện tại thì châu Âu đang xúc tiến cho ra đời bộ luật riêng, có những quy định chặt chẽ với trí tuệ nhân tạo.
Đối với việc thu thập dữ liệu người dùng của các doanh nghiệp, ông Đồng gợi ý các diễn giả bàn thêm về chính sách pháp luật hiện nay về bảo vệ dữ liệu cá nhân đã đáp ứng yêu cầu đặt ra trong bối cảnh trí tuệ nhân tạo chưa, và doanh nghiệp có vai trò như thế nào trong phát triển chiến lược quản trị dữ liệu.
Trả lời câu hỏi này, bà Phương cho rằng: Với 4 nguyên tắc đồng thuận, tối thiểu, bảo mật và hợp pháp, Nghị định 13/2023/NĐ-CP đảm bảo rằng dữ liệu cá nhân được xử lý mà không xâm phạm đến sự riêng tư cá nhân. Doanh nghiệp trước tiên cần tuân thủ các quy định do Nhà nước đặt ra. Ngoài ra, cần tích cực áp dụng tiêu chuẩn công nghệ để bảo vệ dữ liệu cá nhân. Hiện nay, đã có tiêu chuẩn ISO về trách nhiệm xã hội của doanh nghiệp, doanh nghiệp nên cập nhật và áp dụng tiêu chuẩn này.
Cùng trả lời về vấn đề này, ông Huỳnh Thiên Tứ nói thêm rằng: Ngoài tuân thủ quy định pháp luật, doanh nghiệp có thể tham gia đóng góp ý kiến xây dựng chính sách bảo vệ dữ liệu cá nhân, quản trị dữ liệu.
Bên cạnh việc tuân thủ các chính sách liên quan đến quyền riêng tư và dữ liệu người dùng, các diễn giả cũng cho rằng cần giáo dục để nâng cao nhận thức của người dân - những người sử dụng công nghệ số, giúp họ hiểu ra trí tuệ nhân tạo là gì và ảnh hưởng như thế nào đến cuộc sống của họ.
Ông Tứ cho rằng, chính sách là để tạo ra ranh giới cho sự phát triển của trí tuệ nhân tạo, công nghệ được tạo ra và sử dụng trong sự tôn trọng quyền riêng tư chứ không để công nghệ phát triển tự do và không lường trước rủi ro.
Đồng tình với ông Tứ, bà Phương cho rằng vẫn cần xây dựng Luật Bảo vệ dữ liệu cá nhân trong thời gian tới. Ngoài ra, các diễn giả cũng cho rằng các cơ quan nhà nước cũng cũng có những quyền lợi và trách nhiệm giống như doanh nghiệp trong việc thu thập và sử dụng dữ liệu cá nhân.
Vì thế, Việt Nam cần xây dựng một bộ luật về trí tuệ nhân tạo để việc ứng dụng AI trở nên có trách nhiệm hơn. Được biết, Bộ Khoa học và Công nghệ cũng đang phối hợp với các chuyên gia Australia để xây dựng những quy tắc AI có trách nhiệm (Responsible AI) để có thể áp dụng tại Việt Nam trong tương lai.