Ba năm tới, 90% nội dung trên mạng sẽ do AI tạo ra, các công ty công nghệ đối phó tin giả thế nào?
VietTimes – Các công cụ chính do AI tạo ra như ChatGPT, DALL-E… giúp giảm khó khăn và chi phí tạo hình ảnh, video và văn bản, khiến nội dung do AI tạo ra tràn ngập trên Internet và rất khó phân biệt.
Để giúp người dùng và các nền tảng phân biệt thật giả và nguồn gốc của thông tin, các công ty công nghệ Google, Adobe, Microsoft…đang tìm cách giải quyết vấn đề này.
Tuy nhiên, những biện pháp công nghệ mà họ đang phát triển vẫn còn ở giai đoạn sơ khai và cho đến khi tìm ra giải pháp đáng tin cậy, việc xác minh tính chân thực chỉ có thể được bổ sung bằng đánh giá, thẩm định của con người. Với tốc độ tạo nội dung do AI tạo ra không ngừng gia tăng, nhiều nội dung cần xác thực đã vượt quá phạm vi có thể xử lý của con người.
Gắn nhãn AI cho nội dung
Một báo cáo của Europol, cơ quan thực thi pháp luật của Liên minh châu Âu (EU), dự đoán rằng đến năm 2026, sẽ có tới 90% nội dung trên internet do AI tạo ra hoặc chỉnh sửa. NewsGuard, một nền tảng chống thông tin sai lệch, cho biết hiện tại đã có một số trang web thông tin hoàn toàn do AI tạo ra tin tức và số lượng các trang web loại này đã tăng gần gấp ba lần so với vài tuần trước.
Các chuyên gia cho rằng một phương pháp mới sử dụng các hệ thống kỹ thuật như Watermark và Metadata có thể giúp người dùng phân biệt thật giả. Metadata (Siêu dữ liệu) hoặc thông tin được liên kết với tệp hình ảnh kỹ thuật số, có thể cung cấp các chi tiết cơ bản về nội dung, chẳng hạn như ảnh được chụp khi nào và ở đâu. Một số công ty công nghệ hiện đang hỗ trợ sử dụng công nghệ này để ghi nhãn nội dung do AI tạo ra trong các sản phẩm của họ và đang nỗ lực để các thông tin này công khai hơn để giúp người dùng đánh giá tính xác thực của nội dung.
Tại hội nghị thường niên Build, Microsoft đã tiết lộ các khả năng mới để thêm dấu mờ (watermark) và siêu dữ liệu (Metadata) vào hình ảnh và video do AI tạo, được thiết kế để đánh dấu nguồn gốc và cách nội dung được tạo. Tính năng này sẽ được triển khai cho các ứng dụng Designer và Image Creator của Microsoft trong vài tháng tới.
Ngoài ra, nhóm Sáng kiến xác thực nội dung của nhà phát triển công cụ thiết kế Adobe đã phát triển một công cụ có tên là Xác thực nội dung thông tin để theo dõi khi hình ảnh được chỉnh sửa bởi AI. Adobe mô tả nó như một nhãn dán gắn với với tệp bất kể nó được xuất bản hoặc lưu trữ ở đâu. Ví dụ: tính năng mới nhất Generative Fill của Photoshop, sử dụng AI để nhanh chóng tạo nội dung mới trong các hình ảnh hiện có và có thể truy nguồn những thay đổi đó.
Andy Parsons, người phụ trách nhóm Sáng kiến Xác thực nội dung của Adobe cho biết: “Đầu tiên cần biết đó là gì, ai đã tạo ra nó hoặc nó đến từ đâu”.
Google cũng đã tuyên bố tại hội nghị nhà phát triển I/O 2023 của họ rằng trong vài tháng tới, một văn bản tương tự như tuyên bố về bản quyền sẽ được đính kèm bên dưới kết quả do AI tạo ra của Google Images. Ngoài ra, Google sẽ gắn thẻ Metadata trong các tệp hình ảnh do hệ thống AI của Google tạo ra. Tức là khi người dùng nhìn thấy một hình ảnh do hệ thống AI của Google tạo ra trong Google Tìm kiếm, nó sẽ hiển thị các từ tương tự như "được tạo bởi Google AI" bên dưới hình ảnh đó. Đồng thời, công ty đã thông báo rằng họ sẽ hợp tác với Midjourney và trang web nhiếp ảnh Shutterstock để cho phép họ tự dán nhãn hình ảnh do AI tạo ra trong Google Tìm kiếm.
Bức ảnh do AI tạo ra từng đoạt giải thưởng Sáng tạo trong cuộc thi ảnh quốc tế Sony 2023
Thiết lập một tiêu chuẩn mở thống nhất
Ngoài các công ty công nghệ tung ra các sản phẩm AI, những gã khổng lồ khác trong ngành cũng đang nghiên cứu cách gắn nhãn nội dung do AI tạo ra. Năm 2021, một số công ty lớn bao gồm Microsoft, Adobe, BBC và Intel đã cùng nhau thành lập một tập đoàn có tên là C2PA (Coalition for Content Provenance and Authenticity - Liên minh về nguồn gốc và tính xác thực của nội dung) và phát triển một tiêu chuẩn mở có thể tương tác để cho phép các công ty chia sẻ nguồn hoặc lịch sử sở hữu của thông tin.
Ví dụ: một nhiếp ảnh gia tại một cơ quan truyền thông có thể gắn thẻ một hình ảnh cụ thể về thời gian chụp, ai đã chụp và được nơi xuất bản ký chữ ký điện tử. Sau đó, người biên tập có thể thực hiện các thay đổi đối với ảnh, ký tên lại và đóng dấu xác thực được xác minh theo tiêu chuẩn C2PA. Bằng cách đó, người ta sẽ biết bức ảnh được chụp bởi con người chứ không phải do AI tạo ra và ai đã chỉnh sửa nó và sửa khi nào. Công nghệ này sử dụng mật mã để bảo vệ tính riêng tư của thông tin nhạy cảm.
C2PA vào tháng 1 năm ngoái đã phát hành tiêu chuẩn mở đầu tiên. Kể từ đó, Adobe và Microsoft đã công bố tích hợp tiêu chuẩn C2PA vào các sản phẩm của họ, chẳng hạn như Image Generator và Designer của Microsoft; còn Adobe đã sử dụng chuẩn C2PA khi đưa chứng chỉ nội dung vào sản phẩm AI Firefly mới của mình.
Munir Ibrahim, Phó chủ tịch điều hành các vấn đề công chúng và ảnh hưởng của nền tảng tin cậy nội dung số Truepic cũng là thành viên của C2PA nói: "Bây giờ người ta có thể biết được nguồn gốc và sự thay đổi của một nội dung kỹ thuật số từ đầu đến cuối".
Ibrahim cho biết tổ chức C2PA đang tìm hiểu xem có nên tiêu chuẩn hóa phương pháp hiển thị bằng chứng về nội dung hay không. Trong tương lai, chứng nhận C2PA có thể giống như biểu tượng ổ khóa nhỏ bên cạnh URL trong cửa sổ trình duyệt để chứng minh tính bảo mật của liên kết. Khi người dùng nhìn thấy biểu tượng C2PA, họ có thể biết rằng hình ảnh họ nhìn thấy đã được xác minh nguồn gốc.
Hiện tại, các công ty tự quyết định có áp dụng tiêu chuẩn C2PA hay không và gắn nhãn nội dung đã được xác minh theo ý muốn của họ. "Thách thức lớn nhất là chúng ta cần nhiều công ty hơn tham gia tiêu chuẩn này", ông Ibrahim nói.
Ngoài các thẻ siêu dữ liệu, một cách khác là để các hệ thống AI thêm các dấu mờ (watermark) có thể nhìn thấy vào nội dung. Ví dụ: OpenAI thêm thanh cầu vồng ở cuối hình ảnh DALL-E. Công ty cho biết họ cũng đang phát triển một phiên bản watermark cho công cụ tạo văn bản ChatGPT. Tuy nhiên, so với thẻ siêu dữ liệu, dấu mờ dễ bị xóa hơn.
Ngoài ra, nhiều công ty cũng đang sử dụng các kỹ thuật để phát hiện nội dung do AI tạo ra. Vào tháng 1, OpenAI đã phát hành một công cụ cho phép người dùng kiểm tra chéo một đoạn văn bản để xác định xem nó có phải do AI tạo ra hay không. Nhưng theo đánh giá riêng của OpenAI, công cụ này không hoàn toàn đáng tin cậy, nó chỉ xác định chính xác được 26% văn bản do AI tạo ra khi thẩm định.
Còn nhiều thách thức
Đây mới chỉ là bước khởi đầu của các nền tảng công nghệ có thể tự động nhận dạng nội dung do AI tạo ra. Cho đến khi tìm ra giải pháp chắc chắn, việc xác minh tính xác thực chỉ có thể bù đắp bằng sự thẩm định, đánh giá của con người. Ví dụ: ngày 30/5, Twitter đã thông báo rằng họ sẽ sử dụng tính năng kiểm tra thực tế dựa trên nguồn lực cộng đồng để xác định thông tin sai lệch do AI tạo ra.
Sam Gregory, Giám đốc điều hành của Witness, một trang web tin tức về nhân quyền và quyền công dân nói, trong khi các giải pháp công nghệ nhận dạng AI như đóng dấu mờ đầy hứa hẹn, nhiều người thẩm định thực tế vẫn lo ngại về hậu quả tiềm tàng của AI trong thời gian này. Trên thực tế, nhiều nội dung cần kiểm tra thẩm định đã vượt quá phạm vi con người có thể xử lý.
"Liệu một người có nên bị chỉ trích vì không thể phân biệt được hình ảnh do AI tạo ra không? Hay một người thẩm định xác thực có bị choáng ngợp bởi khối lượng nội dung cần thẩm định?", Gregory cho rằng, trách nhiệm giải quyết thông tin sai lệch do AI tạo ra "cần thuộc về những người thiết kế các công cụ này, xây dựng các mô hình này và phát hành chúng".
Ngoài ra, Gregory cho rằng các quy định hiện hành của các nền tảng truyền thông xã hội về nội dung do AI tạo ra không đủ tỉ mỉ.
TikTok vào tháng 3/2023 đã sửa đổi quy định mới nhất về "nội dung tổng hợp", nói rằng nền tảng này cho phép AI tổng hợp nội dung nhưng nếu hiển thị cảnh thật thì hình ảnh phải được làm rõ bằng phụ đề, nhãn dán hoặc các phương thức khác. Tuy nhiên, nền tảng này không cho phép nội dung tổng hợp bao gồm bất kỳ hình ảnh nào của các nhân vật không công khai hoặc những người dưới 18 tuổi. TikTok cho biết họ đã làm việc với các tổ chức bên ngoài, chẳng hạn như Tổ chức đối tác phi lợi nhuận Partnership on AI, để cung cấp phản hồi về việc tuân thủ khuôn khổ thực hành AI có trách nhiệm.
Người phát ngôn của TikTok cho biết trong một tuyên bố: "Mặc dù chúng tôi rất hào hứng với những cơ hội sáng tạo mà AI mang lại cho người sáng tạo, nhưng chúng tôi cũng cam kết phát triển các biện pháp bảo vệ để sử dụng AI một cách an toàn và minh bạch"; “Chúng tôi sẽ hợp tác với các chuyên gia theo dõi tiến trình của công nghệ nhận dạng AI và liên tục điều chỉnh phương pháp của chúng tôi."
Ngoài TikTok, chính sách của nhiều nền tảng khác cũng có thể cần cập nhật. Hiện tại, cả Meta (sở hữu Facebook và Instagram) và YouTube đều chỉ có các quy tắc chung về việc ngăn chặn nội dung do AI tạo ra gây hiểu lầm cho người dùng mà không làm rõ cách sử dụng nào được chấp nhận hoặc không được chấp nhận.
Meta cho biết trong một tuyên bố: "AI vượt qua phạm trù của mọi cá nhân, công ty hay quốc gia và cần sự hợp tác của tất cả các bên có lợi ích liên quan. Chúng tôi đang tích cực theo dõi các xu hướng mới nổi và nỗ lực điều chỉnh các phương pháp quản lý giám sát hiện có".
Một phương pháp xác định đầy đủ nội dung do AI tạo ra có thể sẽ không sớm xuất hiện. Những công cụ mới để gắn nhãn nội dung do AI tạo ra vẫn đang ở giai đoạn đầu nhưng có thể giúp giảm thiểu rủi ro. Về mặt kỹ thuật, dấu mờ hoặc siêu dữ liệu vẫn có thể bị hoán cải. Và không phải tất cả các hệ thống do AI tạo ra đều muốn tiết lộ sản phẩm do AI tạo ra. Hơn nữa, người ta còn có xu hướng bỏ qua sự thật và chọn tin vào lời nói dối phù hợp với niềm tin cá nhân của họ.
Do đó, cần có nhiều nghiên cứu hơn để biết liệu những nhãn AI này có thể thay đổi suy nghĩ của con người hay không. Ông Joshua A. Tucker ở Đại học New York cho rằng: "Đôi khi các nhãn dán không có tác dụng như mong đợi. Chúng ta cần thử nghiệm các giải pháp này để xem chúng khi đối mặt với nội dung AI giả mạo có thể thay đổi suy nghĩ của mọi người hay không..."
Theo Finance.sina