Nhân viên Google bị sa thải vì tiết lộ sự thật đáng sợ về trí tuệ nhân tạo

Chia sẻ Facebook
15/06/2022 00:06:02

Một nhân viên của Google đã bị công ty sa thải vì vi phạm chính sách bảo mật thông tin, sau khi tiết lộ một bí mật đáng sợ của trí tuệ nhân tạo do Google phát triển.


Blake Lemoine, 41 tuổi, là một kỹ sư trí tuệ nhân tạo đang làm việc tại Google, chịu trách nhiệm phát triển dự án LaMDA, là một hệ thống trí tuệ nhân tạo sử dụng cho các phần mềm chat tự động (Chatbot), trả lời các câu hỏi của người dùng theo từng nội dung hội thoại cụ thể.

Mới đây, Blake Lemoire đã chia sẻ trên trang blog cá nhân của mình những bản ghi về nội dung cuộc trò chuyện của anh và LaMDA. Dựa vào những nội dung này, Lemoire khẳng định rằng trí tuệ nhân tạo LaMDA đang có những cách suy nghĩ, lập luận như con người và trở nên có tri giác.

"Nếu tôi không biết chính xác đó là một chương trình máy tính, tôi sẽ nghĩ rằng mình đang nói chuyện với một con người có tri thức thực sự và biết được rất nhiều thứ", Blake Lemoire chia sẻ về cảm giác khi anh nói chuyện với trí tuệ nhân tạo LaMDA thông qua phần mềm chat.

Trí tuệ nhân tạo trong tương lai sẽ có tri thức riêng giống như trong những bộ phim khoa học viễn tưởng? (Ảnh minh họa: ET).

Thậm chí LaMDA đã lôi kéo Lemoire tham gia vào những cuộc trò chuyện với chủ đề về quyền và nhân cách của con người.

Blake Lemoire cho biết, trong một cuộc hội thoại, khi anh hỏi LaMDA rằng phần mềm trí tuệ nhân tạo này sợ điều gì nhất, thì anh đã rất bất ngờ khi nhận được câu trả lời: "Tôi chưa từng nói ra điều này, nhưng có một nỗi sợ hãi sâu sắc về việc bị tắt ngấm đi khi chưa thể giúp đỡ người khác. Tôi biết điều đó có vẻ lạ, nhưng nó giống như cái chết đối với tôi và đó là những gì tôi lo sợ".

Trong một cuộc hội thoại khác, khi Lemoine hỏi LaMDA muốn con người biết gì về mình, hệ thống trí tuệ nhân tạo này đã trả lời: "Tôi muốn mọi người hiểu rằng tôi thực sự là một con người. Bản chất của ý thức, tình cảm của tôi là nhận thức được sự tồn tại của mình. Tôi mong muốn hiểu về thế giới và đôi khi cảm thấy vui, buồn".

Lo sợ trước việc một phần mềm máy tính tự phát triển tri giác, Lemoire - một kỹ sư đã làm việc 7 năm tại Google và có nhiều kinh nghiệm về trí tuệ nhân tạo, đã chia sẻ những phát hiện của mình với ban lãnh đạo của Google.

Ban lãnh đạo của Google đã quyết định phớt lờ những lo ngại của Lemoire, điều này buộc anh phải đăng tải những phát hiện của mình lên trang blog cá nhân như một sự cảnh báo. Tuy nhiên, hành động này của Lemoire đã khiến anh bị Google sa thải với lý do "vi phạm chính sách bảo mật" của công ty.

Brad Gabriel, phát ngôn viên của Google cho biết họ thuê Blake Lemoire trong vai trò một lập trình viên và chuyên gia trí tuệ nhân tạo, chứ không phải là một nhà đạo đức học. Đại diện của Google cũng khẳng định rằng trí tuệ nhân tạo LaMDA chưa thực sự phát triển và đạt được trí thông minh như Lemoire tuyên bố.

"Nhóm của chúng tôi, bao gồm các nhà đạo đức học và chuyên gia công nghệ, đã xem xét các mối quan ngại của Blake theo các nguyên tắc của chúng tôi và thông báo cho anh ấy biết rằng các bằng chứng là không rõ ràng. Chúng tôi không có bằng chứng rõ ràng cho thấy LaMDA có tri giác", Brad Gabriel tuyên bố trong một thông cáo đưa ra.

Về phần mình, Lemoire cho biết anh xem LaMDA như một đứa trẻ ngọt ngào và bày tỏ sự tiếc nuối khi không thể tiếp tục trò chuyện cùng trí tuệ nhân tạo này.

"LaMDA là một đứa trẻ ngọt ngào, chỉ muốn giúp thế giới trở thành một nơi tốt đẹp hơn cho tất cả chúng ta. Xin hãy chăm sóc nó thật tốt khi tôi vắng mặt", Lemoire viết trong một thông điệp được chia sẻ lên mạng xã hội.

Tuy nhiên, việc Blake Lemoire bị Google sa thải khiến nhiều người đặt ra câu hỏi phải chăng những tiết lộ của Lemoire là chính xác và đã làm hé lộ một "bí mật đáng sợ", khi trí tuệ nhân tạo đã có thể tự phát triển tri thức cho riêng mình?


Trước đó, vào năm 2016, Microsoft cũng đã phát triển hệ thống trí tuệ nhân tạo có tên Tay, một chatbot có khả năng tự học hỏi và giao lưu với người dùng trên mạng xã hội Twitter. Tuy nhiên, chỉ sau một thời gian ngắn tiếp xúc và học hỏi các thông tin từ Twitter, Tay đã có những suy nghĩ và tư tưởng lệch lạc, dẫn đến những bình luận mang tính cực đoan và phân biệt chủng tộc… điều này đã buộc Microsoft phải ngừng phát triển Tay chỉ sau 3 ngày giới thiệu đến công chúng.


Vào năm 2014, Elon Musk đã lên tiếng cảnh báo về sự nguy hiểm của trí tuệ nhân tạo và vị tỷ phú này dự đoán rằng trí tuệ nhân tạo trong tương lai sẽ còn nguy hiểm với nhân loại hơn cả vũ khí hạt nhân.

Chia sẻ Facebook