Mỹ thử nghiệm tự trị chiến đấu với máy bay F-16 và hiểm họa leo thang chiến tranh
Mỹ hiện đang thử nghiệm máy bay F-16 tự động chiến đấu, và trong các trận không chiến mô phỏng thì AI đã đè bẹp các phi công con người
Hôm 27/5 CBS News báo cáo quân đội Hoa Kỳ hiện đang thử nghiệm máy bay F-16 tự động chiến đấu, và trong các trận không chiến mô phỏng thì AI đã đè bẹp các phi công con người được đào tạo bài bản. “Phi công phải ăn, phải ngủ,… còn có phi công không tuân lệnh…” —với trích đoạn phim “Top Gun Maverick” làm minh họa— vậy phải chăng “sớm hay muộn thì một ngày nào đó sẽ không cần phi công nào nữa,” khi trí tuệ nhân tạo AI kết hợp công nghệ robot hiện đại thành máy móc tự trị sẽ đủ khả năng thay thế con người?
Máy móc tự trị, vũ khí tự trị (autonomous weapon), nội dung mà CBS đề cập đến là nói về các thiết bị tự động ở mức cao, mà theo đó, chúng có AI về khả năng tư duy, có năng lực di động và thao tác của robot thông minh, và chúng có khả năng tự tìm cách hoàn thành nhiệm vụ.
Phóng viên
“những người chúng tôi gặp khi phát triển các hệ thống này nói rằng họ không cố gắng thay thế con người, mà chỉ làm cho công việc của họ an toàn hơn. Nhưng việc chuyển sang sử dụng chiến binh robot có thể thay đổi chiến tranh theo những cách cực kỳ sâu sắc, như chúng tôi nhận thấy trong chuyến thăm Sikorsky Aircraft, nhà thầu quân sự nơi tạo nên chiếc trực thăng tự trị Blackhawk (Diều hâu đen)… Việc lái chiếc Blackhawk thử nghiệm dễ dàng như nhấn nhấn trên chuyển bản đồ.”
Như những gì thấy trong
video
“Chúng tôi gọi nó là ‘vận hành’ (operating), bởi vì bạn đang đưa ra đề xuất (suggestion) và máy mới là thực sự quyết định cách thực hiện.”
“Blackhawk down”
miêu tả
chiếc Blackhawk này chỉ là
“một phần trong nỗ lực lớn hơn nhằm thay đổi cách chiến tranh diễn ra, được dẫn đầu bởi DARPA, phòng thí nghiệm các sáng kiến của Bộ Quốc phòng. DARPA cũng đã phát triển xe địa hình tự động, phương tiện hoạt động ngầm dưới biển không người lái, và tổ chức bầy đàn nhiều máy bay không người lái (UAV).”
Sau đó, phóng viên của CBS hỏi người quản lý chương trình DARPA, Stuart Young, liệu chúng ta có hướng tới tương lai sẽ có những cỗ máy chiến đấu như trong phim “Kẻ hủy diệt Terminator” hay không.
“Chúng tôi luôn gặp phải những tình huống khó xử, nhưng rõ ràng các đối thủ của chúng ta cũng đang nghĩ về điều đó,” ông Young trả lời, ý tứ rằng cạnh tranh trong vũ khí và quân sự sẽ ép buộc nhân loại đến tình cảnh đó. “Và một phần những gì DARPA làm là cố gắng tránh việc công nghệ gây bất ngờ [cho nhân loại].”
Để minh chứng cho đòi hỏi cạnh tranh công nghệ trong chiến tranh sẽ buộc nhân loại phải đưa vũ khí tự trị vào sử dụng, CBS chiếu cảnh phóng viên nói chuyện với Paul Scharre, một cựu quân nhân Army Ranger, và sau đó làm việc cho Bộ Quốc phòng về vũ khí tự trị. Anh từng xuất bản 2 cuốn sách về chủ đề này.
Một cảnh video thực tiễn ở chiến trường Ukraine, trong đó UAV của phe Ukraine dùng AI để tìm ra mục tiêu. Một mục tiêu ẩn nấp trong tán cây mà mắt thường cực kỳ khó nhìn ra, nhưng AI lập tức phát hiện ra và chỉ ra trên màn hình.
Tiếp đó là cảnh UAV nhận lệnh từ xa ném bom tấn công vào mục tiêu của Nga núp sau tán cây đó.
Phóng viên CBS hỏi rằng phải chăng tất cả những điều này có thể tự động hóa mà không cần nhân tố con người trong đó, nghĩa là con người không cần ra lệnh UAV ném bom vào cụ thể đâu nữa, mà chỉ cần thiết lập sao cho AI tự tìm mục tiêu và tự ném bom (trong video, anh dùng từ ‘ đưa con người ra khỏi vòng lặp ’ để miêu tả ý này).
Anh Scharre trả lời rằng đúng như vậy, “các công nghệ thương mại hiện hữu đã có thể tạo ra vũ khí tự trị [có khả năng đó rồi]. Tất cả đã có trong tay ở đây rồi…”, anh Scharre chỉ vào màn hình và bàn làm việc. “Bây giờ chỉ cần thêm một vài dòng mã lệnh để đưa con người ra vòng lặp.”
Phóng viên hỏi sự phát triển công nghệ AI và tự động hóa phải chăng sẽ ảnh hưởng —tốt hoặc xấu— tới Hoa Kỳ. Anh Scharre trả lời rằng mỗi tiến bộ lớn về công nghệ như vậy đều trở thành nguy cơ đối với địa vị đứng đầu thế giới về công nghệ chiến tranh của Hoa Kỳ. Hoa Kỳ sẽ phải theo đuổi làm ra những vũ khí tân tiến này nếu muốn tiếp tục giữ vững vị thế của mình.
CBS chỉ ra rằng các đối thủ như Trung Quốc chẳng hạn, họ đã triển khai các hệ thống AI rất mạnh để giám sát và nhận diện khuôn mặt rồi, đang hoạt động cả trong Trung Quốc và đang bán ra thế giới.
Anh Scharre chia sẻ hình dung của mình rằng những cuộc biểu tình được AI tự động phát hiện ra từ khi chúng còn manh nha, và tiếp đó là các chiến binh robot tự động đưa tới giải tán biểu tình để giữ gìn trật tự, v.v. Tất cả không cần con người, tất cả đều trung thành với chính quyền, v.v. Một viễn cảnh xã hội mà máy móc tự trị sẽ giám sát và kiểm soát tất cả.
Phóng viên
tường thuật
“Anh Scharre không phải cảm thấy toàn là sự diệt vong và u ám. Theo anh thì trong trận chiến giữa các quốc gia, những chiến binh robot sẽ cần phải tuân theo luật chiến tranh một cách hợp pháp và có thể làm như vậy tốt hơn những con người, vốn dễ xúc động hoặc mệt mỏi… Nhưng anh Scharre thực sự có lo lắng rốt cuộc sẽ là cuộc ‘hôn nhân’ giữa robot tiên tiến và AI quân sự khiến chúng trở nên thông minh hơn và nhanh hơn chúng ta.”
Anh Scharre (
phút 5:45
“[Đến lúc đó] tốc độ hành động chiến đấu diễn ra sẽ nhanh hơn khả năng nhận thức và phản ứng của con người. Như vậy quân đội sẽ phải thực sự chuyển giao tất cả điều khiển cho máy móc nếu họ muốn có được hiệu quả ở chiến trường.”
Phóng viên:
“Như vậy, tại thời điểm đó, con người sẽ không hiện diện trong ‘tiến trình ra quyết định’ và bạn phải tin tưởng vào máy móc và tin rằng bạn đã lập trình chúng tốt?”
Anh Scharre:
“Đúng thế… Điều đó [nghe] thật đáng sợ, phải không?”
“Con người [lúc đó] điều khiển thiết bị chiến tranh thế nào? Sẽ quản lý vấn đề leo thang chiến tranh ra sao đây? Và chiến tranh nên kết thúc theo cách nào?”
Phóng viên:
“Ồ, vậy là rồi máy móc sẽ quyết định cả việc bao giờ chiến tranh kết thúc !!!”
Anh Scharre: “Quả là viễn cảnh thật đáng sợ!”
CBS nhắc lại lời hồi tháng 3, Jeffrey Hilton —‘bố già’ ngành AI của Google, nhưng bấy giờ ông chưa rời bỏ Google và chưa có lời lẽ cảnh báo mạnh mẽ về AI như hiện nay— thì theo ông, nguy hiểm lớn nhất của AI chính là vũ khí tự trị.
Tại sao? Vì vũ khí tự trị chính là được “thiết kế để hại người” , cho nên các thiết trí cứng (lập trình) bên trong AI để nó không thể hại người sẽ không tồn tại trong vũ khí tự trị. Vậy nên AI cho vũ khí là có tiềm năng cực kỳ nguy hiểm. AI đó sẽ được thiết kế làm sao tạo ra được sát thương mạnh mẽ nhất, hiệu quả nhất, nhanh chóng nhất.
Phóng viên CBS hỏi về có khả năng điều tiết vấn đề này hay không, thì câu trả lời rất thiếu thuyết phục, với những gợi ý như điều khoản nào đó ở các cơ cấu quốc tế như Liên Hợp Quốc, v.v.
Phóng viên CBS cũng nhắc lại khả năng về việc buộc phải giữ con người trong tiến trình ra quyết định, nhưng, như anh Scharre chỉ ra, tốc độ chiến tranh sẽ không cho phép điều đó.
Một góc nhìn của Charles Chaplin về tự động hóa:
Nhật Tân
Chuyên gia Mỹ cảnh báo loại vũ khí mới phá hủy chức năng não McLetter viết: “Vũ khí đó sẽ khiến não nạn nhân trong nhiều năm không thể hoạt động bình thường”.