Vạch trần hành vi ghép mặt và giọng nói để lừa đảo
BVCL - Hành vi sử dụng công nghệ Deepfake AI, tạo ra hình ảnh, video, giọng nói để lừa đảo dù không mới, nhưng nếu người dân không rõ phương thức lừa đảo, sẽ vẫn mắc lừa chuyển tiền.
Mới đây, vào một buổi sáng, khi mở Facebook, chị V.T.M, ở quận Long Biên (Hà Nội), nhận được tin nhắn của một người bạn thân đang sinh sống ở nước ngoài nhờ chuyển 75 triệu đồng vào tài khoản. Nghĩ bạn cần tiền, chị M. đã không ngại ngần chuyển tiền theo hướng dẫn.
Chị M. cũng cho biết, khi nhận được tin nhắn của bạn hỏi vay tiền, chị còn cẩn thận gọi video lại để kiểm tra thì có thấy hình ảnh của người bạn mình ở video.
Đến tối, trên trang Facebook cá nhân của người bạn đăng dòng thông báo việc bị kẻ gian hack nick Facebook để hỏi vay tiền bạn bè, chị M. có gọi điện lại thì người bạn này xác nhận đã bị kẻ gian chiếm đoạt tài khoản mạng xã hội, dùng công nghệ AI cắt ghép hình ảnh, giọng nói để lừa đảo.
Một trường hợp khác, chị Nguyễn Thị Th. (ở phường Linh Tây, TP.Thủ Đức, TP.HCM) khi đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook hỏi mượn 20 triệu đồng. Lý do mượn để đủ tiền đáo hạn ngân hàng. Nghi ngờ tài khoản Facebook của người bạn bị chiếm, lừa đảo nên chị Th. đã gọi video để kiểm chứng.
Phía bên kia bắt máy, mở video thì chị Th. thấy mặt bạn nhưng hình ảnh mờ, chập chờn, còn người bạn nói đang cần tiền gấp. Khi chị Th. hỏi sao hình ảnh mờ, bên kia trả lời 'đang vùng sóng yếu'. Vì vậy, chị Th. tin tưởng, chuyển 20 triệu đồng vào số tài khoản theo yêu cầu. Chuyển tiền được 30 phút, chị Th. dùng điện thoại gọi cho người bạn, khi đó mới biết mình đã bị lừa.
Trao đổi với phóng viên về việc xuất hiện hành vi ghép mặt, giọng nói giống hệt người thân để lừa đảo, một lãnh đạo Công an huyện Thanh Trì (Hà Nội) cho biết: “Hành vi sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video với độ chính xác rất cao để lừa đảo, không hoàn toàn mới”.
“Để tránh bị lừa, người dân nên kiểm tra nguồn tin, khi bạn mình hỏi vay tiền và chuyển khoản. Khi gặp trường hợp như vậy, chúng ta nên gọi điện thoại lại xem người thân, bạn bè… có đúng cần tiền không. Tiếp đến người gửi tiền, chuyển khoản cũng phải xác minh, số tài khoản đó có đúng họ và tên người thân của mình không.
Trường hợp, nếu người bạn nói tài khoản bị lỗi, phải mượn tài khoản khác... Người chuyển tiền cần kiểm tra từ bạn và số tài khoản đang nhận, xem họ quê quán ở đâu và yêu cầu gửi hình ảnh căn cước công dân cho mình xem.
Sau đó, gọi điện nhờ ngân hàng mà số tài khoản yêu cầu gửi, xem người đó có số CCCD, trùng với số tài khoản mà họ cung cấp không”, lãnh đạo Công an huyện Thanh Trì (Hà Nội) khuyến cáo.
Ngoài ra, vị lãnh đạo Công an huyện Thanh Trì cũng thông tin: “Do cắt ghép, chỉnh sửa và dù đã được công nghệ hỗ trợ, song hầu hết những video này đều có chất lượng thấp, mờ ảo, chập chờn như đang ở nơi sóng yếu.
Đó là một trong những dấu hiệu để người dân nhận biết, cảnh giác. Tuy nhiên, không phải ai cũng có đủ thời gian nhận biết, tỉnh táo để xác định đó là đối tượng lừa đảo. Cẩn thận hơn, người chuyển tiền cũng cần hỏi lại đối tác, sao sóng yếu vậy?
Nếu kẻ lạ mặt trả lời do sóng yếu, người chuyển tiền cần nhận biết, sóng yếu thì giọng nói cũng không rõ nét. Nếu giọng nói rõ nét còn hình ảnh chập chờn, chắc chắn bị lừa, mọi người không nên chuyển tiền cho các đối tác như vậy”.
Còn Trung tá Phan Quang Vinh, Đội trưởng Đội Cảnh sát Phòng chống tội phạm có yếu tố nước ngoài, sử dụng công nghệ cao để lừa đảo, Phòng CSHS, Công an TP Hà Nội cho biết: “Thủ đoạn trên trong giới công nghệ gọi là Deepfake'.
Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video riêng biệt nhờ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật.
Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để học. Deepfake có thể thay đổi khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc. Hiện nay, Deepfake đang trở thành nỗi ám ảnh, là 'bóng ma' trong thế giới Internet, được tội phạm dùng để lừa đảo.