Cảnh giác ‘chiêu’ dùng deepfake để ghép mặt, giọng nói giống hệt người thân để lừa đảo
Người dùng cần cảnh giác việc người xấu sử dụng công nghệ deepfake AI để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video giả làm người thân để chiếm đoạt tiền.
Đối tượng lừa đảo nắm bắt được tâm lý người dùng mạng xã hội đã biết cảnh giác với “chiêu” lừa bằng tin nhắn vay tiền, chuyển tiền nên đã chuyển qua sử dụng chiêu lừa tinh vi hơn để vay tiền bằng cách giả cuộc gọi video.
Theo đó, người xấu có thể gọi video giả làm người thân hoặc quen biết với nạn nhân để vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí. Nói chung, hầu hết đều là những tình huống cấp bách cần tiền gấp.
Thủ đoạn của đối tượng này là chiếm đoạt tài khoản cá nhân, lấy những hình ảnh, video cũ của người dùng, cắt ghép hoặc dùng công nghệ deepfake để ghép mặt và giọng nói giống hệt người thân của nạn nhân để lừa đảo.
Sau đó, chúng sử dụng tài khoản đã chiếm đoạt để gọi và phát video giả mạo dưới hình thức mờ ảo, chập chờn rồi viện lý do đang ở nơi sóng yếu để tạo lòng tin rồi nhắn tin vay tiền, chuyển tiền và dẫn giải nạn nhân chuyển đến tài khoản của chúng để chiếm đoạt.
Gần đây, với cách thức trên, một nạn nhân ở TP.HCM đã bị lừa 20 triệu đồng, mặc dù nạn nhân đã gọi video qua Facebook để kiểm chứng.
Cũng như trường hợp chị V.T.M (SN 1997, ngụ tại Long Biên, TP. Hà Nội) nhận tin nhắn mượn tiền từ tài khoản Facebook của người thân bên nước ngoài nhắn nhờ chuyển tiền vào một số tài khoản 75 triệu đồng. Nghĩ là người thân nên chị M. đã chuyển tiền theo yêu cầu.
Mặc dù chị M. đã cẩn thận gọi video để xác nhận, nhưng khi gọi thì thấy hình ảnh đúng là người thân mình nên chị đã tin tưởng chuyển khoản liền. Đến tối, thấy người thân đăng trên trang cá nhân thông báo việc Facebook đã bị hack để hỏi vay tiền một số người, chị M. gọi điện lại xác minh thì mới biết mình bị lừa.
Khi chị M. gọi xác nhận trước khi chuyển tiền, đầu dây bên kia vẫn hiện lên khuôn mặt và giọng nói của người thân, cách xưng hô hoàn toàn chính xác. Tuy nhiên, âm thanh rất khó nghe, hình ảnh cũng bị nhòe giống như sóng chập chờn.
Chuyên gia hướng dẫn cách xử lý
Theo các chuyên gia, đối tượng lừa đảo thường tìm kiếm, thu thập thông tin cá nhân được đăng tải công khai trên mạng xã hội để tạo ra chiêu lừa tinh vi. Những người này sẽ không nhận cuộc gọi hoặc sẽ sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa, khi nạn nhân gọi điện hoặc video cho người thân để kiểm chứng.
Để có thể kiểm tra phía bên gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không, hãy yêu cầu họ quay mặt sang bên các góc 90 độ, thêm một phương pháp nhỏ đó là yêu cầu họ đưa tay trước mặt.
Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn, thao tác này thường được gọi là “tạo mặt nạ” hoặc “xóa nền” – thông tin từ các chuyên gia bảo mật.
Qua đó, các cơ quan công an khuyến cáo người dân cần cảnh giác với thủ đoạn lừa đảo này, khi nhận bất kỳ tin nhắn hay cuộc gọi video để vay tiền, phải gọi qua số điện thoại trực tiếp cho người thân để xác minh mà không qua các ứng dụng như Zalo, Messenger, Viber, Telegram. Tuyệt đối không cung cấp mã OTP, chuyển tiền, nạp card điện thoại cho ai khi chưa biết rõ về người đó.
Khi có nghi vấn về việc giả mạo người thân trên mạng xã hội, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ xử lý.
Thạch Lam (t/h)
Công ty an ninh mạng cảnh báo nguy cơ lừa đảo liên quan ChatGPT
Công ty an ninh mạng Darktrace đã cảnh báo rằng công cụ trò chuyện ChatGPT sử dụng trí tuệ nhân tạo (AI) có thể đã làm gia tăng các vụ lừa đảo trên không gian…