Cảnh giác với chiêu trò lừa đảo bằng công nghệ Deepface

Thời gian gần đây, khá nhiều người trở thành nạn nhân của đối tượng tội phạm công nghệ cao sử dụng phần mềm ghép mặt và giọng nói (Deepfake AI).
Ảnh minh họa
Ảnh minh họa.

Kẻ lừa đảo tìm cách chiếm đoạt tài khoản Zalo, Facebook của người dùng, tiếp đó thu thập hình ảnh (có thể cả giọng nói của nạn nhân từ các video) và dùng Deepfake tạo ra đoạn video mạo danh.

Tiếp theo, kẻ lừa đảo tiến hành nhắn tin mượn tiền những người dùng trong danh sách bạn bè Facebook của nạn nhân, đồng thời thực hiện cuộc gọi video mạo danh, phát video giả mạo để tăng độ tin cậy nhằm lừa đảo thành công hơn.

Chị V.T.M, (26 tuổi, trú tại Long Biên - Hà Nội) nhận được tin nhắn vay tiền từ tài khoản Facebook của một người bạn thân bên nước ngoài với nội dung nhờ chuyển 75 triệu đồng vào một số tài khoản. Khi nhận được tin nhắn hỏi vay tiền, chị cũng đã cẩn thận gọi video lại để kiểm tra thì thấy phía đầu dây bên kia vẫn hiện lên khuôn mặt và giọng nói của người thân.

Tuy nhiên, âm thanh rất khó nghe, hình ảnh cũng nhòe giống như sóng chập chờn. Chị M đã tin tưởng chuyển khoản cho bạn vay. Sau đó vài tiếng, chị nhận được thông tin trang cá nhân của người đó bị kẻ gian hack nick facebook để hỏi vay tiền một số bạn bè và người thân. Chị M gọi điện lại cho bạn thì được xác nhận tin nhắn vay tiền là của kẻ xấu lừa đảo.

Tương tự như vậy, chị Mỹ Tâm (trú tại TP HCM) cho biết, đã bị lừa mất 30 triệu đồng bởi chiêu trò gọi điện video Deepfake. Chị Tâm nhận được tin nhắn của người thân bên Mỹ mượn tiền vì có việc gấp. Liền sau đó chị Tâm nhận được cuộc gọi video qua ứng dụng Messenger của Facebook.

Chị Mỹ Tâm chia sẻ: “Cuộc gọi chỉ diễn ra được vài giây nhưng đủ để tôi thấy được khuôn mặt người thân của mình cùng với cách xưng hô quen thuộc nhưng chập chờn. Sau đó tôi nhận được tin nhắn vì sóng yếu nên không gọi video tiếp được, chuyển sang nhắn tin cho tiện. Tôi tin tưởng và chuyển tiền theo hướng dẫn không chút nghi ngờ”.

Theo các chuyên gia công nghệ và an ninh mạng, Deepfake là một công nghệ AI có khả năng làm giả video với hình ảnh và giọng nói của một người khác. Rõ ràng, sự phát triển của công nghệ đang là con dao hai lưỡi nên người dân cần đề phòng bằng nhiều cách khác nhau. Các ngân hàng, chuyên gia an ninh đã liên tiếp đưa ra cảnh báo với người dân.

Mỗi chúng ta cần nâng cao cảnh giác với các cuộc gọi hỏi vay mượn tiền, kể cả xác nhận qua video call. Hạn chế chia sẻ hình ảnh, video có giọng nói thật, thông tin cá nhân trên mạng xã hội. Chú ý kiểm tra kỹ thông tin tài khoản nhận tiền, gọi vào số điện thoại mà mình biết để xác minh với người thân trước khi chuyển tiền.

Nếu nghi ngờ hoặc là nạn nhân bị lừa đảo bởi công nghệ Deepfake, chúng ta cần khẩn trương thông báo cho những người thân quen biết để hạn chế tối đa thiệt hại và ngay lập tức báo với CQCA gần nhất để được hỗ trợ.

Các cơ quan truyền thông cần đẩy mạnh tuyên truyền để nhiều người cùng nâng cao nhận thức cảnh giác trước các thủ đoạn lừa đảo trên không gian mạng. Đặc biệt, tôi cho rằng, cơ quan chức năng có thể truy tìm kẻ lừa đảo dựa trên số tài khoản mà nạn nhân đã chuyển tiền.

Tuyên truyền, khuyến cáo người dân cảnh giác với tội phạm lừa đảo
Công an Hải Phòng cảnh báo 16 chiêu lừa phổ biến trên không gian mạng
Cảnh báo thủ đoạn lừa đảo hỗ trợ cấp lại mật khẩu ứng dụng VssID - BHXH số

Tường Vy

Bản quyền thuộc về "Pháp Luật và Xã hội - Chuyên trang của Báo Kinh tế & Đô thị", chỉ được dẫn nguồn khi có thỏa thuận bằng văn bản.