Công an Hải Phòng cảnh báo thủ đoạn lừa đảo mới, rất tinh vi
Theo dõi Pháp luật & Xã hội trênĐối tượng lừa đảo sử dụng công nghệ cao cắt ghép ảnh, clip nhạy cảm để tống tiền. Ảnh chụp màn hình |
Thời gian gần đây, qua công tác nắm tình hình, Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao phát hiện tại địa bàn TP Hải Phòng, các đối tượng sử dụng công nghệ AI cắt ghép hình ảnh, video clip, sau đó giả danh “Thám tử tư” để gửi tin nhắn tống tiền, gây hoang mang và tổn thất về tài sản cho nhiều người.
Thủ đoạn của các đối tượng này là tìm kiếm thông tin, hình ảnh, số điện thoại của nạn nhân (chủ yếu là nam giới, có điều kiện kinh tế, có chức vụ trong các cơ quan Đảng, Nhà nước, cơ quan, doanh nghiệp) từ nhiều nguồn khác nhau (tài khoản mạng xã hội, báo điện tử,...) và tiến hành cắt ghép hình ảnh khuôn mặt của nạn nhân vào hình ảnh của một người nam giới trong những video clip có nội dung “nhạy cảm” ở các nhà nghỉ, khách sạn,...
Sau đó, đối tượng giả danh là thám tử tư nhắn tin thông báo với nạn nhân qua địa chỉ hòm thư điện tử cá nhân (Email) hoặc qua số điện thoại cá nhân về việc đối tượng được thuê theo dõi nạn nhân một thời gian và phát hiện nạn nhân có những hành vi hủ bại, sa đọa ở chức vụ của mình, đồng thời đối tượng gửi cho nạn nhân đoạn video clip “nhạy cảm” đã được chỉnh sửa, cắt ghép với khuôn mặt của nạn nhân, yêu cầu nạn nhân phải chuyển một khoản tiền điện tử (USDT) vào địa chỉ ví điện tử dạng "TBhpJaBdzD3REXYJaUCZQ9Yr5xWYRkpsBe" hoặc số tài khoản ngân hàng mà đối tượng cung cấp để không bị đăng bài lên mạng xã hội, không bị lan truyền những hình ảnh này tới người thân, đồng nghiệp, nếu nạn nhân thực hiện yêu cầu, chúng sẽ đưa lại những tài liệu, video clip "nhạy cảm". Khi nạn nhân bị “sập bẫy”, các đối tượng sẽ hướng dẫn nạn nhân mua tiền điện tử chuyển đến các ví điện tử theo chỉ định hoặc chuyển khoản đến một tài khoản ngân hàng, sau đó chiếm đoạt toàn bộ số tiền.
Đây là một hình thức lừa đảo sử dụng công nghệ Deepfake AI - công nghệ trí tuệ nhân tạo (AI) có khả năng tạo các sản phẩm âm thanh, hình ảnh, video clip làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Những hình ảnh, video “nhạy cảm” được tạo ra bằng “Deepfake" có thể gây ảnh hưởng lớn tới uy tín và cuộc sống của nạn nhân.
Để phòng tránh trường hợp bị lợi dụng hình ảnh cá nhân cho mục đích xấu, mỗi cá nhân cần kiểm tra và điều chỉnh cài đặt quyền riêng tư để hạn chế người có thể xem và truy cập ảnh cá nhân trên các tài khoản mạng xã hội. Hạn chế việc chia sẻ ảnh công khai với người lạ. Bên cạnh đó, không nên chia sẻ quá nhiều thông tin cá nhân (như ảnh cá nhân, số điện thoại, địa chỉ nhà, ...) trên không gian mạng trong những trường hợp không thực sự cần thiết, hoặc khi sử dụng xong thì xóa bỏ những thông tin đã chia sẻ trên mạng Internet.
Trường hợp gặp phải những sự việc tương tự, phải nâng cao tỉnh thần cảnh giác với phương châm “Bình tĩnh, không hoảng sợ, không phản hồi, không vội vàng làm theo yêu cầu chuyển tiền của đối tượng”, đồng thời, liên hệ ngay với cơ quan Công an nơi gần nhất để được hỗ trợ, giải quyết.
Sự thật về nhóm nam nữ tư vấn lĩnh vực ngoại hối, chứng khoán... | |
Truy xét nhóm giả danh cảnh sát hình sự làm chuyện manh động | |
Bắt 2 chị em gái thường xuyên rủ nhau làm chuyện phạm pháp |
Pháp luật và Xã hội
Mở Zalo, bấm quét QR để quét và xem trên điện thoại