Cảnh báo lừa đảo bằng deepfake để giả giọng, mặt người thân

03/04/2023 | 08:22 GMT+7

(HG) - Deepfake là cụm từ được kết hợp từ “deep learning” và “fake”, là phương thức tạo ra các sản phẩm công nghệ giả (fake) dưới dạng âm thanh, hình ảnh hoặc thậm chí là cả video, bởi trí tuệ nhân tạo (AI).

Nắm bắt được tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với chiêu trò lừa đảo bằng tin nhắn để vay tiền, chuyển tiền, các đối tượng sử dụng chiêu lừa đảo tinh vi hơn để vay tiền, chuyển tiền thông qua hình thức giả cuộc gọi video.

Theo đó, chúng có thể gọi video để giả làm người thân hoặc quen biết với nạn nhân để vay  tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí.

Thủ đoạn của các đối tượng là chiếm đoạt tài khoản cá nhân (hack), sử dụng hình ảnh, video cũ của người dùng mạng xã hội hoặc thu thập từ các nguồn công khai trên internet, cắt ghép hoặc dùng công nghệ deepfake để tạo ra video giả mạo. Sau đó, chúng sử dụng tài khoản đã chiếm đoạt để gọi và phát video giả mạo dưới hình thức mờ ảo, chập chờn rồi viện dẫn lý do đang ở nơi sóng yếu để tạo lòng tin rồi nhắn tin để vay tiền, chuyển tiền và yêu cầu nạn nhân chuyển đến tài khoản của đối tượng để chiếm đoạt.

Phòng An ninh mạng và phòng, chống tội phạm công nghệ cao Công an tỉnh Hậu Giang khuyến cáo, khi nhận bất kỳ tin nhắn hay cuộc gọi video để vay tiền, chuyển tiền thông qua mạng xã hội, người dân cần điện thoại trực tiếp cho người thân để xác minh. Tuyệt đối không cung cấp mã OTP, chuyển tiền, nạp card điện thoại… cho bất kỳ ai khi chưa biết rõ về họ.

CHÍ VỌNG

Viết bình luận mới
Tin cùng chuyên mục
Các tin khác
Xem thêm >>