Lợi dụng công nghệ deepfake (sử dụng trí tuệ nhân tạo - AI tạo ra âm thanh, hình ảnh và video giả mạo), các đối tượng đã thực hiện nhiều vụ lừa đảo với thủ đoạn ngày càng tinh vi.
![]() |
Trên không gian mạng gần đây xuất hiện phương thức lừa đảo sử dụng công nghệ deepfake ghép mặt, giọng nói nhằm chiếm đoạt tài sản, thông tin cá nhân hết sức tinh vi (ảnh minh họa) |
Mất tiền vì deepfake
Vừa qua, Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao (Công an tỉnh) nhận được tin báo của công dân V.T.H. (trú phường 1, TP.Vũng Tàu) bị các đối tượng dụ dỗ tham gia đầu tư chứng khoán, sàn giao dịch ngoại hối với số tiền bị chiếm đoạt 3,2 tỷ đồng.
Để dụ nạn nhân đối tượng sử dụng tài khoản facebook tên “Diễm Quỳnh” để nhắn tin tình cảm trong thời gian dài, sau đó rủ bị hại tham gia cùng đầu tư. Để tạo niềm tin, đối tượng thu thập hình ảnh từ facebook của chị Nguyễn Thị Quỳnh (trú quận Cầu Giấy, TP.Hà Nội).
Qua làm việc với cơ quan công an chị Nguyễn Thị Quỳnh cho biết, không có mối quan hệ quen biết với anh H. Chị Quỳnh là một doanh nhân kinh doanh nổi tiếng trong lĩnh vực thực phẩm, ăn uống nên tài khoản facebook của chị thường xuyên đăng tải hình ảnh, hoạt động thường ngày. Bản thân chị cũng là nạn nhân khi các đối tượng sử dụng hình ảnh không được sự cho phép để đi lừa đảo.
Qua điều tra, lực lượng công an phát hiện đối tượng đã sử dụng nhiều hình ảnh của chị Nguyễn Thị Quỳnh để làm cơ sở dữ liệu cho công cụ deepfake, làm cho bị hại lầm tưởng là đang gọi điện trực tiếp với chị này.
Tương tự, một vụ việc khác là chị M.N. (trú phường 7, TP.Vũng Tàu) đã phải đăng lên trang facebook cá nhân cảnh báo người thân, bạn bè về việc, có kẻ giả mạo danh chị để mượn tiền. Theo đó, đối tượng lừa đảo đã nhắn tin đến danh sách bạn bè của chị N. rất thuyết phục, đánh động đến lòng thương cảm của nhiều người với nội dung: “Cháu H.C. con chị chạy xe máy đi chơi cùng bạn bị ô tô tông chấn thương sọ não, gãy cổ. Hiện cháu đã được chuyển lên cấp cứu ở Bệnh viện Chợ Rẫy và phải đóng gấp 5 triệu tạm ứng phẫu thuật. Cho chị mượn gấp, chị chạy vội lên bệnh viện nên không chuẩn bị tiền…”.
Sau đó, bạn bè của chị N. gọi video lại để xác minh thì đối tượng trả lời thuyết phục qua video ngắn sau đó tắt máy rồi nhắn tin “do mạng yếu…”. Điều đáng nói là khuôn mặt đến từng cử chỉ chép miệng của chị N. trong cuộc gọi video giả mạo đều ăn khớp, y như thực.
2 người trên nằm trong số nhiều trường hợp liên quan đến tội phạm sử dụng công nghệ deepfake mà Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao tiếp nhận trong thời gian qua.
Cẩn trọng cuộc gọi, tin nhắn bất thường
Theo Đại tá Lý Xuân Cường, Trưởng phòng An ninh mạng và phòng, chống tội phạm công nghệ cao, các đối tượng lợi dụng sự phát triển của AI để phục vụ mục đích xấu như: lừa đảo chiếm đoạt tài sản, thu thập thông tin cá nhân trái phép... Chúng thường sử dụng deepfake để tạo ra nội dung giả mạo, đặc biệt là video. Trong đó, khuôn mặt hoặc âm thanh của một người sẽ được ghép vào các video, âm thanh của người khác. Sau đó, chúng khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.
Những dấu hiệu nhận biết deepfake
“Mặc dù công nghệ deepfake ngày càng tinh vi, nhưng vẫn có một số dấu hiệu có thể giúp mọi người nhận biết được video giả mạo, như: các cuộc gọi video có thời lượng ngắn, chỉ vài giây vì đối tượng lừa đảo lo sợ bị phát hiện. Khuôn mặt trong video có thể thiếu cảm xúc, “đơ” cứng hoặc tư thế lúng túng, không tự nhiên. Màu da của nhân vật trong video có thể không đồng nhất, ánh sáng kỳ lạ, bóng đổ không đúng vị trí, khiến video trông giả tạo. Âm thanh có thể bị rè, có nhiều tạp âm, hoặc không đồng nhất với cử động miệng của nhân vật...”.
(Đại tá Lý Xuân Cường, Trưởng phòng An ninh mạng
và phòng, chống tội phạm công nghệ cao - Công an tỉnh)
|
Để tránh trở thành nạn nhân của lừa đảo deepfake, Phòng An ninh mạng và phòng chống tội phạm công nghệ cao khuyến cáo người dân cần nâng cao cảnh giác và thực hiện một số biện pháp như: hạn chế chia sẻ thông tin cá nhân, hình ảnh, video lên mạng xã hội; cài đặt chế độ riêng tư cho tài khoản để bảo vệ thông tin; cẩn trọng với các cuộc gọi, tin nhắn bất thường.
Khi nhận được cuộc gọi hoặc tin nhắn yêu cầu chuyển tiền hoặc cung cấp thông tin cá nhân, người dân hãy bình tĩnh xác minh lại bằng cách gọi điện thoại trực tiếp cho người thân, bạn bè hoặc cơ quan chức năng liên quan; không vội vàng chuyển tiền hoặc cung cấp thông tin cá nhân khi chưa xác minh rõ ràng. Người dân cần báo cáo ngay cho cơ quan công an nếu nghi ngờ mình là nạn nhân của lừa đảo deepfake để được hỗ trợ.
Bài, ảnh: BẢO KHÁNH