
Công nghệ deepfake là một nhánh nổi bật của AI. Nhờ khả năng tái tạo âm thanh và hình ảnh của một người với độ chính xác cao, kẻ gian có thể giả mạo các nhà lãnh đạo trong các cuộc họp trực tuyến, hoặc dựng lên các video, cuộc gọi nhằm lừa đảo tài chính. Hơn nữa, các chiêu trò này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực. Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính. Một ví dụ khác là các vụ lừa đảo tình cảm (AI romantic scams), trong đó deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân thông qua các cuộc gọi video. Sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay.
Gần đây, một nhóm hơn hai chục người liên quan đến các vụ lừa đảo kiểu này đã bị bắt sau khi chiếm đoạt 46 triệu USD từ các nạn nhân tại Singapore, Ấn Độ… Giọng nói giả mạo (voice fakes) cũng đã được sử dụng trong các vụ lừa đảo nhắm vào cá nhân, cũng như trong các cuộc tấn công nhằm vào các ngân hàng sử dụng hệ thống xác thực bằng giọng nói.
Trước tình hình trên, Cục An toàn thông tin (Bộ Thông tin và Truyền thông) khuyến cáo người dùng cần phải cảnh giác với lời khuyên đầu tư từ người nổi tiếng, đặc biệt là trên mạng xã hội. Hãy quan sát kỹ những biểu cảm khuôn mặt không tự nhiên trong các video. Nếu một khoản đầu tư nghe có vẻ quá hấp dẫn, thì rất có thể đó là một chiêu trò lừa đảo.
Ngoài ra, người dùng cần hạn chế đăng tải nội dung liên quan đến thông tin cá nhân lên mạng xã hội để tránh trường hợp bị các đối tượng xấu đánh cắp thông tin như hình ảnh, video hoặc giọng nói, đồng thời đặt chế độ tài khoản ở chế độ riêng tư để bảo vệ thông tin cá nhân.
Người dùng cũng nên cảnh giác với các tin nhắn, email hoặc cuộc gọi không xác định, không cung cấp thông tin cá nhân, tài khoản hoặc làm theo yêu cầu của họ. Bên cạnh đó, cần chú ý đến các dấu hiệu bất thường trong hình ảnh, video hoặc giọng nói cũng có thể giúp bạn nhận diện các trò lừa đảo.