Xuất hiện hành vi ghép mặt, giọng nói giống hệt người thân để lừa đảo

Tiin

26/03/2023 07:48

Các đối tượng sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video với độ chính xác rất cao để lừa đảo.
Theo Tiến Dũng/Infonet (Vietnamnet)

#chiêu trò lừa đảo #ghép mặt và giọng nói #dùng AI để lừa đảo

ĐỪNG BỎ LỠ

Cùng chuyên mục

Mới nhất

Góp ý bài viết

Phần có dấu (*) là thông tin bắt buộc