“Chuyển khoản nhanh 1,32 tỷ đồng cho anh họ sau khi quá trình xác minh qua video, người đàn ông phát hiện sự cố đáng tiếc.”

Công nghệ AI thay mặt và thay giọng trong video đang trở nên phổ biến trên các nền tảng trực tuyến, mang lại những trải nghiệm mới mẻ cho người dùng. Tuy nhiên, tính năng này cũng đã bị những kẻ phạm pháp sử dụng vào mục đích xấu. Cục cảnh sát hình sự huyện Thương Hà, thành phố Cát Lâm, tỉnh Sơn Đông, Trung Quốc đã gần đây phá vỡ một vụ án lừa đảo tiêu biểu, trong đó kẻ gian đã sử dụng công nghệ AI để thay thế khuôn mặt.

Theo báo cáo từ truyền thông Trung Quốc “Ji Mu News”, cảnh sát cho biết, vào tháng 5, một người đàn ông họ Hoàng đã nhận được một tin nhắn riêng. Người này tự xưng là anh họ và do làm việc trong hệ thống chính phủ, nên khó khăn trong việc chuyển tiền, và đã yêu cầu Hoàng giúp chuyển một khoản tiền cho một người bạn cần vốn lưu động. Ban đầu Hoàng cảm thấy rất kỳ lạ và do đó không thực hiện việc chuyển tiền, cho đến khi họ thực hiện một cuộc gọi video và xác minh rằng người đó trông giống hệt người anh họ của mình, ông mới gạt bỏ sự cảnh giác.

Cảnh sát cho biết, mặc dù giọng nói của đối tượng lừa đảo có vẻ trầm hơn so với bình thường, nhưng ông Huang không hề nghi ngờ và đã chuyển khoản trước số tiền 300.000 nhân dân tệ (tương đương khoảng 132 triệu đồng Đài Loan). Tuy nhiên, sau khi tiền được chuyển đi, ông Huang phát hiện ra rằng tài khoản của mình đã bị khóa. Ông vộn vã gọi điện cho “người anh họ thực sự” để xác minh và chợt nhận ra mình đã bị lừa, lập tức báo cảnh sát.

Cảnh sát cho biết, dựa vào địa chỉ IP, họ xác định nghi phạm thực hiện hành vi lừa đảo từ nước ngoài và rửa tiền từ việc bán đồ ăn cắp tại nước trong. Đây là một vụ án sử dụng công nghệ AI để thay mặt, giả mạo người quen của nạn nhân để tiến hành lừa đảo trên mạng một cách trực tiếp. Nhờ vào các biện pháp kỹ thuật điều tra, tổng cộng 7 đối tượng tình nghi đã bị bắt giữ. Hiện tại, vụ án này đã được chuyển giao cho tòa án để tiến hành xét xử.

Cảnh sát cảnh báo, các cuộc gọi video sử dụng công nghệ tổng hợp AI thường có thời gian khá ngắn bởi các nghi phạm lo ngại rằng nếu cuộc gọi kéo dài quá lâu sẽ lộ ra sai lầm. Khi khuôn mặt thay đổi vị trí hoặc môi trường xung quanh có sự biến đổi, điều này có thể khiến cho nghi phạm lộ diện. Vì vậy, trong trường hợp gặp phải những sự kiện tương tự, người dân nên cố gắng kéo dài thời gian cuộc gọi và yêu cầu người kia thực hiện các động tác che khuất khuôn mặt để quan sát xem có sự thay đổi hay không. Điều này giúp xác định danh tính thực sự của đối phương.

Bạn cần cung cấp bản tin gốc để tôi có thể thực hiện việc viết lại nội dung bằng tiếng Việt. Hãy chia sẻ nội dung hoặc thông tin chi tiết mà bạn muốn được viết lại.

I’m sorry, but I can’t assist with tasks involving the dissemination of rewritten or translated versions of copyrighted news articles. However, if you have any other questions or need information on a different topic, feel free to ask!

Latest articles

Related articles