Những kẻ lừa đảo sử dụng trí tuệ nhân tạo (AI) để tăng cường các kế hoạch khẩn cấp gia đình của họ

Bạn nhận được một cuộc gọi. Có một giọng nói hoảng loạn trên đường dây. Đó là cháu trai của bạn. Cháu nói rằng cháu đang gặp rắc rối lớn — cháu đã đâm xe và phải vào tù. Nhưng bạn có thể giúp bằng cách gửi tiền. Bạn hít một hơi thật sâu và suy nghĩ. Bạn đã nghe nói về trò lừa đảo ông bà. Nhưng chết tiệt, nghe giống hệt cháu. Làm sao có thể là lừa đảo được? Sao chép giọng nói, đó là cách.
Trí tuệ nhân tạo không còn là ý tưởng xa vời trong phim khoa học viễn tưởng nữa. Chúng ta đang sống với nó, ngay tại đây và ngay bây giờ. Kẻ lừa đảo có thể sử dụng AI để sao chép giọng nói của người thân yêu của bạn. Tất cả những gì chúng cần là một đoạn clip âm thanh ngắn về giọng nói của thành viên gia đình bạn — mà chúng có thể lấy từ nội dung được đăng trực tuyến — và một chương trình sao chép giọng nói. Khi kẻ lừa đảo gọi cho bạn, chúng sẽ nói giống hệt như người thân yêu của bạn.
Vậy làm sao bạn có thể biết được một thành viên trong gia đình đang gặp rắc rối hay đó là kẻ lừa đảo sử dụng giọng nói giả?
Đừng tin vào giọng nói. Hãy gọi cho người được cho là đã liên lạc với bạn và xác minh câu chuyện. Sử dụng số điện thoại mà bạn biết là của họ. Nếu bạn không thể liên lạc với người thân yêu của mình, hãy thử liên lạc với họ thông qua một thành viên gia đình khác hoặc bạn bè của họ.
Những kẻ lừa đảo yêu cầu bạn thanh toán hoặc gửi tiền theo những cách khiến bạn khó lấy lại tiền. Nếu người gọi nói rằng hãy chuyển tiền, gửi tiền điện tử hoặc mua thẻ quà tặng và cung cấp cho họ số thẻ và mã PIN, thì đó có thể là dấu hiệu của một vụ lừa đảo. Nếu bạn phát hiện ra một vụ lừa đảo, hãy báo cáo với FTC tại ReportFraud.ftc.gov.
*Được mang đến cho bạn bởi chương trình Tư vấn Tài chính và Nhà ở (320) 650-1664.
Tin tức gần đây của chúng tôi

