Nạn lừa đảo bằng giọng AI gieo rắc rối khắp nước Mỹ

Giọng nói trong điện thoại có vẻ thật đến đáng sợ. Một bà mẹ đã nghe thấy tiếng con gái khóc nức nở trước khi một người đàn ông giật lấy điện thoại rồi đòi tiền chuộc.

70% số người được hỏi không tin bản thân có thể phân biệt được giọng AI và giọng người thật.

Nhưng theo hãng thông tấn AFP, thực chất, tiếng nói của cô con gái đó lại là sản phẩm của trí tuệ nhân tạo (AI) và vụ bắt cóc là hoàn toàn không có thật.

Đối mặt với vấn nạn lừa đảo này, các chuyên gia cho rằng mối nguy hiểm lớn nhất của AI là xóa nhòa ranh giới giữa thực tế và hư cấu, tiếp tay cho bọn tội phạm mạng có được một công nghệ rẻ tiền mà hiệu quả để thực hiện ý đồ xấu.

Trong một loạt vụ lừa đảo mới làm chấn động nước Mỹ, những kẻ lừa đảo đang sử dụng các công cụ nhân bản giọng nói AI với mức độ giống thật đáng kinh ngạc - nhưng lại dễ dàng tiếp cận trên mạng - để đánh cắp tài sản bằng cách mạo danh thành viên trong gia đình của nạn nhân.

“Cứu con với, mẹ ơi, cứu con với,” bà Jennifer DeStefano sống ở Arizona đã nghe thấy một giọng nói hoảng hốt đầu dây bên kia.

Cô DeStefano 100% tin tưởng cô con gái 15 tuổi của mình bị gặp nạn khi đi trượt tuyết. “Tôi chẳng mảy may nghi vấn. Đó rõ ràng là giọng nói của con bé. Đó là cách con bé sẽ bật khóc. Tôi chưa bao giờ nghi ngờ dù chỉ một giây thôi”, bà DeStefano kể lại trên sóng một đài truyền hình địa phương hồi tháng 4.

Kẻ lừa đảo đã thực hiện cuộc gọi, hiển thị số lạ trên điện thoại của bà DeStefano, đòi số tiền chuộc lên tới 1 triệu đô la Mỹ. Âm mưu tống tiền được AI hỗ trợ này đã đổ bể sau vài phút khi bà DeStefano liên lạc được với con gái mình.

Nhưng vụ án kinh hoàng trên đã nhấn mạnh khả năng bọn tội phạm mạng lạm dụng các công nghệ AI để giả danh người khác.

Ông Wasim Khaled, Giám đốc điều hành tại công ty Blackbird.AI, nói với AFP: “Khả năng nhân bản giọng nói của AI hiện gần như không thể phân biệt được với giọng nói thật của con người. Yếu tố này cho phép những kẻ lừa đảo lấy thông tin và tiền từ nạn nhân một cách hiệu quả hơn”.

Một lệnh tìm kiếm đơn giản trên mạng Internet đã đề xuất rất nhiều ứng dụng có sẵn miễn phí để tạo giọng nói AI chỉ bằng một đoạn ghi âm nguyên mẫu ngắn, thậm chí chỉ kéo dài vài giây. Hậu quả, giọng nói thật của một người có thể dễ dàng bị đánh cắp từ phần nội dung mà họ đăng trực tuyến.

“Với một mẫu âm thanh nhỏ, bản sao giọng nói AI có thể bị lợi dụng để gửi thư thoại và văn bản thoại. Nó thậm chí có thể được sử dụng như một công cụ thay đổi giọng nói trực tiếp trong các cuộc gọi điện thoại”, ông Khaled lưu ý.

Bọn lừa đảo có thể sử dụng các giọng, giới tính khác nhau hoặc thậm chí bắt chước cách nói của những người thân của nạn nhân.

Trong một cuộc khảo sát toàn cầu trên 7.000 người ở 9 quốc gia, trong đó có Mỹ, cứ 4 người thì có 1 người cho biết họ đã từng bị lừa đảo bằng giọng nói AI, hoặc biết đến một trường hợp từng bị lừa đảo theo cách đó.

70% số người được hỏi cho biết họ không tự tin rằng mình có thể phân biệt được sự khác biệt giữa giọng nói nhân bản và giọng nói thật.

Trong khi đó, các quan chức Mỹ gần đây đã liên tục cảnh báo về tần suất gia tăng của các vụ lừa đảo nhằm vào ông bà lớn tuổi. Theo kịch bản chung, kẻ mạo danh sẽ đóng giả một người cháu của nạn nhân đang cần tiền gấp trong một tình huống khó khăn.

“Bạn nhận được một cuộc gọi. Có một giọng nói hoảng hốt trên đường dây. Đó là cháu trai của bạn. Người đó nói rằng đang gặp rắc rối lớn. Cậu ta làm hư hại xe ô tô và phải ngồi tù. Nhưng bạn có thể giúp đỡ bằng cách gửi tiền”, Ủy ban Thương mại Liên bang Mỹ (FTC) mô tả về chiêu thức lừa đảo này.

Trong các bình luận bên dưới bản tin cảnh báo của FTC, nhiều người cho biết người thân lớn tuổi trong gia đình họ đã bị lừa theo cách đó.

Đó là câu chuyện của anh Eddie, 19 tuổi, ở Chicago. Ông nội của Eddie nhận được cuộc gọi từ một người mạo danh anh, nói rằng anh cần tiền vì đã gây ra tại nạn xe hơi.

Theo báo cáo của hãng McAfee Labs, mưu mẹo này thuyết phục đến mức ông nội của Eddie khẩn trương gom góp tiền và thậm chí còn cân nhắc đến cách thế chấp nhà để lấy tiền trước khi lời nói dối đó bị phát hiện.

Giáo sư Hany Farid của Trường Thông tin UC Berkeley nói với AFP: “Vì hiện nay rất dễ tạo ra các bản sao giọng nói có độ chân thực cao nên gần như bất kỳ ai có hiện diện trực tuyến nào đều dễ bị tấn công. Những trò lừa đảo này đang rộ lên và lan rộng”.

Đầu năm 2023, công ty khởi nghiệp AI ElevenLabs thừa nhận rằng công cụ sao chép giọng nói của họ có thể bị lạm dụng vào mục đích xấu. Cụ thể, một người dùng sản phẩm của công ty này đăng một đoạn âm thanh giả mạo cho thấy nữ diễn viên Emma Watson đang đọc cuốn tiểu sử Mein Kampf của trùm phát xít Đức Adolf Hitler.

Ông Gal Tal-Hochberg, Giám đốc công nghệ tại công ty đầu tư mạo hiểm Team8, nói với AFP rằng chúng ta đang tiến nhanh đến mức bạn không thể tin vào những thứ bạn nhìn thấy trên Internet. Do đó, chúng ta cần công nghệ mới để biết liệu người đang nói chuyện với bạn có thực sự là người đó hay không.

TTXVN/Báo Tin tức

Có thể bạn quan tâm

Tin cùng chuyên mục

Di tích lịch sử liên quan đến chế độ diệt chủng Pol Pot ở Campuchia trở thành di sản văn hóa thế giới

Di tích lịch sử liên quan đến chế độ diệt chủng Pol Pot ở Campuchia trở thành di sản văn hóa thế giới

Thủ tướng Chính phủ Hoàng gia Campuchia Samdech Thipadei Hun Manet đã gửi thông điệp chào mừng sau khi 3 di tích lịch sử của Campuchia chính thức được công nhận là di sản văn hóa thế giới tại kỳ họp thứ 47 của Ủy ban Di sản Thế giới thuộc Tổ chức Giáo dục, Khoa học và Văn hóa của Liên hợp quốc (UNESCO) ngày 11/7.

Hàng loạt KOL bị bắt vì trốn thuế: Hồi chuông cảnh tỉnh cộng đồng kinh doanh online

Hàng loạt KOL bị bắt vì trốn thuế: Hồi chuông cảnh tỉnh cộng đồng kinh doanh online

Việc nhiều KOL, TikToker bị bắt vì trốn thuế 'khủng' thời gian gần đây là hồi chuông cảnh tỉnh cho cộng đồng kinh doanh online. Theo chuyên gia, trong trường hợp có dấu hiệu gian lận thuế, cơ quan thuế có quyền mở rộng kiểm tra và truy thu đối với tất cả các tài khoản liên quan đến kinh doanh.

Truy tố 3 bị can sử dụng hóa chất cấm làm giá đỗ

Truy tố 3 bị can sử dụng hóa chất cấm làm giá đỗ

Ngày 8/7, Viện trưởng Viện Kiểm sát nhân dân khu vực I, tỉnh Lào Cai đã quyết định truy tố 3 bị can ra trước Tòa án nhân dân thành phố Lào Cai để xét xử về tội “Vi phạm quy định về an toàn thực phẩm” theo quy định tại điểm a Khoản 1 Điều 317 Bộ luật Hình sự.

Cảnh báo lừa đảo giả danh cán bộ Cục Đăng kiểm

Cảnh báo lừa đảo giả danh cán bộ Cục Đăng kiểm

Gần đây, tại nhiều địa phương, trong đó có TP. Huế, xuất hiện tình trạng một số đối tượng giả danh cán bộ Cục Đăng kiểm Việt Nam (ĐKVN) để lừa đảo chiếm đoạt tài sản. Với chiêu bài “hỗ trợ kỹ thuật”, “xác minh hồ sơ” và “đổi mẫu tem kiểm định ô tô”, các đối tượng đã khiến không ít chủ phương tiện, đặc biệt là lái xe kinh doanh, rơi vào vòng xoáy lừa đảo.

Đồng bộ trong quản lý nguồn gốc sản phẩm

Đồng bộ trong quản lý nguồn gốc sản phẩm

Mã số, mã vạch được coi là “chứng minh thư” của sản phẩm, giúp xác định nguồn gốc xuất xứ, hỗ trợ quản lý nhà nước, bảo vệ quyền lợi người tiêu dùng. Tuy nhiên, mã số, mã vạch đang bị một số tổ chức, cá nhân lợi dụng để hợp thức hóa hàng hóa không rõ nguồn gốc.

Hệ lụy từ buôn bán động vật hoang dã trái phép

Hệ lụy từ buôn bán động vật hoang dã trái phép

Vấn nạn săn bắt, buôn lậu động vật hoang dã đang gây ra nhiều hệ lụy nghiêm trọng đối với hệ sinh thái tự nhiên, tác động tiêu cực lên mục tiêu phát triển kinh tế - xã hội bền vững. Bên cạnh một bộ phận nhỏ vi phạm pháp luật do thiếu hiểu biết, phần lớn đối tượng trong lĩnh vực này đều vì lợi nhuận mà nhắm mắt đưa chân, tham gia vào các đường dây buôn bán động vật hoang dã trái phép.

Du lịch mùa cao điểm: Cẩn thận tránh bẫy lừa đảo trên mạng xã hội

Du lịch mùa cao điểm: Cẩn thận tránh bẫy lừa đảo trên mạng xã hội

Du lịch là dịp để thư giãn, khám phá, trải nghiệm những điều mới mẻ. Thế nhưng, ngày càng nhiều du khách trở thành nạn nhân của các chiêu trò lừa đảo tinh vi, khiến chuyến đi mơ ước hóa thành kỷ niệm buồn. Không chỉ gây thiệt hại tài chính, các vụ lừa đảo còn làm tổn thương tinh thần và mất niềm tin của người đi du lịch.

fb yt zl tw