Tài chính Ngân hàng

Cảnh báo: Giọng nói trở thành ‘chìa khóa’ cho những chiêu trò lừa đảo bằng AI

Hoàng Hiếu 20/09/2024 - 17:29

Công nghệ AI có thể giả mạo giọng nói của bạn chỉ từ 3 giây âm thanh, khiến hàng triệu người có nguy cơ trở thành nạn nhân của các vụ lừa đảo tinh vi.

Ngày 18/9, Starling Bank, một công ty cho vay trực tuyến cho biết, những kẻ lừa đảo có khả năng sử dụng AI để sao chép giọng nói của một người chỉ từ 3 giây âm thanh, chẳng hạn như từ một video mà người đó đã đăng tải trực tuyến.

Sau đó, những kẻ lừa đảo có thể xác định bạn bè và thành viên gia đình của người đó và sử dụng giọng nói được sao chép bằng AI để dàn dựng một cuộc gọi điện thoại để dàn xếp một vụ tiền nong.

Một cuộc khảo sát hơn 3.000 người mà ngân hàng đã tiến hành với Mortar Research vào tháng trước cho thấy hơn 28% người trưởng thành tại Anh cho rằng họ đã từng là mục tiêu của những cuộc tấn công bằng giọng nói giả mạo trong năm qua.

Mặc dù phương thức lừa đảo này đang ngày càng phổ biến, gần một nửa số người trưởng thành (46%) thậm chí còn chưa biết về sự tồn tại của loại hình lừa đảo này. Điều đáng lo ngại hơn, chỉ có 30% người được hỏi biết cách nhận diện và phòng tránh khi gặp phải một cuộc tấn công giọng nói giả mạo.

“Mọi người thường xuyên đăng nội dung trực tuyến có ghi âm giọng nói của họ mà không bao giờ nghĩ rằng điều đó khiến họ dễ bị lừa đảo hơn”, Lisa Grahame, Giám đốc an ninh thông tin tại Starling Bank, cho biết trong thông cáo báo chí.

Cảnh báo: Giọng nói trở thành ‘chìa khóa’ cho những chiêu trò lừa đảo bằng AI
Hình ảnh minh họa, nguồn: Internet

Kẻ gian có thể thu thập một đoạn âm thanh ngắn từ các video hoặc bài đăng trên mạng xã hội, sau đó sử dụng công nghệ AI để sao chép giọng nói của nạn nhân. Chúng sẽ giả làm người thân hoặc bạn bè của nạn nhân và gọi điện, nhắn tin yêu cầu chuyển tiền khẩn cấp.

Nghiên cứu cho thấy, có gần 1 trên 10 người (8%) thừa nhận rằng họ sẽ gửi tiền nếu rơi vào tình huống này, ngay cả khi cảm thấy cuộc gọi có điều gì đó không đúng.

Các vụ gian lận tài chính tại Anh và xứ Wales đang gia tăng mạnh mẽ. Theo thống kê của UK Finance, số vụ gian lận đã tăng 46% trong năm qua. Trung bình, một người trưởng thành tại Anh bị nhắm đến bởi các trò lừa đảo tới 5 lần trong 12 tháng qua.

Các chuyên gia khuyến cáo rằng, với sự phát triển mạnh mẽ của AI, người dùng cần cẩn trọng hơn khi chia sẻ nội dung cá nhân trên mạng xã hội, đặc biệt là những nội dung có liên quan đến giọng nói của mình.

Chỉ cần một vài giây âm thanh là đủ để kẻ xấu có thể lợi dụng, vì vậy việc tự bảo vệ bản thân bằng các biện pháp đơn giản như cụm từ an toàn là vô cùng cần thiết trong thời đại số hóa.

>> Công an tìm nạn nhân bị lừa đảo trên một sàn giao dịch tiền ảo

​​Công an tìm nạn nhân bị lừa đảo trên một sàn giao dịch tiền ảo

Cảnh báo thủ đoạn lừa đảo mới thông qua một dịch vụ của Google

Theo Kiến thức Đầu tư
https://dautu.kinhtechungkhoan.vn/canh-bao-giong-noi-tro-thanh-chia-khoa-cho-nhung-chieu-tro-lua-dao-bang-ai-249682.html
Bài liên quan
Đừng bỏ lỡ
    Nổi bật Tỷ giá mới
    Cảnh báo: Giọng nói trở thành ‘chìa khóa’ cho những chiêu trò lừa đảo bằng AI
    POWERED BY ONECMS & INTECH