A empresa de cibersegurança Check Point Technologies lançou um alerta para o aumento de esquemas, burlas e ciberataques baseados em Inteligência Artificial (IA), que é usada para simular vozes de pessoas conhecidas da vítima.
Como conta a ABC News, alguns segundos de conteúdo partilhado em redes sociais podem ser suficientes para dar aos responsáveis tudo o que precisam para simular a voz de uma pessoa por via de IA. Uma vez recriada esta voz, podem usá-la para realizar chamadas para pessoas conhecidas para fazê-las transferir dinheiro.
Uma dessas histórias foi contada por Jennifer DeStefano, que recebeu uma chamada de um número desconhecido onde conseguia ouvir a voz da filha mais velha, Briana, em pânico. “Mãe, estes homens maus raptaram-me. Ajuda-me. Ajuda-me. Ajuda-me”, ouviu Jennifer do outro lado do telemóvel.
Na verdade, Briana estava completamente segura e não telefonou para a mãe nestas condições. A voz de Briana foi recriada com IA para tentar extorquir dinheiro à família.
Agora, Jennifer procura apelar aos legisladores que trabalhem e lancem medidas para evitar que mais pessoas sejam vítimas deste tipo de esquemas. “É este o futuro que estamos a criar com o uso de IA sem consequência ou regulação?”, questiona-se Jennifer.
O FBI Internet Crime Complaint Center acredita que, só nos EUA em 2022, este tipo de esquemas conseguiram extorquir aproximadamente 10 mil milhões de dólares (9,07 mil milhões de dólares) aos cidadãos do país - um montante elevado que, tendo em conta o número crescente de casos, tem tendência para aumentar.
Leia Também: Universidade da Beira Interior criou curso em Inteligência Artificial