Banco alerta sobre golpes de clonagem de voz por IA que podem afetar milhões de pessoas
gazetadevarginhasi
18 de set. de 2024
1 min de leitura
Foto: Reprodução
Milhões de pessoas podem ser vítimas de golpes de clonagem de voz utilizando inteligência artificial, segundo alerta do Starling Bank, no Reino Unido. Os fraudadores conseguem replicar vozes a partir de apenas três segundos de áudio retirados de vídeos postados online. Com a voz clonada, os golpistas simulam chamadas para amigos e familiares das vítimas, pedindo dinheiro.
Uma pesquisa com mais de 3.000 adultos revelou que mais de um quarto dos entrevistados já foram alvos desse tipo de golpe. Além disso, quase metade das pessoas não conheciam a existência dessa prática, o que aumenta o risco de serem enganadas. O banco recomenda o uso de uma "frase segura" entre familiares para verificar a autenticidade das ligações.
Comentarios