Cuidado! Inteligência artificial de voz é usada para aplicação de golpes

Uso mal-intencionado para golpes corrompe a aplicação das ferramentas de IA.

A inteligência artificial, ou IA, gera discussões e questões em todas as esferas socioeconômicas. Enquanto há muita preocupação sobre uma possível “revolução das máquinas”, as inteligências já disponíveis hoje são usadas, pelos próprios seres humanos, para prejudicar outras pessoas com golpes.

Só isso já rende um pano para manga de discussão, mas vamos considerar apenas as ocorrências recentes. Um recurso muito acessível hoje, que qualquer pessoa que tenha usado um dicionário bilíngue conhece, é o recurso de voz gerada pela IA.

Esse recurso para geração de voz foi aprimorado, e hoje ela é capaz de imitar vozes de pessoas reais. Assim, golpistas viram nesse recurso uma ferramenta útil para aplicar golpes, e a facilidade de acesso a essa tecnologia faz com que ela seja amplamente usada por criminosos.

Dados de 2022 relatam que golpes usando vozes por inteligência artificial foram a segunda modalidade mais popular nos Estados Unidos. Ao todo, 36 mil pessoas foram vítimas desse tipo de golpe, segundo dados da Federal Trade Commission (FTC) que foram publicados no The Washington Post.

Desse total de vítimas, 5.100 foram contatadas por telefone. Autoridades da FTC estimam mais de US$ 11 milhões (mais de R$ 56 milhões) em perdas.

Especialistas percebem que os reguladores federais, autoridades policiais e tribunais estão despreparados para lidar com esse tipo de golpe. Essas ligações são difíceis de ser rastreadas, e as vítimas tem poucas pistas para identificar os criminosos, que atuam no mundo todo.

Além disso, os precedentes legais para que as empresas que fazem e vendem o produto sejam responsabilizadas são escassos.

Golpe com inteligência artificial generativa

A inteligência artificial generativa foi criada para auxiliar softwares que criam textos, imagens ou sons com bases em dados que lhe são dados. Com o tempo, os mecanismos de treinamento desse software estimularam o lançamento de chatbots, criadores de imagem e voz que são muito realistas.

O golpe em si não tem nada de novo: os criminosos ligam ou mandam mensagens alegando que sequestraram familiares da vítima, ou que são filhos ou netos da vítima e precisam de dinheiro para alguma coisa. Mas, agora, as vozes nas ligações e mensagens de voz são exatamente as mesmas dos entes queridos das vítimas.

Como isso é possível? Para a IA generativa ser capaz de recriar tom, timbre e sons individuais da voz de uma pessoa, basta que ela seja alimentada com amostras de áudio dessa pessoa. E hoje, com redes sociais e plataformas como YouTube, podcasts, comerciais, TikTok, Instagram ou vídeos do Facebook, isso é muito fácil.

Então, os golpistas acessam essas amostras de voz, alimentam uma IA generativa e a fazem dizer o que eles querem ou precisam. Assim, as vítimas são pegas de surpresa e facilmente correm para agir e ajudar os entes queridos que supostamente estão em perigo.

você pode gostar também