Recurso de IA ajudou em roubo MILIONÁRIO; entenda o caso

Golpistas usaram inteligência artificial e conseguiram roubar milhões de dólares; como isso aconteceu?

Na primeira semana de fevereiro, a polícia de Hong Kong divulgou que uma multinacional sediada na região foi vítima de um golpe estimado em US$ 26 milhões, o que seria cerca de R$ 130 milhões conforme a cotação atual.

A fraude aconteceu através de deepfake, uma técnica que usa inteligência artificial (IA) para criar vídeos e áudios falsos.

Com essa ferramenta, os criminosos conseguiram executar uma fraude milionária, mas como isso ocorreu exatamente?

Detalhes do crime que teve ajuda de IA

Criminosos conseguem roubar R$ 130 milhões usando IA – Imagem: Reprodução

Tudo ocorreu através de uma chamada de vídeo falsa, na qual os estelionatários utilizaram deepfake para imitar os executivos seniores da empresa em vídeo e voz.

O incidente veio à tona em 29 de janeiro, quando as autoridades foram alertadas sobre as atividades fraudulentas. Até então, a empresa já havia realizado 15 transferências bancárias, totalizando os US$ 26 milhões.

Como a polícia ainda está na investigação desse caso, nenhum suspeito foi detido até o momento. Além disso, a empresa vítima segue com a identidade sob sigilo.

Na prática, os golpistas miraram um funcionário do departamento financeiro da multinacional, fazendo-se passar pelo diretor-financeiro da corporação, com base no Reino Unido.

Para criar as falsificações, eles se valeram de vídeos e áudios publicamente disponíveis de seus alvos.

Como citamos brevemente, essa técnica de deepfake, impulsionada pela IA, permite criar vídeos e áudios falsos que reproduzem de forma realista a aparência e a voz das pessoas.

Portanto, a IA possibilitou aos criminosos imitar as vozes e imagens dos executivos, persuadindo a vítima a seguir suas instruções para transferir dinheiro para contas bancárias designadas.

Porém, vale ressaltar que os vídeos deepfake foram previamente gravados, sem envolver diálogo ou interação real com o funcionário, o que aumentou a sofisticação e dificultou a detecção do golpe.

A polícia destacou que a chamada de vídeo envolvia múltiplos participantes, todos sendo impostores, exceto a vítima.

O caso traz à tona os desafios emergentes à medida que as inteligências artificiais generativas, como as utilizadas em deepfake, se tornam mais avançadas e acessíveis.

Especialistas alertam para o potencial de desinformação e mau uso dessas tecnologias, ressaltando a importância da conscientização pública para combater tais fraudes.

Até o momento, não existe uma solução de segurança tecnológica capaz de eliminar completamente o problema.

O episódio serve como um lembrete da necessidade de vigilância e medidas preventivas para proteger empresas e indivíduos contra ameaças digitais cada vez mais sofisticadas.

você pode gostar também