Recurso de IA ajudou em roubo MILIONÁRIO; entenda o caso
Golpistas usaram inteligência artificial e conseguiram roubar milhões de dólares; como isso aconteceu?
Na primeira semana de fevereiro, a polícia de Hong Kong divulgou que uma multinacional sediada na região foi vítima de um golpe estimado em US$ 26 milhões, o que seria cerca de R$ 130 milhões conforme a cotação atual.
A fraude aconteceu através de deepfake, uma técnica que usa inteligência artificial (IA) para criar vídeos e áudios falsos.
Com essa ferramenta, os criminosos conseguiram executar uma fraude milionária, mas como isso ocorreu exatamente?
Detalhes do crime que teve ajuda de IA
Criminosos conseguem roubar R$ 130 milhões usando IA – Imagem: Reprodução
Tudo ocorreu através de uma chamada de vídeo falsa, na qual os estelionatários utilizaram deepfake para imitar os executivos seniores da empresa em vídeo e voz.
O incidente veio à tona em 29 de janeiro, quando as autoridades foram alertadas sobre as atividades fraudulentas. Até então, a empresa já havia realizado 15 transferências bancárias, totalizando os US$ 26 milhões.
Como a polícia ainda está na investigação desse caso, nenhum suspeito foi detido até o momento. Além disso, a empresa vítima segue com a identidade sob sigilo.
Na prática, os golpistas miraram um funcionário do departamento financeiro da multinacional, fazendo-se passar pelo diretor-financeiro da corporação, com base no Reino Unido.
Para criar as falsificações, eles se valeram de vídeos e áudios publicamente disponíveis de seus alvos.
Como citamos brevemente, essa técnica de deepfake, impulsionada pela IA, permite criar vídeos e áudios falsos que reproduzem de forma realista a aparência e a voz das pessoas.
Portanto, a IA possibilitou aos criminosos imitar as vozes e imagens dos executivos, persuadindo a vítima a seguir suas instruções para transferir dinheiro para contas bancárias designadas.
Porém, vale ressaltar que os vídeos deepfake foram previamente gravados, sem envolver diálogo ou interação real com o funcionário, o que aumentou a sofisticação e dificultou a detecção do golpe.
A polícia destacou que a chamada de vídeo envolvia múltiplos participantes, todos sendo impostores, exceto a vítima.
O caso traz à tona os desafios emergentes à medida que as inteligências artificiais generativas, como as utilizadas em deepfake, se tornam mais avançadas e acessíveis.
Especialistas alertam para o potencial de desinformação e mau uso dessas tecnologias, ressaltando a importância da conscientização pública para combater tais fraudes.
Até o momento, não existe uma solução de segurança tecnológica capaz de eliminar completamente o problema.
O episódio serve como um lembrete da necessidade de vigilância e medidas preventivas para proteger empresas e indivíduos contra ameaças digitais cada vez mais sofisticadas.