IA consegue reproduzir tudo, MENOS estas partes da anatomia humana
Compreenda por que as ferramentas de inteligência artificial ainda enfrentam dificuldades na reprodução precisa do corpo humano.
As imagens do Papa Francisco com um casaco puffer branco e do ex-presidente Donald Trump preso, criadas por inteligência artificial (IA), surpreenderam muitos, gerando confusão sobre sua veracidade.
No entanto, uma análise mais detalhada revela falhas, especialmente na reprodução de partes do corpo humano, tornando evidentes erros que comprometem a autenticidade de tais criações.
Desafios com mãos, pés e dentes na IA
Imagem de Papa Francisco feita em IA – Imagem: Aos fatos/Reprodução
Apesar do avanço notável na capacidade de gerar imagens hiper-realistas, a reprodução de partes específicas do corpo humano, como mãos, pés e dentes, continua um desafio significativo para as ferramentas de IA.
Essas falhas, em alguns casos, são os únicos indicativos que diferenciam conteúdos falsos de reais.
A explicação para as limitações da IA na representação do corpo humano vai além das capacidades computacionais e envolve desafios históricos enfrentados até por artistas tradicionais.
Estudantes de Artes Visuais, por exemplo, lidam com a complexidade do corpo humano utilizando métodos de observação e análise detalhada antes de iniciar um desenho, conforme destaca Lícius Bossolan, artista visual e professor da Escola de Belas Artes da UFRJ.
Quando a representação do corpo humano migra para o ambiente digital, as dificuldades se multiplicam.
A IA depende fortemente das informações em seus bancos de dados para aprender, e a anatomia complexa das mãos, pés e dentes exige uma variedade de ângulos e detalhes para uma representação precisa.
Diogo Cortiz, professor da PUC-SP, destaca que os dados inseridos nas ferramentas de IA influenciam diretamente a qualidade da reprodução.
Próximos passos: identificação de imagens e discussão ética
A multiplicação de falhas na representação de partes do corpo humano, especialmente mãos, pés e dentes, coloca dificuldades às empresas de IA.
No entanto, especialistas acreditam que superar tais barreiras está muito próximo, possivelmente em questão de meses.
A discussão sobre a identificação de imagens geradas por IA torna-se crucial para evitar a propagação de desinformação.
Com o avanço da tecnologia, surge a necessidade de aprimorar métodos de identificação e ‘tagueamento’ de imagens geradas por IA.
A distinção entre imagens reais e sintéticas será um tópico essencial, e a criação de marcas-d’água invisíveis via criptografia, como o SynthID do Google Cloud, pode ser uma solução, mesmo que ainda enfrente empecilhos significativos.
Apesar de existirem algoritmos de código aberto, como GFPGAN e CodeFormer, focados na otimização de imagens, a integração de marcas-d’água é um ‘jogo de gato e rato’.
O especialista Arthur Igreja destaca que a evolução tecnológica exigirá discussões mais aprofundadas sobre ética na identificação de imagens geradas por IA para prevenir a disseminação de conteúdos falsos.
Em um futuro próximo, espera-se que a IA supere os desafios na reprodução do corpo humano, proporcionando uma representação mais exata e gerando reflexões sobre a ética digital.