Adeus, privacidade! É melhor pensar 2 vezes antes de pedir ao ChatGPT para recriar suas fotos
Exploramos os riscos e preocupações ao utilizar inteligência artificial para recriar fotos pessoais, com destaque para as implicações de privacidade e segurança.
A tecnologia de inteligência artificial (IA) é fascinante, mas também traz à tona desafios significativos de privacidade. As ferramentas que transformam fotos podem ser tentadoras; contudo, o uso inadequado de dados visuais sensíveis é um risco real.
Especialistas alertam sobre a necessidade de cautela ao compartilhar imagens pessoais com plataformas de IA. Eles destacam que o envio de fotos a plataformas de IA pode resultar na perda do controle dos dados.
Esse uso não consentido para treinar modelos de IA ou criar deepfakes é um dos principais perigos. Isso ocorre porque a regulamentação ainda é incipiente e o usuário frequentemente desconhece os reais termos de uso das plataformas.
Termos ocultos das plataformas de IA
O problema central com a inteligência artificial está nos termos de uso. Muitas plataformas permitem o uso e reaproveitamento das imagens, frequentemente sem o conhecimento dos usuários.
Isso pode resultar em exposição comercial ou vazamento de dados sensíveis, como rostos ou ambientes pessoais. Para se proteger, é essencial escolher plataformas com políticas claras, respeitando regulamentações como a LGPD.
Configurações de privacidade podem ser ajustadas, mas o envio de imagens sensíveis continua a representar um risco significativo. A atenção aos termos e à rastreabilidade das informações é crucial. Nenhuma IA é completamente neutra ou isolada.
(Foto: iStock)
ChatGPT e o uso de imagens
O ChatGPT da OpenAI é uma plataforma popular; no entanto, o envio de imagens pode ser preocupante. As imagens enviadas podem ser utilizadas para treinar modelos, a menos que o usuário desative essa função nas configurações de privacidade.
A OpenAI oferece um modo de chat temporário e versões corporativas que não utilizam dados para treinamento.
Experiências concretas com a IA
Gigi Grandin, especialista em marketing, compartilhou uma experiência que ilustra os perigos do uso de IA para recriar fotos.
Em uma tentativa de melhorar a imagem de uma revista, a ferramenta de IA substituiu sua imagem por um homem fictício. Gigi viu nesta transformação um reflexo dos estereótipos sociais incorporados nos algoritmos.
Os algoritmos, ao serem treinados com dados massivos, podem perpetuar e amplificar esses estereótipos. Neste caso, a substituição por um homem fictício levanta questões sobre o futuro que estamos construindo, onde mulheres reais podem ser apagadas por máquinas que reproduzem preconceitos.
Portanto, a exclusão, quando automatizada, corre o risco de se tornar a norma. É essencial que avancemos na compreensão e regulamentação dessas tecnologias para que sejam utilizadas de maneira ética e responsável, respeitando a diversidade e os direitos individuais.