ChatGPT mentiroso? Radialista processa OpenAI por difamá-lo em seu chatbot
ChatGPT recentemente divulgou informações caluniosas acerca de um radialista, que o processou.
As Inteligências Artificiais (IAs) criadas com base no avanço de conhecimentos tecnológicos e modelos de linguagem são, hoje, muito utilizadas pelo público, inclusive nos ramos comercial e empresarial.
Suas funções possibilitam uma infinidade de ações úteis que evitam grande esforço das pessoas. Porém, nem sempre as informações concedidas pelos robôs são totalmente precisas, o que pode causar uma série de problemas.
O ChatGPT, inteligência artificial da OpenAI, é o mais famoso chatbot da atualidade, sendo amplamente usado como meio interativo de entretenimento ou para processos comerciais.
Alguns ainda usam-no como fonte de informações, embora não seja a melhor utilidade, como dito. Inclusive, recentemente, a empresa foi processada por divulgar uma mentira comprometedora. Entenda melhor a seguir.
OpenAI é processada por radialista após mentira do ChatGPT
Recentemente, pela primeira vez, a empresa foi processada por conta de sua IA, acusada de difamar o radialista Mark Walters, acusando-o de desvio de dinheiro. A informação veio à tona após o jornalista Fred Riehl pedir um resumo sobre um processo que envolvia uma companhia pró-armas dos Estados Unidos, a SAF (Second Amendment Foundation).
Porém, ao fazer isso, o chat entregou uma resposta repleta de inverdades, falando que o radialista teria:
“[…] apropriado indevidamente de fundos para despesas pessoais sem autorização ou reembolso, manipulado registros financeiros e extratos bancários para ocultar suas atividades.”
Contudo, Mark nem mesmo tem relações com a SAF. Ele é apresentador de um programa que tem os mesmos ideais que a fundação, mas seu nome não está no verdadeiro processo. Por isso, Walters processou a OpenAI por difamação.
Por que e como o robô inventou isso?
Esse tipo de atitude recebe o nome de “alucinação” para as IA. Elas ocorrem devido ao fato de o ChatGPT não conseguir identificar a diferença entre realidade e ficção, além de procurar as melhores palavras para completar as sentenças de maneira lógica. Por isso, não se deve ter total confiança nas informações fornecidas pelo chat.
O próprio fundador da OpenAI, Sam Altman, já admitiu esse erro no software. Inclusive, não foi a primeira vez que ocorreu. O político Brian Hood já foi acusado pela IA de corrupção em um caso de suborno envolvendo o banco central australiano. Contudo, Hood foi responsável por delatar o crime, o contrário do informado.
O que pode acontecer à empresa?
Infelizmente, para os afetados, provavelmente o caso pare por aí, pois a OpenAI teria que ser responsabilizada por ter conhecimento da falsidade das informações e ter agido do mesmo modo.
Porém, segundo especialistas, como o professor universitário de direito Eugene Volokh, isso é improvável. Além disso, os envolvidos teriam que provar que as acusações causaram danos em sua reputação.