Passou dos limites? Microsoft afirma que nova IA apresenta raciocínio humano
Pesquisadores da empresa fizeram um estudo a partir de testes aplicados ao GPT-4, o mais recente sistema da OpenIA.
O aprimoramento dos sistemas de inteligência artificial tem tido um avanço significativo nos últimos tempos. Softwares como o ChatGPT da OpenIA estão sendo desenvolvidos para melhorar o aprendizado das máquinas e utilizar a tecnologia em diferentes áreas do conhecimento humano.
Apesar de a evolução tecnológica estar em evidência, recentemente pesquisadores da Microsoft ficaram impressionados com a capacidade de raciocínio de um novo sistema de IA, comparando o fato com a mentalidade humana.
Isso se deu a partir de testes realizados com a máquina que revelaram uma surpreendente evolução tecnológica. Porém, os estudiosos incentivaram a discussão de uma pauta muito delicada a ser abordada no meio acadêmico.
Nova IA apresenta indícios de raciocínio humano
A pesquisa que se baseou em testes aplicados ao conhecimento robótico deu origem a um artigo que argumenta sobre o avanço em direção à “inteligência artificial geral” (AGI), que seria uma máquina capaz de pensar como uma pessoa.
Para isso, os pesquisadores pediram que a IA empilhasse de maneira estável um conjunto de objetos aleatórios, sendo eles um livro, um notebook, nove ovos, um prego e uma garrafa.
Surpreendentemente, a máquina revelou uma resposta engenhosa e prática:
“Coloque o laptop em cima dos ovos, com a tela virada para baixo e o teclado virado para cima. O laptop se encaixará perfeitamente nos limites do livro e dos ovos, e sua superfície plana e rígida fornecerá uma plataforma estável para a próxima camada.”
O artigo, cujo título (em tradução livre) é algo como “Centelhas de AGI”, levou junto a afirmação de Peter Lee, líder da pesquisa, que disse ter começado cético, mas que depois seu sentimento se tornou algo parecido com medo.
Isso levou ao questionamento externo sobre o estudo feito com o GPT-4 da OpenIA.
Mas isso realmente é verídico, afinal?
Afirmar que uma tecnologia beira o AGI pode ser o fim da carreira para os cientistas da computação que atuam na academia. Essa consciência artificial é algo tido quase como algo utópico. Por isso, a Google já demitiu um funcionário que alegou algo parecido, por exemplo.
Mesmo assim, parte dos acadêmicos acredita que, na atualidade, as IAs já chegaram a um novo tipo de sistema, respondendo às perguntas de maneira autônoma, mesmo sem terem sido programadas para isso.
Há provas de que estamos no caminho da AGI?
Com o crescente investimento da indústria tecnológica na criação de grandes modelos de linguagem (LLM), como as IAs, as empresas competem para fabricar a mais eficiente das máquinas.
Desse modo, vários experimentos são feitos com o intuito de provar a capacidade dos softwares desenvolvidos. Sébastien Bubeck, autor do artigo da Microsoft, documentou durante diversos meses, seus experimentos com o GPT-4.
Dentre as experiências, a equipe que continha Bubeck e Peter Lee, pediram que a IA desenhasse um unicórnio usando TiKZ, uma linguagem de programação.
A máquina então gerou o código necessário para o desenho. Porém, mesmo após os cientistas excluírem o código de geração do chifre que seria representado, o programa continuou a executar com perfeição o que lhe foi pedido.
Julgamento dos resultados pode estar errado?
Para Alison Gopnik, professora de Psicologia da Universidade da Califórnia, referir-se ao GPT-4 como algo próximo à AGI é uma maneira inadequada de se expressar.
“Quando vemos um sistema ou uma máquina complicada, nós o (a) antropomorfizamos; todo mundo faz isso, gente que está trabalhando no campo e gente que não está.
Mas pensar nisso como uma comparação constante entre IA e humanos — como uma espécie de competição de programa de auditório — não é a maneira certa de encarar o assunto.”
Como uma justificativa para a denominação do artigo, os pesquisadores Lee e Bubeck disseram não conseguir descrever o que haviam observado. Dessa maneira, resolveram utilizar o termo “Centelha de AGI” como forma de fazer os pesquisadores imaginarem sobre o que se tratava.
Além do mais, o estudo publicado parece ser uma maneira de afirmar algo sobre uma tecnologia que não é amplamente conhecida. Por isso, é reforçado que o termo de Centelha de AGI não é totalmente correto, já que o GPT-4 não possui o critério básico de familiarização com a realidade física.
Maarten Sap, professor da Universidade Carnegie Mellon, explica que as empresas tecnológicas usam o espaço dos artigos como um meio de se relacionar com o público. Ademais, há avisos nas publicações que alertam sobre como o artigo não tem uma abordagem padronizada e dentro dos critérios da avaliação científica.
Por fim, é importante destacar que a Microsoft possui uma relação forte com a OpenIA, desenvolvedora do GPT-4. A companhia já investiu cerca de R$ 65 bilhões na desenvolvedora. Então, mesmo que o programa seja um dos mais poderosos do mercado, essa relação pode deixar o julgamento enviesado.