Passou dos limites? Microsoft afirma que nova IA apresenta raciocínio humano

Pesquisadores da empresa fizeram um estudo a partir de testes aplicados ao GPT-4, o mais recente sistema da OpenIA.

O aprimoramento dos sistemas de inteligência artificial tem tido um avanço significativo nos últimos tempos. Softwares como o ChatGPT da OpenIA estão sendo desenvolvidos para melhorar o aprendizado das máquinas e utilizar a tecnologia em diferentes áreas do conhecimento humano.

Apesar de a evolução tecnológica estar em evidência, recentemente pesquisadores da Microsoft ficaram impressionados com a capacidade de raciocínio de um novo sistema de IA, comparando o fato com a mentalidade humana.

Isso se deu a partir de testes realizados com a máquina que revelaram uma surpreendente evolução tecnológica. Porém, os estudiosos incentivaram a discussão de uma pauta muito delicada a ser abordada no meio acadêmico.

Nova IA apresenta indícios de raciocínio humano

A pesquisa que se baseou em testes aplicados ao conhecimento robótico deu origem a um artigo que argumenta sobre o avanço em direção à “inteligência artificial geral” (AGI), que seria uma máquina capaz de pensar como uma pessoa.

Para isso, os pesquisadores pediram que a IA empilhasse de maneira estável um conjunto de objetos aleatórios, sendo eles um livro, um notebook, nove ovos, um prego e uma garrafa.

Surpreendentemente, a máquina revelou uma resposta engenhosa e prática:

“Coloque o laptop em cima dos ovos, com a tela virada para baixo e o teclado virado para cima. O laptop se encaixará perfeitamente nos limites do livro e dos ovos, e sua superfície plana e rígida fornecerá uma plataforma estável para a próxima camada.”

O artigo, cujo título (em tradução livre) é algo como “Centelhas de AGI”, levou junto a afirmação de Peter Lee, líder da pesquisa, que disse ter começado cético, mas que depois seu sentimento se tornou algo parecido com medo.

Isso levou ao questionamento externo sobre o estudo feito com o GPT-4 da OpenIA.

Mas isso realmente é verídico, afinal?

Afirmar que uma tecnologia beira o AGI pode ser o fim da carreira para os cientistas da computação que atuam na academia. Essa consciência artificial é algo tido quase como algo utópico. Por isso, a Google já demitiu um funcionário que alegou algo parecido, por exemplo.

Mesmo assim, parte dos acadêmicos acredita que, na atualidade, as IAs já chegaram a um novo tipo de sistema, respondendo às perguntas de maneira autônoma, mesmo sem terem sido programadas para isso.

Há provas de que estamos no caminho da AGI?

Estudo da Microsoft afirma que IA se aproxima da mente humana
Foto: jijomathaidesigners/Shutterstock

Com o crescente investimento da indústria tecnológica na criação de grandes modelos de linguagem (LLM), como as IAs, as empresas competem para fabricar a mais eficiente das máquinas.

Desse modo, vários experimentos são feitos com o intuito de provar a capacidade dos softwares desenvolvidos. Sébastien Bubeck, autor do artigo da Microsoft, documentou durante diversos meses, seus experimentos com o GPT-4.

Dentre as experiências, a equipe que continha Bubeck e Peter Lee, pediram que a IA desenhasse um unicórnio usando TiKZ, uma linguagem de programação.

A máquina então gerou o código necessário para o desenho. Porém, mesmo após os cientistas excluírem o código de geração do chifre que seria representado, o programa continuou a executar com perfeição o que lhe foi pedido.

Julgamento dos resultados pode estar errado?

Para Alison Gopnik, professora de Psicologia da Universidade da Califórnia, referir-se ao GPT-4 como algo próximo à AGI é uma maneira inadequada de se expressar.

“Quando vemos um sistema ou uma máquina complicada, nós o (a) antropomorfizamos; todo mundo faz isso, gente que está trabalhando no campo e gente que não está.

Mas pensar nisso como uma comparação constante entre IA e humanos — como uma espécie de competição de programa de auditório — não é a maneira certa de encarar o assunto.”

Como uma justificativa para a denominação do artigo, os pesquisadores Lee e Bubeck disseram não conseguir descrever o que haviam observado. Dessa maneira, resolveram utilizar o termo “Centelha de AGI” como forma de fazer os pesquisadores imaginarem sobre o que se tratava.

Além do mais, o estudo publicado parece ser uma maneira de afirmar algo sobre uma tecnologia que não é amplamente conhecida. Por isso, é reforçado que o termo de Centelha de AGI não é totalmente correto, já que o GPT-4 não possui o critério básico de familiarização com a realidade física.

Maarten Sap, professor da Universidade Carnegie Mellon, explica que as empresas tecnológicas usam o espaço dos artigos como um meio de se relacionar com o público. Ademais, há avisos nas publicações que alertam sobre como o artigo não tem uma abordagem padronizada e dentro dos critérios da avaliação científica.

Por fim, é importante destacar que a Microsoft possui uma relação forte com a OpenIA, desenvolvedora do GPT-4. A companhia já investiu cerca de R$ 65 bilhões na desenvolvedora. Então, mesmo que o programa seja um dos mais poderosos do mercado, essa relação pode deixar o julgamento enviesado.

você pode gostar também