Falar com o videogame? NVidia revela o futuro dos jogos com uso de IA para interação
Com uso de diversas IAs diferentes, a empresa mostrou como um jogador pode se comunicar com os personagens de um jogo.
A inteligência artificial tem mudado a maneira como produzimos novos conteúdos e tecnologias em diversas áreas. Atualmente, ela já pode ser usada de muitas maneiras, seja para entretenimento ou para trabalho, como transcrevendo textos e criando imagens.
Por isso, as IAs muitas vezes são incorporadas a programas e aplicações visando o aprimoramento da experiência do usuário. Quando achamos que as utilizações foram esgotadas, a indústria nos impressiona mais uma vez ao mostrar um novo caminho para aplicação de IA em videogames.
NVidia revela o próximo passo na evolução dos videogames
Durante o Computex 2023, evento de tecnologia da informação realizado em Taipei, Taiwan, o CEO da NVidia, Jensen Huang, simplesmente revelou um novo salto tecnológico ao mostrar o que nos espera na evolução do mundo dos jogos. O executivo demonstrou como o uso de IA pode aumentar a interação entre jogo e jogador.
Na demonstração, Huang apresentou um vídeo criado pela empresa onde um personagem jogável em primeira pessoa é renderizado em uma loja de ramen. Ainda no clipe, é mostrado que o jogador pode interagir com o NPC atendente através de um comando de voz.
Embora a conversa apresentada seja consideravelmente rasa no quesito interação, a tecnologia foi apresentada como “uma espiada no futuro dos jogos” e realmente impressionou pela boa harmonia entre o game e o uso desses softwares.
Ademais, Jensen afirmou que a tecnologia de interação e geração de respostas pode ser usada em mais de um personagem ao mesmo tempo, criando até conversas paralelas entre eles, mas isso ainda não foi testado.
Como essa ferramenta funciona e o que o anúncio oferece?
O recurso faz com que os personagens interajam com o gamer usando o NVidia ACE, ferramenta de bate-papo com machine learning. Além disso, ele pode ser usado de maneira local ou na nuvem.
O mais impressionante é que toda a renderização do cenário é feita pelo LLM (modelo de linguagem grande) Unreal Engine 5. Outra característica é que são utilizadas as IAs River para a transcrição de texto da ACE em áudio, bem como ray tracing (traçado de raios) para aumentar o realismo da cena.
E parece que tudo deu certo, pois as imagens são incríveis e super trabalhadas. Ainda há um diálogo concreto com uma história, contexto e sentido.
Confira o vídeo de demonstração:
Por fim, espera-se que os próximos videogames possam utilizar essas ferramentas, mas ainda não é nada certo. Mesmo assim, os jogos “Fort Solis” e “Stalker 2 Heart of Chernobyl” já vão contar com o recurso de expressões de NPCs baseados na fala, o Omniverse Audio2Face.