Por que o Copilot, da Microsoft, preocupa especialistas em IA?

Engenheiro da Microsoft emite alerta explosivo! Descubra as preocupações cruciais que ele levanta sobre segurança e inteligência artificial.

Nos últimos anos, testemunhamos avanços notáveis na inteligência artificial (IA), os quais impulsionaram inovações em diversos setores.

Entretanto, esse progresso também vem acompanhado de sérios desafios em várias frentes.

Uma das preocupações mais expressivas está relacionada à geração de imagens, campo no qual recentemente surgiram questões relacionadas à segurança e à ética das ferramentas de IA, incluindo Copilot Designer, que é da Microsoft.

Alerta de engenheiro da Microsoft

Um exemplo alarmante é a vulnerabilidade de segurança descoberta por Shane Jones, engenheiro da Microsoft, em uma das ferramentas de IA.

Ele identificou uma falha no modelo DALL-E da OpenAI, integrado ao Copilot, que permitia a criação de imagens abusivas e violentas.

Copilot pode se tornar uma ferramenta perigosa – Imagem: Microsoft News/Reprodução

Embora Jones tenha reportado o problema à Microsoft durante três meses, a empresa ainda não tomou medidas para corrigi-lo.

“Os riscos associados ao Copilot Designer são diversos e preocupantes”, menciona Jones. Isso porque a ferramenta pode gerar imagens perigosas, ofensivas e inapropriadas, sem qualquer tipo de alerta para os usuários.

Isso inclui a possibilidade de sexualização de mulheres, viés político, conteúdo impróprio para menores, violação de direitos autorais e propagação de teorias da conspiração.

Denúncias a diversos órgãos

Diante dessas preocupações, Shane Jones agiu, enviando cartas para o Conselho de Administração da Microsoft, legisladores e para a FTC, agência que atende ao consumidor, alertando sobre os riscos do Copilot Designer.

Ele defende a retirada da ferramenta do mercado até que medidas de segurança adequadas sejam implementadas, argumentando que a empresa está expondo os consumidores a sérios riscos ao promover um produto que é potencialmente perigoso.

As possíveis consequências desse impasse são significativas. A Microsoft pode enfrentar multas por não proteger adequadamente os consumidores, sem mencionar sua reputação, que pode ser afetada negativamente.

É provável, ainda, que o desenvolvimento de ferramentas de IA seja mais rigorosamente regulamentado no futuro.

A partir disso, esse caso e vários outros já destacam a importância da transparência por parte das empresas quanto aos riscos associados aos seus produtos de IA.

Os consumidores devem ser informados sobre esses riscos e tomar precauções ao utilizar essas ferramentas.

Afinal, a segurança e a ética devem ser prioridades fundamentais na evolução da inteligência artificial.

você pode gostar também