Preocupada com segurança, Itália proíbe o uso do ChatGPT; saiba mais

A segurança das informações pessoais no ChatGPT é prioridade na Itália. Por isso, a ferramenta foi proibida.

A decisão da Itália de proibir o ChatGPT foi tomada após uma série de preocupações em relação à privacidade e à segurança dos usuários. Acredita-se que a seja o primeiro país a tomar medidas tão drásticas contra a utilização da ferramenta.

A notícia da interrupção do ChatGPT na Itália se realizou rapidamente pelo mundo, levantando debates sobre a regulação da inteligência artificial e sua possível aplicação ética. Alguns especialistas argumentam que a tecnologia pode ser usada de maneira positiva, auxiliando em áreas como educação, saúde e atendimento ao cliente.

No entanto, outros alertam para o risco de um uso descontrolado e prejudicial à sociedade, já que, nos últimos dias, a utilização desta ferramenta em outro país, possibilitou o vazamento de informações pessoais dos usuários.

O debate em questão salienta a importância de considerar cuidadosamente os benefícios da inteligência artificial, a fim de encontrar um equilíbrio entre inovação tecnológica e proteção do bem-estar humano.

As autoridades italianas têm adotado essa medida cautelosa em relação ao ChatGPT. Porém, embora tenha proibido o uso da tecnologia no país, o governo deixou em aberto a possibilidade de que ela volte a ser usada no futuro, desde que a OpenAI, responsável pelo desenvolvimento do chatGPT, se adeque às regras exigidas pela legislação de proteção de dados da União Europeia.

Essa abordagem se alinha com o compromisso da Itália em proteger a privacidade e a segurança dos usuários, bem como em garantir que a inteligência artificial seja desenvolvida e utilizada de forma ética e responsável.

A legislação europeia de proteção de dados estabelece uma série de diretrizes e obrigações para as empresas que lidam com dados pessoais, incluindo o consentimento explícito e a obrigação de informar sobre como esses dados de usuários são coletados e utilizados.

A lei de proteção de dados

Foi uma investigação garantida pela Lei de Proteção de Dados da União Europeia, (LGPR), que constatou que o site em questão, o ChatGPT, possui inúmeras falhas de segurança que comprometem vários dados sigilosos dos usuários.

A empresa OpenIa está recebendo várias reclamações quanto a este assunto, já que recentemente saiu a notícia de que vários dados, incluindo os de cartão de crédito, foram vazados.

Mesmo que o vazamento de informações tenha sido de uma parcela, consideravelmente pequena de usuários premium, as falhas no sistema do chatboot podem comprometer futuramente as informações de outros assinantes.

A resposta da OpenIA

A empresa detentora do ChatGPT disse que está comprometida com a segurança dos usuários, declarando da seguinte forma: “trabalhamos ativamente para reduzir os dados pessoais no treinamento de nossos sistemas de IA, como o ChatGPT, porque queremos que nossa IA aprenda sobre o mundo, não sobre indivíduos particulares”.

 

você pode gostar também