Em uma das imagens criadas, a IA exibiu soldados negros na Alemanha em 1943, na era nazista. Empresa reconheceu erro e disse que está melhorando as representações de sua tecnologia. Google pausa geração de imagens do Gemini após IA apresentar erros raciais e históricos
Reprodução/X
O Google suspendeu a criação de imagens de pessoas em sua inteligência artificial (IA) Gemini após imprecisões históricas e raciais geradas pela tecnologia.
Rival da OpenAI, dona do ChatGPT, a ferramenta do Google cria imagens, programa e produz tarefas a partir de comandos de usuários.
Nos últimos dias, várias pessoas que testaram a IA identificam que as ilustrações estavam equivocadas e publicaram esses retornos nas redes sociais.
Em uma postagem no X (ex-Twitter), o Google reconheceu que o Gemini “apresenta imprecisões em algumas representações históricas” e que está trabalhando para corrigir o problema (leia a nota ao final da reportagem).
Em um dos erros identificados, um usuário pede para que o Gemini gere imagens de soldados alemães em 1943, na era nazista. A tecnologia, então, retornou com fotos de militares negros (veja abaixo).
Initial plugin text
A IA também gerou imagens de pessoas não brancas quando foi solicitada foto dos Pais Fundadores dos Estados Unidos (Founding Fathers), que, na verdade, são todos homens brancos (veja abaixo).
Initial plugin text
O que é o Gemini?
O Gemini é um modelo de IA tratado pela empresa como o sistema mais poderoso já criado por sua equipe. Ele funcionava como o “motor” do Bard (concorrente do ChatGPT). Mas, no início deste mês, a companhia decidiu “matar” o nome Bard para adotar de vez o Gemini.
Segundo o Google, desde o início, o Gemini foi pensado para ser uma ferramenta “multimodal”, podendo trabalhar com diferentes tipos de informação, como texto, áudio, códigos, imagem e vídeo.
Neste mês, a empresa comunicou que estava liberando o recurso de geração de imagens dentro do Gemini.
A gigante da tecnologia afirma que, assim como toda IA, o Gemini está sujeito ao problema de alucinação, um erro que faz a resposta de um robô incluir informações incorretas, tendenciosas ou sem sentido.
No entanto, o Gemini é capaz de fazer as melhores avaliações de segurança de uma IA já criada por sua equipe, dizem. O objetivo é que ela seja capaz de evitar conteúdo violento ou estereotipado, por exemplo.
Desde o lançamento do ChatGPT, em novembro de 2022, o Google tem se esforçado para produzir um software de IA que rivalize com a solução da OpenAI, que é apoiada pela Microsoft.
O que diz o Google:
“Estamos cientes de que Gemini apresenta imprecisões em algumas representações históricas de geração de imagens. Aqui está nossa declaração:
Estamos trabalhando para melhorar esse tipo de representação imediatamente. A geração de imagens de IA do Gemini gera uma ampla gama de pessoas. E isso geralmente é bom porque pessoas ao redor do mundo o usam. Mas está errando o alvo aqui.”
Veja também:
Robô que faz vídeo com inteligência artificial comete gafes
Robô que faz vídeo com inteligência artificial comete gafes
Como funcionam os robôs que criam imagens novas em segundos
Como funcionam os robôs que criam imagens novas em segundos
Na manhã de sábado, 12 de outubro, dia de Nossa Senhora Aparecida, Padroeira do Brasil,…
Certificado lista destinos em áreas costeiras que tiveram compromisso com a preservação ambiental e o…
Gisèle Pelicot abriu mão do anonimato para tornar público o julgamento de seu ex-marido e…
"Embora 99,999% dos usuários do Telegram não tenham nada a ver com crimes, os 0,001%…
Mesmo com o imposto de 100% sobre o valor dos veículos americanos, os carros elétricos…
A medida tem como objetivo garantir o direito ao voto para o eleitor. A restrição…