Google pausa a capacidade do Gemini de gerar imagens de pessoas

A IA foi pega gerando conteúdo problemático, como nazistas racialmente diversos

Resumo

  • O Google está corrigindo problemas com a geração de imagens do Gemini AI, pausando temporariamente a criação de imagens de pessoas.
  • Surgiram discussões sobre imagens históricas imprecisas.
  • A empresa visa manter a diversidade nas imagens, abordando imprecisões históricas para evitar o apagamento de grupos marginalizados.



A IA generativa multimodal Gemini do Google é capaz de criar uma infinidade de resultados, incluindo imagens. Depois que a ferramenta foi flagrada repetidamente criando imagens imprecisas de cenas históricas, o Google decidiu puxar o freio de mão e pausou temporariamente a capacidade do Gemini de criar imagens de pessoas.


Como Google anunciou no X, a empresa está ciente dos problemas com os recursos de geração de imagens da IA ​​e está trabalhando para resolvê-los. Ele afirma: “Enquanto fazemos isso, pausaremos a geração de imagens de pessoas e relançaremos uma versão melhorada em breve”.

A declaração ocorre logo após a controvérsia em torno da criação de imagens históricas imprecisas de Gemini, incluindo conjuntos de imagens representando soldados alemães da era nazista racialmente diversos e senadores dos EUA do século XIX. Sem fazer referência a exemplos ou problemas específicos, a empresa deixou claro num anúncio anterior que tem boas razões para tentar gerar diversos conjuntos de pessoas em circunstâncias normais: “A geração da imagem Al da Gemini gera uma vasta gama de pessoas. E isso geralmente é bom porque pessoas ao redor do mundo o usam. Mas está errando o alvo aqui.”


A controvérsia em torno da aparente tendência de Gemini para os esforços de geração de imagens racialmente diversas parece ser impulsionada, pelo menos em parte, por figuras de direita. Diante das imagens dos soldados nazistas ou dos senadores norte-americanos historicamente incorretos, a discussão girava em torno de Gêmeos supostamente criando também diversas imagens para consultas como “mulher americana” ou “mulher sueca”. Como observa The Verge, em primeiro lugar, nenhuma das pessoas retratadas é real, e nem a América nem a Suécia são habitadas exclusivamente por pessoas de aparências específicas, tornando as imagens geradas tão prováveis ​​e plausíveis como qualquer outra.

Consulte Mais informação

Google Gemini: tudo o que você precisa saber sobre a IA multimodal de última geração do Google

O Google Gemini está aqui, com uma abordagem totalmente nova para IA multimodal: aqui está o que você deve saber.

Com a declaração do Google em mente, fica claro que a empresa está preocupada em corrigir imagens historicamente imprecisas, em vez de remover a diversidade de suas ferramentas de geração de imagens. Afinal, imagens historicamente imprecisas podem acabar alcançando exatamente o oposto do que a abordagem diversificada do Google pretende fazer. Tem o potencial de apagar a injustiça histórica e a sub-representação, sugerindo que os grupos marginalizados não foram realmente marginalizados.