O Google se junta à guerra contra a alucinação da IA ​​com seu enorme gráfico de conhecimento Data Commons

Principais conclusões

  • Grandes modelos de linguagem como o GPT-3 podem retornar respostas incorretas devido a alucinações.
  • O DataGemma do Google usa o Data Commons para melhorar a precisão do modelo de linguagem.
  • A DataGemma emprega estratégias RIG e RAG para combater mentiras de IA.




Grandes modelos de linguagem são essenciais para os recursos de IA de hoje, sejam eles envoltos em outras ferramentas ou funcionando simplesmente como chatbots testados por Turing. Como modelos preditivos (e não seres inteligentes), eles não conseguem raciocinar e não estão particularmente vinculados à verdade. Isso faz com que os LLMs retornem respostas incorretas e praticamente inventadas, chamadas de alucinação. É um dos maiores obstáculos a serem superados na busca por uma saída de linguagem verdadeiramente humana.


Como líder mundial em coleta e catalogação de dados, o Google pode alimentar LLMs com dados precisos melhor do que ninguém. Para esse fim, o Google acaba de revelar um conjunto de modelos abertos, chamado DataGemma, projetado para melhorar as habilidades dos LLMs de discernir a verdade da ficção.


Quando palavras que parecem certas acabam sendo certas

Imitando a razão humana de forma mais eficaz do que nunca

Uma foto de um apresentador no palco apresentando o processador de computação em nuvem TPUv5 do Google

Fonte: Google

O Data Commons, o vasto e espantoso gráfico de conhecimento do Google, é sua mais nova arma contra a imprecisão generalizada do LLM. Um gráfico de conhecimento não é apenas uma lista de fatos, mas uma rede abrangente de dados, incluindo relacionamentos entre os muitos pontos e como eles interagem. Aproveitar fatos interconectados com instruções de alta utilidade é uma maneira eficaz de refinar modelos de linguagem. Agora, o Data Commons é esse dado, e o DataGemma, esse conjunto de algoritmos.


O DataGemma emprega duas estratégias principais para combater mentiras de IA: Retrieval-Interleaved Generation e Retrieval-Augmented Generation. Usando RIG, um LLM recebe um prompt, gera uma resposta provável e, em seguida, verifica essa resposta em um banco de dados de fatos e estatísticas verificados. O RIG restringe parcialmente a tomada de decisão de um modelo às probabilidades nas quais ele foi originalmente treinado.

No RAG, um modelo de linguagem primeiro reúne dados relevantes de seu gráfico de conhecimento atribuído e avalia esse conjunto de dados para uma resposta. Isso permite que os engenheiros façam a curadoria contínua do conjunto de dados disponível do modelo, em vez de depender dos dados de treinamento iniciais. A postagem recente do blog do Google faz um excelente trabalho em torná-los o mais confusos possível, mas conceitualmente, eles não são muito complicados.


O que torna o DataGemma tão especial?

Principalmente o fato de usar recursos do GoogleUma imagem do interior do conjunto de computação em nuvem TPU do Google

RIG e RAG não são novos, e vários modelos de IA usam um ou ambos de algumas maneiras. A diferença é que o DataGemma é operado por um dos maiores acumuladores de dados de todos os tempos. O Google está apenas começando a abordagem combinada de RIG e RAG para navegar no gráfico Data Commons disponível publicamente. Mas está comprometido em compartilhar sua pesquisa para beneficiar a indústria de aprendizado de máquina como um todo, oferecendo acesso gradual conforme o trabalho avança.

Nenhum outro grupo pode competir com a combinação de poder de processamento, armazenamento e gerenciamento de dados e recursos de engenharia do Google. Então, esse empreendimento massivo pode fazer uma grande diferença na precisão do LLM daqui para frente. Quer você pense que a IA é a salvadora da humanidade ou um bot de atendimento ao cliente superestimado (na verdade, está em algum lugar no meio), respostas mais verdadeiras do LLM só podem ser benéficas.

Visite a postagem de pesquisa do DataGemma do Google para obter explicações mais detalhadas sobre RIG e RAG.