GPT-4o dá à OpenAI um impulso multimodal em sua corrida contra o Google Gemini

Resumo

  • ChatGPT by OpenAI está mudando o cenário da IA, incentivando o Google a inovar mais rapidamente para acompanhar a concorrência.
  • O novo modelo GPT-4o possui habilidades aprimoradas na interpretação de vários tipos de informações e está disponível para usuários gratuitos com algumas limitações.
  • Os avanços da OpenAI estão forçando o Google a intensificar seu jogo, sinalizando uma corrida competitiva rumo ao domínio da IA.



Mais do que qualquer outro produto, o ChatGPT é responsável pela revolução da IA ​​que estamos atravessando atualmente. A sofisticação do grande modelo de linguagem da OpenAI era diferente de tudo que o mundo já tinha visto antes, forçando o Google, uma das maiores empresas de tecnologia do mundo, a tentar se atualizar. Agora, apenas 18 meses depois que o ChatGPT mudou a forma como pensamos sobre inteligência artificial, a OpenAI lançou uma de suas maiores atualizações até o momento e ainda está fazendo o Google jogar se atualizar.


Relacionado

Melhores Chromebooks em 2024

Os Chromebooks vêm em todos os formatos e tamanhos (de 10 a 17 polegadas, do econômico ao premium, laptop ou tablet), e nós ajudaremos a escolher o seu próximo!


O que há no novo modelo

Em uma transmissão ao vivo hoje cedo, a OpenAI anunciou o GPT-4o (o “o” significa “omni”), seu LLM mais avançado até agora. De acordo com a OpenAI, o GPT-4o é mais rápido que os modelos anteriores e é melhor na interpretação de informações escritas, de áudio e visuais; basicamente tudo o que você deseja de uma atualização do chatbot AI. Melhor ainda, está trazendo esses recursos para usuários de nível gratuito (embora com alguns limites) e desbloqueando outros recursos que antes eram apenas para usuários pagos. Tudo isso já está em andamento, então verifique seu aplicativo ou faça login no seu navegador para ver se você pode brincar com as novas novidades.


OpenAI mostra muito do que o novo modelo pode fazer em uma postagem de blog em seu site. A primeira coisa que me impressionou é que o ChatGPT agora pode rir de forma convincente o suficiente para quase escapar do vale misterioso e, dadas algumas de suas novas habilidades, espero ver um aumento na adoção (assumindo que isso não seja um grande golpe de marketing). O GPT-4o parece ser muito melhor na interpretação de informações visuais, então a OpenAI diz que pode reconhecer qual esporte você está assistindo na TV e explicar as regras para você.

O GPT-4o também deve ser muito melhor na compreensão de entradas de voz. Com seus outros modelos, a entrada de voz é convertida em texto, passada para GPT-3.5/4.0 e, por fim, a resposta é convertida novamente em áudio. Em contraste, o novo modelo foi treinado de forma mais holística, com texto, áudio e imagens sendo processados ​​pela mesma rede neural, o que, em teoria, deveria permitir que o modelo detectasse com quantos falantes está interagindo e seu tom.


Relacionado

As melhores extensões ChatGPT que você deve experimentar agora

Só não pergunte como ligar a Skynet

Se você é desenvolvedor, OpenAI tem ainda mais novidades. A API GPT-4o já está disponível para texto e voz. Comparado ao GPT-4 Turbo, o novo modelo custa metade do preço, é duas vezes mais rápido e tem um limite de taxa cinco vezes maior. Se você quiser brincar com as APIs de áudio e vídeo, OpenAI diz que você terá que esperar um pouco mais e estar em sua pequena lista de desenvolvedores confiáveis.

E se você é como eu, ainda usa o nível gratuito, o O lançamento do GPT-4o já começou, embora eu ainda não tenha visto. Ao usar o GPT-4o, os usuários gratuitos poderão acessar respostas da web, conversar sobre fotos, fazer upload de arquivos e acessar ferramentas de análise de dados de nível empresarial.

Agora é a vez do Google

Todas essas informações caíram menos de uma hora depois O Google visualizou alguns muito recursos semelhantes para Gemini antes do evento Google I/O de amanhã. Caso houvesse alguma dúvida, a OpenAI deixou claro que sua corrida armamentista com o Google está viva e bem.