A Microsoft lança um pequeno modelo de IA perfeito para nossos telefones

Resumo

  • O novo modelo Phi-3 Mini AI da Microsoft é eficiente, com capacidades semelhantes ao GPT-3.5, mas em tamanho menor, perfeito para dispositivos portáteis.
  • Com 3,8 bilhões de parâmetros, o Phi-3 Mini faz parte de uma série de modelos leves de IA que a Microsoft está lançando para melhor portabilidade e desempenho.
  • O modelo de IA pode ser executado localmente em hardware de baixo consumo, economizando energia e custos em comparação com o processamento baseado em nuvem.



Atualmente, todas as grandes empresas de tecnologia querem sua fatia do bolo da IA. O Google tem o Gemini, o OpenAI tem o ChatGPT e a Samsung tem o Galaxy AI – mas isso é apenas a ponta do iceberg. A Microsoft estava no início do cenário da IA ​​generativa, fornecendo capital inicial vital nos empreendimentos da OpenAI, e agora está começando a colher os benefícios de sua previsão. Depois de lançar seu aplicativo Copilot para Android desenvolvido com ChatGPT, a empresa está retirando um modelo de IA muito menor que também pode encontrar um lar nos telefones.


Relacionado

Copilot AI da Microsoft agora pode substituir o Google Assistant no Android

Mas você pode querer esperar por enquanto

The Verge relata que a Microsoft lançou o primeiro de três modelos leves de IA, Phi-3 Mini. O modelo mais recente apresenta 3,8 bilhões de parâmetros e está atualmente disponível no Ollama, Hugging Face e Azure. A empresa planeja lançar modelos adicionais nesta série chamados Phi-3 Small (7 bilhões de parâmetros) e Phi-3 Medium (14 bilhões de parâmetros), com a desvantagem de que mais parâmetros significam instruções mais complexas, enquanto menos significam melhor portabilidade. . Atualmente, o GPT-4 tem mais de um trilhão de parâmetros, e o modelo Llama 3 de pequena escala da Meta vem com 8 bilhões.


Pequeno, mas poderoso

De acordo com o vice-presidente da plataforma Microsoft Azure AI, Eric Boyd, o Phi-3 Mini é tão eficiente quanto modelos como o GPT-3.5, “apenas em um formato menor”. Por ser um modelo compacto de IA, deve ser mais barato e também oferecer melhor desempenho em dispositivos como laptops e telefones. Para melhorar seu desempenho, um LLM (modelo de linguagem grande) criou um livro infantil a partir de uma lista de 3.000 palavras para ensinar Phi-3, que já é uma versão aprimorada por ser melhor em codificação e raciocínio.


A Microsoft não comentou o assunto, mas talvez isso possa ser algo que possa acompanhar o Llama 3 8B da Meta, que está alcançando o GPT-4 em algumas áreas. Quanto mais poderoso for um modelo de IA, mais poder e energia ele utiliza. Portanto, o fato de o Phi-3 Mini ser menor que os concorrentes é uma vantagem, pois é capaz de rodar localmente em hardware de baixo consumo de energia, em vez de descarregar suas tarefas de computação em caros centros de processamento baseados em nuvem.