Quase uma semana após o lançamento da última iteração de seus modelos Gemini, o Google anunciou hoje o lançamento do Gemma, uma nova família de modelos leves e abertos. Começando com Gemma 2B e Gemma 7Besses novos modelos foram “inspirados no Gemini” e estão disponíveis para uso comercial e de pesquisa.

O Google não nos forneceu um documento detalhado sobre o desempenho desses modelos em relação a modelos semelhantes de Meta e Mistral, por exemplo, e apenas observou que eles são “de última geração”. A empresa observou que esses são modelos densos apenas de decodificadores, que é a mesma arquitetura usada para seus modelos Gemini (e seus modelos PaLM anteriores) e que veremos os benchmarks ainda hoje Tabela de classificação do Hugging Face.

Para começar a usar o Gemma, os desenvolvedores podem obter acesso a notebooks Colab e Kaggle prontos para uso, bem como integrações com Hugging Face, MaxText e NeMo da Nvidia. Depois de pré-treinados e ajustados, esses modelos podem ser executados em qualquer lugar.

Embora o Google destaque que esses são modelos abertos, é importante notar que eles não são de código aberto. Na verdade, numa coletiva de imprensa antes do anúncio de hoje, Janine Banks, do Google, enfatizou o compromisso da empresa com o código aberto, mas também observou que o Google é muito intencional na forma como se refere aos modelos Gemma.

“(Os modelos abertos) tornaram-se bastante difundidos agora na indústria”, disse Banks. “E muitas vezes se refere a modelos de peso aberto, onde há amplo acesso para desenvolvedores e pesquisadores personalizarem e ajustarem modelos, mas, ao mesmo tempo, os termos de uso – coisas como redistribuição, bem como propriedade das variantes que são desenvolvidos – variam com base nos termos de uso específicos do próprio modelo. E assim vemos alguma diferença entre o que tradicionalmente chamaríamos de código aberto e decidimos que fazia mais sentido nos referirmos aos nossos modelos Gemma como modelos abertos.”

Isso significa que os desenvolvedores podem usar o modelo para inferência e ajustá-los à vontade, e a equipe do Google argumenta que, embora esses tamanhos de modelo sejam adequados para muitos casos de uso.

“A qualidade da geração aumentou significativamente no ano passado”, disse o diretor de gerenciamento de produtos do Google DeepMind, Tris Warkentin. “coisas que anteriormente seriam da responsabilidade de modelos extremamente grandes agora são possíveis com modelos menores de última geração. Isso abre maneiras completamente novas de desenvolver aplicativos de IA que nos entusiasmam bastante, incluindo a capacidade de executar inferências e fazer ajustes no desktop ou laptop do desenvolvedor local com sua GPU RTX ou em um único host no GCP com Cloud TPUs, também .”

Isso também se aplica aos modelos abertos dos concorrentes do Google neste espaço, então teremos que ver como os modelos Gemma funcionam em cenários do mundo real.

Além dos novos modelos, o Google também está lançando um novo kit de ferramentas de IA generativa responsável para fornecer “orientação e ferramentas essenciais para a criação de aplicativos de IA mais seguros com Gemma”, bem como uma ferramenta de depuração.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *