Google amplia conjunto de ferramentas GenAI responsivas.

Novas funcionalidades para desenvolver modelos seguros abrangem a utilização de marca d’água, aprimoramento veloz e depuração rápida, bem como a capacidade de trabalhar com qualquer modelo de linguagem extenso.

O Google melhorou seu conjunto de ferramentas para Inteligência Artificial Generativa Responsável, destinado a criar e avaliar modelos de IA generativa de código aberto. O kit foi expandido com a adição de marca d’água para conteúdo de IA, além de recursos para aprimoramento e depuração rápidos. Essas novas funcionalidades foram desenvolvidas para serem compatíveis com qualquer modelo de linguagem extensa (LLMs), informou o Google.
Anunciadas em 23 de outubro, as novas funcionalidades são compatíveis com os modelos Gemma e Gemini do Google, bem como qualquer outro LLM. Uma das adições inclui a introdução da marca d’água SynthID para texto, que permite aos desenvolvedores de aplicativos de IA marcar e identificar o texto produzido por seu produto de IA generativa. A Synth ID de texto insere marcas d’água digitais diretamente no texto gerado pela inteligência artificial. Esta funcionalidade pode ser acessada através da plataforma Hugging Face e do conjunto de ferramentas de IA Generativa Responsável.
Também merece destaque uma biblioteca chamada Model Alignment, que auxilia os programadores na melhoria de solicitações com o suporte de LLMs. Os desenvolvedores dão feedback sobre como desejam que as saídas do modelo sejam alteradas, seja de forma geral ou com um conjunto de instruções. Em seguida, podem utilizar o Gemini ou um LLM de sua preferência para transformar o feedback em um comando que alinha o comportamento do modelo com as exigências e políticas de conteúdo da aplicação. A biblioteca Model Alignment está disponível no PyPI.
O Reponsible Generative AI Toolkit do Google Cloud oferece uma maneira mais eficaz de implementar a Ferramenta de Interpretação de Aprendizagem (LIT) para depuração rápida. Os desenvolvedores agora têm acesso a um novo contêiner de servidores de modelos da LIT para implantar modelos Hugging Face ou Keras LLM, com suporte para geração, tokenização e pontuação de saliência nas GPUs Cloud Run. Além disso, o Google ampliou a conectividade do aplicativo LIT para modelos auto-afiados ou para Gemini através da API Vertex.
O Google está pedindo opiniões sobre as recentes melhorias feitas no site da Comunidade de Desenvolvedores do Google no Discord.