Cloud

Seis pontos-chave do evento Google Cloud Next ’24.

A inteligência artificial generativa foi o foco principal durante o evento Google Cloud Next ’24, com o Google apresentando novas funcionalidades, atualizações de software para aplicações de IA, melhorias para LLMs e assistentes baseados em IA generativa em sua plataforma de aprendizado de máquina, o Vertex AI.

Google Cloud logo on building
Imagem: stephmcblack/iStock

Não seria necessário usar um modelo de linguagem de grande escala com bilhões de parâmetros para antecipar que o foco principal da conferência do Google Cloud Next deste ano seria a inteligência artificial generativa. Provavelmente, esse será o tema principal do ano para a maioria dos desenvolvedores de software corporativo.

Durante o evento, o Google apresentou diversas melhorias em sua plataforma de computação em nuvem para facilitar o uso de LLMs, e incluiu assistentes baseados em inteligência artificial generativa em várias de suas soluções. Abaixo estão seis pontos principais destacados na conferência.

A inteligência artificial requer apoio especializado em termos de infraestrutura para lidar com suas cargas de trabalho.

O Google anunciou várias melhorias em sua infraestrutura de nuvem para acomodar cargas de trabalho de inteligência artificial. Uma das novidades é a atualização do seu módulo de acelerador TPU para o TPU v5p, que agora inclui suporte para o Google Kubernetes Engine (GKE) e multi-host servindo no GKE. Essas atualizações visam ajudar as empresas a otimizar seus gastos com nuvem.

Adicionalmente, por meio de uma parceria ampliada com a Nvidia, o Google está lançando a máquina virtual A3 Mega (VM) em sua plataforma de nuvem, que é impulsionada por GPUs Nvidia H100.

Outras melhorias recentes abrangem diversas otimizações, com destaque para o armazenamento em cache, nos produtos da empresa. Além disso, essas atualizações trazem um novo recurso de gerenciamento de recursos e programação de tarefas para cargas de trabalho de inteligência artificial, denominado Agendador de Cargas de Trabalho Dinâmicas.

Inteligência artificial generativa pode ser útil para auxiliar na programação em dupla…

Entretanto, a colaboração em programação com a ferramenta de codificação de inteligência artificial do Google não será uma parceria. O Google alterou o nome de sua IA Duet para desenvolvedores, chamando-a agora de Assistente de Código Gemini para se alinhar com a nova marca de seu LLM mais recente.

RELACIONADO:  Os dados não estão mais principalmente armazenados na nuvem de forma centralizada em termos de importância?

O Gemini Code Assist, agora com um novo nome, apresenta novas funcionalidades inspiradas no modelo Gemini 1.5 Pro. Oferecendo recursos como conclusão de código, geração de código e chat, ele é compatível com o Google Cloud Console e pode ser integrado aos populares editores de código Visual Studio Code e JetBrains. Além disso, suporta a base de código de empresas por meio de plataformas como GitHub, GitLab, Bitbucket e diversos repositórios.

Novas melhorias e funcionalidades foram incorporadas ao Gemini Code Assist, como a compreensão total da estrutura do código, a possibilidade de personalização e melhorias para o ambiente de integração com parceiros, visando aprimorar sua eficácia.

Com o objetivo de melhorar a eficácia do código gerado, a empresa está ampliando a rede de parceiros do Gemini Code Assist incluindo empresas como Datadog, Datastax, Elastic, HashiCorp, Neo4j, Pinecone, Redis, Singlestore, Synk e Stack Overflow.

… e com a administração de aplicações e atividades na nuvem.

O provedor de serviços em nuvem implementou a Gemini Cloud Assist, um assistente baseado em inteligência artificial que tem o propósito de auxiliar as equipes empresariais na administração de aplicativos e redes no Google Cloud.

O Gemini Cloud Assist pode ser utilizado por meio de um chat na plataforma do Google Cloud, sendo impulsionado pelo modelo de linguagem exclusivo do Google, Gemini.

As organizações têm a opção de utilizar o Gemini Cloud Assist para destacar a importância da economia de custos, do desempenho ou da alta disponibilidade. Através da interpretação de dados em linguagem natural fornecidos por equipes empresariais, o Gemini Cloud Assist identifica áreas de melhoria e sugere maneiras de atingir esses objetivos. Além disso, ele pode ser integrado diretamente nas interfaces usadas pelas equipes empresariais para gerenciar diversos produtos e cargas de trabalho na nuvem.

Além de controlar o desenvolvimento de aplicativos, o Gemini Cloud Assist pode ser empregado pelas organizações para fornecer suporte inteligente em diversas atividades de rede, como planejamento, operações e aprimoramento.

O Google Cloud agora inclui o assistente de IA Gemini em suas opções de operações de segurança. Este assistente oferece sugestões para o gerenciamento de identidade e acesso, assim como insights importantes, como dicas para computação confidencial, visando diminuir os possíveis riscos.

RELACIONADO:  A plataforma Microsoft .NET Aspire está expandindo suas integrações por meio de testes.

Todo indivíduo necessita de um agente construtor.

Para concorrer com propostas similares da Microsoft e da AWS, o Google Cloud introduziu uma nova ferramenta de inteligência artificial generativa para a criação de chatbots, chamada de Vertex AI Agent Builder. Essa ferramenta, que não requer codificação, une o Vertex AI Search com os produtos de conversação da empresa, oferecendo uma gama de recursos para desenvolver agentes virtuais, baseados na tecnologia Gemini LLMs do Google.

Sua principal vantagem é o sistema RAG integrado, Vertex AI Search, que pode treinar os agentes de forma mais eficiente do que os métodos convencionais. Suas APIs RAG embutidas facilitam aos desenvolvedores a realização rápida de verificações em dados de treinamento.

Além disso, os programadores podem escolher produzir resultados de modelo no Google Search para aprimorar ainda mais as respostas.

Outras alterações no Vertex AI incluem melhorias em modelos de linguagem existentes e ampliação dos recursos de MLops.

As novidades do LLM trazem uma versão pública do modelo Gemini 1.5 Pro, que suporta até 1 milhão de tokens. Além disso, o Gemini 1.5 Pro no Vertex AI terá a capacidade de processar fluxos de áudio, incluindo fala e áudio de vídeos.

O provedor de serviços em nuvem lançou novidades para a família Imagen 2 de LLMs, como recursos de edição de imagens e a capacidade de criar vídeos curtos a partir de texto. Além disso, foram adicionadas atualizações para o Vertex AI, incluindo o CodeGemma, um novo modelo mais leve da família Gemma.

A melhoria das ferramentas de MLops agora inclui o novo Vertex AI Prompt Management, projetado para auxiliar grupos empresariais a testar, transferir e monitorar prompts juntamente com os parâmetros. Além disso, outras funcionalidades aprimoradas abrangem a Avaliação Rápida, que permite verificar o desempenho do modelo durante o processo de design iterativo.

Administradores de bancos de dados também necessitam do auxílio da inteligência artificial.

O Google Cloud incorporou funcionalidades impulsionadas por seu modelo de linguagem proprietário, Gemini, em seus serviços de banco de dados, como Bigtable, Spanner, Memorystore para Redis, Firestore, CloudSQL para MySQL e AlloyDB para PostgreSQL.

RELACIONADO:  Os arquitetos da nuvem estão inclinados?

Os recursos fornecidos pelo Gemini abrangem a criação de consultas SQL e a utilização de inteligência artificial para facilitar a administração e transferência de bancos de dados.

Para auxiliar na gestão mais eficiente dos bancos de dados, a empresa de serviços em nuvem implementou uma nova funcionalidade denominada Centro de Banco de Dados. Isso possibilitará aos administradores controlar diversos bancos de dados a partir de um único painel.

O Google ampliou o alcance do Gemini para incluir o seu Serviço de Migração de Banco de Dados, que antes contava com suporte da Duet AI.

A empresa afirmou que as melhorias na Gemini resultarão em um serviço aprimorado, destacando que a Gemini tem a capacidade de facilitar a conversão de códigos de banco de dados, como procedimentos armazenados e funções, para o PostgreSQL.

Adicionalmente, a migração de banco de dados impulsionada pelo Gemini também se dedica a esclarecer a conversão do código por meio de uma comparação direta dos diferentes dialetos, acompanhada de detalhes explicativos do código e sugestões.

No âmbito dessas atualizações, o provedor de serviços em nuvem implementou novas funcionalidades de inteligência artificial generativa para o AlloyDB. Essas novas funcionalidades possibilitam que aplicações baseadas em IA generativa acessem dados por meio de linguagem natural e introduziram um novo modelo de visualização de banco de dados.

O Google está dando suporte à inteligência artificial generativa de código aberto.

No Google Cloud Next 24, o Google apresentou três iniciativas de código aberto voltadas para o desenvolvimento e implementação de modelos de inteligência artificial generativos.

As mais recentes iniciativas de código aberto incluem MaxDiffusion, JetStream e Optimum-TPU.

A companhia lançou recentemente novos modelos LLM no seu projeto MaxText, desenvolvidos pela JAX. Os modelos LLM adicionados ao MaxText são Gemma, GPT-3, Llama 2 e Mistral, os quais funcionam em ambas as GPUs da Google Cloud e Nvidia.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Verifique também
Close
Back to top button