Cloud

O Google disponibiliza assistência ao Gemini LLM para o armazenamento de informações no BigQuery.

A nova versão da BigQuery tornará mais simples a organização de informações para inteligência artificial, incluindo processamento de texto e documentos.

gemini graphic 2
Imagem: stephmcblack/FreePik

O Google está combinando o Gemini 1.0 Pro, um modelo de linguagem grande, com o Vertex AI, sua plataforma de aprendizado de IA e máquina, a fim de auxiliar as empresas a explorar novas funcionalidades dos modelos de linguagem grandes (LLMs), como análise de texto, imagem e vídeo.

A API Gemini, que foi comumente disponibilizada, está disponível para utilização no BigQuery, o armazém de dados do Google, com o objetivo de criar aplicações analíticas que se baseiam em IA.

Segundo Gerrit Kazmaier, gerente geral de análise de dados no Google Cloud, o modelo Gemini 1.0 Pro foi desenvolvido para ampliar a capacidade de entrada e saída e melhorar a qualidade dos resultados em diversas tarefas, como síntese de texto e análise de sentimentos. Agora é possível utilizar o modelo através de declarações SQL simples ou da API DataFrame integrada do BigQuery diretamente no console BigQuery.

A empresa planeja incluir a versão de visão do modelo Gemini Pro em breve.

Adicionalmente, o Google está ampliando a capacidade de processamento de documentos da Vertex AI e integração das APIs de transcrição de fala para texto na BigQuery, com o objetivo de auxiliar as organizações na análise de informações não formatadas, como documentos e arquivos de áudio.

Recentemente, a empresa divulgou a introdução da visualização da pesquisa vetorial BigQuery, que, ao ser combinada com o Vertex AI, possibilita a busca de similaridade vetorial em dados no BigQuery, além de oferecer funcionalidades como geração aumentada de recuperação (RAG), agrupamento de texto e sumarização.

Hyoun Park, analista sênior da Amalgam Insights, considera o suporte RAG como um elemento fundamental para os fornecedores de data warehouse atualmente, comparável a estacas de mesa.

RELACIONADO:  Utilizando a tecnologia Retina da Microsoft para supervisionar redes Kubernetes.

“A nova geração de restauração implica que cada sistema de armazenamento de dados deve ser capaz de acessar informações de fontes externas ao responder a uma pergunta”, explicou Park. “Por exemplo, ao questionar sobre recursos humanos, o sistema também consultaria a base de dados de RH do funcionário para fornecer dados recentes e pertinentes ao contexto da pergunta. A capacidade essencial aqui é ter acesso em tempo real a informações específicas de uma tabela ou fonte de dados quando alguém faz uma pergunta a um sistema de aprendizado de máquina.”

Outras organizações estão seguindo um caminho semelhante. De acordo com Steven Dickens, vice-presidente e líder de práticas do The Futurum Group, empresas tradicionais do setor de armazenamento de dados, como Teradata e Cloudera, estão incorporando capacidades vetoriais, juntamente com concorrentes como Oracle e Elastic.

Texto: Artigo relacionado sobre leitura.

  • Google e Udacity disponibilizam um curso gratuito sobre a API Gemini.
  • JetBrains AI Assistant irá incorporar os modelos de inteligência artificial do Google Gemini AI.
  • Google permite a visualização de 2 milhões de janelas de contexto do Gemini 1.5 Pro.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Verifique também
Close
Back to top button