Cloud

O Google disponibiliza assistência ao Gemini LLM para o armazenamento de informações no BigQuery.

A nova versão da BigQuery tornará mais simples a organização de informações para inteligência artificial, incluindo processamento de texto e documentos.

gemini graphic 2
Imagem: stephmcblack/FreePik

O Google está combinando o Gemini 1.0 Pro, um modelo de linguagem grande, com o Vertex AI, sua plataforma de aprendizado de IA e máquina, a fim de auxiliar as empresas a explorar novas funcionalidades dos modelos de linguagem grandes (LLMs), como análise de texto, imagem e vídeo.

A API Gemini, que foi comumente disponibilizada, está disponível para utilização no BigQuery, o armazém de dados do Google, com o objetivo de criar aplicações analíticas que se baseiam em IA.

Segundo Gerrit Kazmaier, gerente geral de análise de dados no Google Cloud, o modelo Gemini 1.0 Pro foi desenvolvido para ampliar a capacidade de entrada e saída e melhorar a qualidade dos resultados em diversas tarefas, como síntese de texto e análise de sentimentos. Agora é possível utilizar o modelo através de declarações SQL simples ou da API DataFrame integrada do BigQuery diretamente no console BigQuery.

A empresa planeja incluir a versão de visão do modelo Gemini Pro em breve.

Adicionalmente, o Google está ampliando a capacidade de processamento de documentos da Vertex AI e integração das APIs de transcrição de fala para texto na BigQuery, com o objetivo de auxiliar as organizações na análise de informações não formatadas, como documentos e arquivos de áudio.

Recentemente, a empresa divulgou a introdução da visualização da pesquisa vetorial BigQuery, que, ao ser combinada com o Vertex AI, possibilita a busca de similaridade vetorial em dados no BigQuery, além de oferecer funcionalidades como geração aumentada de recuperação (RAG), agrupamento de texto e sumarização.

Hyoun Park, analista sênior da Amalgam Insights, considera o suporte RAG como um elemento fundamental para os fornecedores de data warehouse atualmente, comparável a estacas de mesa.

RELACIONADO:  Selecionando a GPU adequada para inteligência artificial, machine learning e outras aplicações.

“A nova geração de restauração implica que cada sistema de armazenamento de dados deve ser capaz de acessar informações de fontes externas ao responder a uma pergunta”, explicou Park. “Por exemplo, ao questionar sobre recursos humanos, o sistema também consultaria a base de dados de RH do funcionário para fornecer dados recentes e pertinentes ao contexto da pergunta. A capacidade essencial aqui é ter acesso em tempo real a informações específicas de uma tabela ou fonte de dados quando alguém faz uma pergunta a um sistema de aprendizado de máquina.”

Outras organizações estão seguindo um caminho semelhante. De acordo com Steven Dickens, vice-presidente e líder de práticas do The Futurum Group, empresas tradicionais do setor de armazenamento de dados, como Teradata e Cloudera, estão incorporando capacidades vetoriais, juntamente com concorrentes como Oracle e Elastic.

Texto: Artigo relacionado sobre leitura.

  • Google e Udacity disponibilizam um curso gratuito sobre a API Gemini.
  • JetBrains AI Assistant irá incorporar os modelos de inteligência artificial do Google Gemini AI.
  • Google permite a visualização de 2 milhões de janelas de contexto do Gemini 1.5 Pro.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Verifique também
Close
Back to top button