O Google disponibiliza assistência ao Gemini LLM para o armazenamento de informações no BigQuery.

A nova versão da BigQuery tornará mais simples a organização de informações para inteligência artificial, incluindo processamento de texto e documentos.

O Google está combinando o Gemini 1.0 Pro, um modelo de linguagem grande, com o Vertex AI, sua plataforma de aprendizado de IA e máquina, a fim de auxiliar as empresas a explorar novas funcionalidades dos modelos de linguagem grandes (LLMs), como análise de texto, imagem e vídeo.
A API Gemini, que foi comumente disponibilizada, está disponível para utilização no BigQuery, o armazém de dados do Google, com o objetivo de criar aplicações analíticas que se baseiam em IA.
Segundo Gerrit Kazmaier, gerente geral de análise de dados no Google Cloud, o modelo Gemini 1.0 Pro foi desenvolvido para ampliar a capacidade de entrada e saída e melhorar a qualidade dos resultados em diversas tarefas, como síntese de texto e análise de sentimentos. Agora é possível utilizar o modelo através de declarações SQL simples ou da API DataFrame integrada do BigQuery diretamente no console BigQuery.
A empresa planeja incluir a versão de visão do modelo Gemini Pro em breve.
Adicionalmente, o Google está ampliando a capacidade de processamento de documentos da Vertex AI e integração das APIs de transcrição de fala para texto na BigQuery, com o objetivo de auxiliar as organizações na análise de informações não formatadas, como documentos e arquivos de áudio.
Recentemente, a empresa divulgou a introdução da visualização da pesquisa vetorial BigQuery, que, ao ser combinada com o Vertex AI, possibilita a busca de similaridade vetorial em dados no BigQuery, além de oferecer funcionalidades como geração aumentada de recuperação (RAG), agrupamento de texto e sumarização.
Hyoun Park, analista sênior da Amalgam Insights, considera o suporte RAG como um elemento fundamental para os fornecedores de data warehouse atualmente, comparável a estacas de mesa.
“A nova geração de restauração implica que cada sistema de armazenamento de dados deve ser capaz de acessar informações de fontes externas ao responder a uma pergunta”, explicou Park. “Por exemplo, ao questionar sobre recursos humanos, o sistema também consultaria a base de dados de RH do funcionário para fornecer dados recentes e pertinentes ao contexto da pergunta. A capacidade essencial aqui é ter acesso em tempo real a informações específicas de uma tabela ou fonte de dados quando alguém faz uma pergunta a um sistema de aprendizado de máquina.”
Outras organizações estão seguindo um caminho semelhante. De acordo com Steven Dickens, vice-presidente e líder de práticas do The Futurum Group, empresas tradicionais do setor de armazenamento de dados, como Teradata e Cloudera, estão incorporando capacidades vetoriais, juntamente com concorrentes como Oracle e Elastic.
Texto: Artigo relacionado sobre leitura.
- Google e Udacity disponibilizam um curso gratuito sobre a API Gemini.
- JetBrains AI Assistant irá incorporar os modelos de inteligência artificial do Google Gemini AI.
- Google permite a visualização de 2 milhões de janelas de contexto do Gemini 1.5 Pro.