Cloud

O Google Cloud’s Vertex AI recebe novas alternativas de hospedagem.

A empresa afirma que os novos recursos de aterramento vão auxiliar as empresas a diminuir as falhas em seus aplicativos e agentes de inteligência artificial.

Google Cloud
Imagem: GernotBra/FreePik

O Google Cloud está lançando novas opções de aterramento que ajudarão empresas a minimizar os erros em suas aplicações e agentes de inteligência artificial.

Os modelos avançados de linguagem (LLMs) utilizados por essas aplicações e agentes de inteligência artificial geradora podem começar a gerar resultados incorretos à medida que se tornam mais complexos. Esses resultados incorretos são chamados de alucinações, pois não estão fundamentados nos dados de entrada.

Retrieval augmented generation (RAG) é uma abordagem utilizada, juntamente com técnicas como fine-tuning e engenharia rápida, para lidar com alucinações. A técnica RAG aprimora o Large Language Model (LLM) ao incorporar informações de uma fonte externa ou repositório de conhecimento para aprimorar a resposta a uma consulta específica.

O mais recente conjunto de alternativas de aterramento adicionado ao serviço de IA e aprendizado de máquina do Google Cloud, Vertex AI, traz novidades como recuperação dinâmica, um modo de alta qualidade e aterramento com conjuntos de dados de terceiros. Essas adições podem ser consideradas ampliações das funcionalidades do Vertex AI apresentadas durante a conferência anual Cloud Next em abril, com destaque para a recuperação dinâmica visando equilibrar custo e precisão.

A próxima funcionalidade de recuperação dinâmica, que em breve estará disponível como parte da ferramenta Vertex AI para otimizar LLMs no Google Search, parece equilibrar eficazmente custo e qualidade de resposta, conforme afirmado pelo Google.

Segundo Burak Gokturk, gerente geral de IA de nuvem no Google Cloud, o recurso de recuperação dinâmica possibilita que a Gemini decida entre utilizar consultas de usuário final no Google Search ou aproveitar o conhecimento dos modelos internos, o que evita custos extras de processamento para as empresas que utilizam LLMs de aterramento no Google Search.

RELACIONADO:  A tecnologia de computação em nuvem sem a necessidade de servidor desaparece.

Gemini tem a responsabilidade de tomar a decisão, pois nem todas as consultas podem exigir fundamentação, explicou Gokturk, destacando a alta competência do treinamento de Gemini.

Gemini decide organizar uma pesquisa no Google Search dividindo cada prompt ou consulta em três categorias, levando em consideração como as respostas podem variar com o passar do tempo: permanecendo inalteradas, mudando gradualmente e mudando rapidamente.

Isso quer dizer que, se Gemini fosse questionado sobre um filme recente, ele buscaria a resposta no Google Search, mas não faria isso ao responder uma pergunta simples como “Qual é a capital da França?”, pois é algo que provavelmente não mudaria e Gemini já saberia a resposta.

Forma de alta qualidade direcionada para os setores de saúde e finanças.

Google lançou um conjunto de APIs chamado APIs para RAG como parte do Vertex AI em abril, com o objetivo de auxiliar empresas a integrarem modelos de aprendizado de máquina em seus dados corporativos privados.

APIs para Reconhecimento de Aprendizagem de Máquina (RAG), que normalmente são oferecidas, abrangem APIs para a análise de textos, criação de embeddings, categorização semântica e produção de respostas fundamentadas, além de um serviço de verificação de fatos denominado check-grounding.

Experiência de máxima qualidade.

No contexto da ampliação da API de geração de resposta baseada em fontes de dados Vertex AI Search, personalizadas e Google Search, o Google está lançando uma nova opção experimental de aterramento, denominada aterramento com modo de alta fidelidade.

A empresa anunciou uma nova alternativa de aterramento para aprimorar a resposta a consultas, garantindo que o LLM obtenha respostas de forma mais eficaz, compreendendo o contexto da consulta e buscando a resposta em uma fonte de dados personalizada fornecida.

RELACIONADO:  Apesar de reduzir os custos de repatriação, a importância da computação em nuvem continua alta.

Essa alternativa de aterramento utiliza um modelo Gemini 1.5 Flash que foi modificado para se adequar ao contexto de uma sugestão, conforme explicado por Gokturk. Ele também mencionou que essa opção oferece fontes citadas nas frases da resposta, juntamente com pontuações de aterramento.

Atualmente, o aterramento de alta qualidade é capaz de atender a necessidades importantes, como resumir vários documentos ou extrair informações de um conjunto de dados financeiros.

De acordo com a Gokturk, essa alternativa de base é destinada a empresas dos setores de saúde e financeiro que não têm recursos para criar respostas personalizadas e confiáveis em aplicativos baseados em inteligência artificial generativa para os usuários finais.

Outros principais provedores de serviços em nuvem, como AWS e Microsoft Azure, atualmente não possuem uma função específica que corresponda exatamente ao modo de alta fidelidade. No entanto, ambos têm procedimentos para avaliar a confiabilidade dos aplicativos RAG, incluindo a análise de métricas de resposta geradas.

Enquanto a Microsoft utiliza a API de detecção de terra para avaliar se as respostas de texto dos grandes modelos de idioma (LLMs) estão ancoradas nos materiais de origem dos usuários, o Amazon Bedrock da AWS emprega diversas métricas para realizar essa função.

No RAG da Bedrock, a AWS emprega métricas como fidelidade, relevância de resposta e similaridade semântica em relação à resposta de uma consulta, como parte dos critérios de avaliação e observação.

Segundo a AWS, as métricas de fidelidade avaliam se a resposta produzida pelo sistema RAG está de acordo com o conteúdo das passagens recuperadas, visando prevenir distorções e assegurar que a saída seja coerente com o contexto fornecido como entrada para o sistema RAG.

RELACIONADO:  Previsões de um especialista em computação em nuvem para o ano de 2024.

Permitindo o uso de informações de terceiros para detecção de anomalias de receita via Vertex AI.

De acordo com os planos divulgados durante a Cloud Next em abril, a empresa informou que pretende lançar um novo serviço no Vertex AI no próximo trimestre. Esse serviço possibilitará que as empresas integrem seus modelos e agentes de inteligência artificial com dados especializados de terceiros.

O Google informou que já mantinha parcerias com fornecedores de dados como Moody, MSCI, Thomson Reuters e Zoominfo a fim de integrar seus dados a esse serviço.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Verifique também
Close
Back to top button