Atualizações e Manutenção

Amazon Bedrock foi atualizado com a incorporação de contexto de aterramento, bem como a inclusão de conectores RAG.

Além de incorporar novos modelos de aprendizado de máquina ao seu serviço de inteligência artificial gerativa Bedrock, a AWS está introduzindo uma nova API Guardrails disponível para ser utilizada em diferentes plataformas.

shutterstock 2024657870 glacially sculpted granite bedrock green valley and mountains in distance
Imagem: wal_172619/FreePik

A Amazon Web Services (AWS) lançou uma nova versão do seu serviço de criação de inteligência artificial generativa, Amazon Bedrock, que inclui um novo recurso de contextualização, conectores para melhorar a geração de recuperação ampliada (RAG) e mais modelos de linguagem grandes (LLMs).

Conforme mencionado pelo vice-presidente da Amazon para a inteligência artificial generativa, Vasi Philomin, essas atualizações visam simplificar a criação de aplicações de IA para empresas.

A inclusão de uma base contextual no Amazon Bedrock Guardrails tem o objetivo de diminuir as possibilidades de obter respostas inadequadas ou incorretas de um aplicativo apoiado por um LLM, conforme mencionado por Philomin.

O aterramento contextual emprega técnicas como análise de relevância de grupo e resumo para identificar distorções em respostas de modelos, assegurando que as previsões do LLM estejam fundamentadas nos dados empresariais apropriados e sejam congruentes com a consulta ou comando do usuário, conforme explicado pelo vice-presidente.

Outras empresas importantes que oferecem serviços em nuvem, como Google e Microsoft Azure, possuem um método para verificar a confiabilidade dos aplicativos RAG, incluindo a análise de métricas de resposta.

A Microsoft utiliza a API de detecção de terra para confirmar se as respostas de texto geradas por LLMs estão alinhadas com os materiais de origem dos usuários, enquanto o Google implementou novas funcionalidades em Vertex AI, como recuperação dinâmica e modo de alta fidelidade, para aprimorar suas opções de aterramento.

A AWS fornece ferramentas de avaliação e monitoramento do RAG no Amazon Bedrock, que utilizam indicadores como precisão, pertinência da resposta e resposta semântica em relação a um padrão de consulta. A AWS anunciou que disponibilizará Guardrails para o Amazon Bedrock como uma API independente, podendo ser utilizada com LLMs fora do Bedrock.

RELACIONADO:  Spin 1.0 tem como objetivo tornar mais simples a utilização de Microserviços WebAssembly.

Philomin anunciou o lançamento da API standalone Guardrails devido à alta demanda de clientes empresariais que desejam utilizá-la em modelos que não sejam do Bedrock.

A iniciativa da AWS segue a estratégia da IBM de disponibilizar seu produto WatsonX, de governança, por meio de um conjunto de ferramentas em maio. Embora o conjunto de ferramentas da IBM não seja exatamente igual à API Guardrails, pode ser utilizado para estabelecer um repositório de informações de registro ao longo do ciclo de vida de um modelo. Esses dados podem ser valiosos para avaliar a lógica por trás de uma decisão específica de modelo ou identificar quais partes interessadas estiveram envolvidas no ciclo de vida do modelo.

Novas conexões RAG e modelos extensos de linguagem.

Como parte das melhorias para sua plataforma de inteligência artificial generativa, a AWS introduziu novos conectores RAG no Amazon Bedrock, possibilitando que os programadores integrem modelos com uma ampla gama de fontes de dados.

Além de ter acesso à Amazon S3, os desenvolvedores agora têm a possibilidade de utilizar conectores para Salesforce, Confluence e SharePoint com RAG, conforme informado por Philomin. Ele destacou que o conector do SharePoint estava em fase de pré-visualização.

AWS também informou sobre a inclusão da funcionalidade de personalização do antrópico Claude 3 Haiku no Bedrock. Essa capacidade, em fase de pré-visualização, conforme Philomin, ainda não está disponível em nenhum outro provedor de serviços de nuvem e tem sido amplamente solicitada por clientes corporativos.

Outras novidades incluem a expansão da pesquisa vetorial para Amazon MemoryDB e a introdução de novas funcionalidades para Agents for Bedrock.

“De acordo com Philomin, os agentes têm a capacidade de armazenar informações por meio de diversas interações, o que lhes permite lembrar do ponto de partida anterior e oferecer sugestões mais precisas com base nas interações anteriores. Ele também destacou que os Agentes agora conseguem decifrar o código para lidar com situações complicadas que envolvem dados, como análise, visualização e processamento de texto, além de resolver equações e questões de otimização.”

RELACIONADO:  Microsoft Azure AI recebe atualizações em seus modelos de linguagem de grande porte, além de novos recursos de governança.

Amazon App Studio foi criado para auxiliar no desenvolvimento de aplicativos utilizando linguagem natural.

A AWS revelou o AWS App Studio, um serviço gerenciado que utiliza inteligência artificial generativa para auxiliar usuários corporativos na criação e implementação de aplicativos por meio de instruções em linguagem natural.

De acordo com a declaração da AWS, com o App Studio, um usuário pode simplesmente descrever o aplicativo desejado, suas funcionalidades e fontes de dados a serem integradas, e o App Studio criará uma aplicação em poucos minutos, algo que poderia ter levado dias para ser desenvolvido por um profissional. A empresa afirma que o assistente de AI generativa do App Studio elimina a necessidade de aprender qualquer ferramenta de baixo código.

O Amazon App Studio pode enfrentar a concorrência de outras opções no mercado, como o Vertex AI Studio do Google e o Copilot Studio da Microsoft.

A Amazon Web Services (AWS) também comunicou o lançamento oficial do Amazon Q Apps, uma funcionalidade integrada ao Amazon Q Business, que foi apresentada durante o evento AWS re:Invent no ano anterior.

Segundo a AWS, com o Amazon Q Apps, os usuários empresariais podem passar rapidamente de uma conversa para um aplicativo gerativo de IA com base nos dados de sua empresa. Basta que os usuários descrevam o aplicativo desejado em um prompt, e o Amazon Q o cria instantaneamente. A empresa explicou que o Amazon Q possibilita aos usuários desenvolver um aplicativo a partir de uma conversa já existente.

Mais informações da inteligência artificial:

  • Pré-visualização do OpenSilver 3.0 apresenta um designer de interface de usuário impulsionado por IA para .NET.
  • Os pesquisadores apontam deficiências na avaliação de desempenho de agentes de inteligência artificial.
  • Juiz nega ação judicial relacionada ao GitHub Copilot, uma inteligência artificial auxiliar de codificação.
RELACIONADO:  O lançamento da Azure App Service inclui suporte para Python e interpretadores JavaScript.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button