Atualizações e Manutenção

A nova versão do Amazon Lex foi desenvolvida com recursos de inteligência artificial para permitir que os desenvolvedores construam e aprimorem bots de forma mais rápida.

A Amazon incorporou funcionalidades de inteligência artificial geradora na Lex, sua plataforma para a criação de chatbots.

IT professionals / programmers / engineers / developers in a modern workspace.
Imagem: xsix/StockVault

Os programadores agora têm a capacidade de empregar uma linguagem natural direta para desenvolver ou melhorar chatbots utilizando o Amazon Lex, uma plataforma para criar interfaces de conversação. Com a inclusão de recursos avançados de inteligência artificial, os desenvolvedores podem especificar as ações desejadas para o serviço realizar, como exemplificado em um recente artigo publicado no blog da empresa, que menciona a solicitação de uma reserva de hotel com informações sobre os hóspedes e o método de pagamento.

De acordo com Sandeep Srinivasan, gerente sênior de produto da Amazon Lex na AWS, se não houvesse inteligência artificial generativa, o desenvolvedor de bot teria que criar manualmente todos os componentes do bot, como intenções, caminhos possíveis, enunciados que desencadeiam ações, espaços para informações, e respostas do bot, entre outros elementos. Com o uso dessa tecnologia, o processo se torna mais simples e acessível.

Lex também pode auxiliar em interações humanas complexas. Caso o Amazon Lex não consiga compreender uma parte da conversa, ele solicita assistência de um modelo de linguagem de inteligência artificial (LLM) escolhido pelo desenvolvedor do bot.

Um recurso adicional do Amazon Lex facilita a elaboração de chatbots ao gerenciar de forma automática as perguntas comuns (FAQs). Os programadores definem as principais funções do chatbot e uma inteligência artificial integrada busca respostas em uma fonte pré-determinada, como uma base de conhecimento da empresa, para responder às dúvidas dos usuários.

A Amazon também está implementando um recurso QnAIntent integrado para Lex, que inclui o processo de pergunta e resposta diretamente na estrutura de intenção. Esse recurso utiliza um LLM para pesquisar uma base de conhecimento aprovada e fornecer uma resposta relevante. Disponível em visualização, o recurso utiliza modelos de base hospedados no Amazon Bedrock, um serviço que oferece uma variedade de FMs de várias empresas de inteligência artificial. No momento, o recurso permite alternar entre modelos antrópicos e está em processo de expansão para outros LLMs no futuro, afirmou Srinivasan.

RELACIONADO:  O lançamento da Azure App Service inclui suporte para Python e interpretadores JavaScript.

Amazon Lex pode ser descrito como um conjunto de sistemas, e vários desses componentes utilizam inteligência artificial generativa, de acordo com Kathleen Carley, professora do Instituto de Segurança e Privacidade CyLab na Universidade Carnegie Mellon, em uma entrevista.

A importância de integrar um modelo de linguagem extenso no Amazon Lex é que permite que os bots criados ou interagidos com ele ofereçam respostas mais úteis, naturais e talvez mais precisas para perguntas comuns. Esses bots não são limitados a tarefas específicas, ao contrário dos sistemas analíticos tradicionais, e podem lidar com situações que não seguem um roteiro pré-programado.

Lex é um componente importante da estratégia de inteligência artificial da Amazon, que inclui o desenvolvimento de sua LLM. Conhecido como “Olympus”, esse modelo é adaptado para atender às demandas específicas da empresa e possui 2 trilhões de parâmetros, sendo o dobro do tamanho do GPT-4 da OpenAI, que conta com mais de 1 trilhão de parâmetros.

“De acordo com Carley, o LLM da Amazon é mais flexível do que o GPT-4, tem maior habilidade para lidar com nuances e pode ser mais eficaz ao manter um fluxo linguístico. No entanto, ainda é cedo para observar as diferenças práticas, as quais serão determinadas pelos ambientes de treinamento e pela quantidade de parâmetros utilizados.”

As últimas inovações no Amazon Lex indicam uma possível revolução na programação impulsionada pela inteligência artificial generativa. Os programadores estão testando o ChatGPT para atividades de programação, e os resultados são animadores, principalmente para a verificação de código. Embora ainda seja necessário programar para softwares complexos, a IA provavelmente irá alterar a forma como utilizamos ferramentas mais simples, sem a necessidade de conhecimento técnico avançado.

RELACIONADO:  Amazon Bedrock foi atualizado com a incorporação de contexto de aterramento, bem como a inclusão de conectores RAG.

Quando o GitHub Copilot foi lançado em 2021, embora tenha apresentado falhas e não tenha funcionado em algumas ocasiões, ainda foi considerado útil. Muitos acreditavam que ele iria se aprimorar ao longo do tempo e economizar tempo no futuro. Dois anos depois, o Copilot passou por melhorias significativas e agora oferece funções adicionais, como explicar código, resumir atualizações e identificar possíveis problemas de segurança. Mesmo que você apenas o utilize, é recomendado considerar pagar por esses serviços aprimorados.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button