Cloud

Azure AI Studio é uma coleção abrangente de ferramentas que quase preenche todas as necessidades no desenvolvimento de inteligência artificial.

O Azure AI Studio, embora ainda esteja em fase de pré-visualização, atende a muitas das necessidades para a criação de aplicativos de AI generativa, com recursos de suporte para engenharia rápida, RAG, criação de agentes e programação de baixo ou nenhum código.

shutterstock 175644863 scattered clutter of nuts bolts wrenches tools in black and white
Imagem: karvanth/Flickr

No dia 15 de novembro, a Microsoft revelou o lançamento do Azure AI Studio, uma nova plataforma destinada ao desenvolvimento de aplicativos de inteligência artificial generativa, utilizando modelos como o GPT-4 da OpenAI, além de modelos provenientes da Microsoft Research, Meta, Hugging Face e outros. De acordo com a Microsoft, a inspiração para o desenvolvimento desse produto foi a percepção de que lidar com os desafios da engenharia rápida, motores de busca vetorial, o padrão de geração aumentada de recuperação (RAG) e a integração com o Azure OpenAI Service pode ser intimidante.

O Azure AI Studio é uma excelente opção para selecionar modelos de AI generativo, integrá-los com RAG usando vetores incorporados, pesquisa vetorial e dados, e otimizar esses modelos, tudo com o objetivo de criar co-pilotos alimentados por IA. Esta ferramenta é essencial para o desenvolvimento de co-pilotos e é voltada para desenvolvedores experientes e cientistas de dados. Por outro lado, o Copilot Studio da Microsoft é uma ferramenta de nível mais básico para personalizar chatbots.

Também disponível no InfoWorld: Dicas para começar na engenharia ágil.

O Azure AI Studio enfrenta concorrência dos concorrentes habituais, bem como de alguns desconhecidos. Por exemplo, a Amazon Bedrock rivaliza com o Azure AI Studio, enquanto a Amazon Q concorre com o Microsoft Copilots. O Bedrock oferece uma variedade de modelos de base, RAG e incorporações, bases de conhecimento, ajuste fino e pré-treinamento contínuo para criar aplicativos de IA generativa.

Existe um experimento semelhante ao Google chamado NotebookLM, que permite que você envie documentos (como docs do Google, PDFs e texto copiado) para serem processados por um modelo de linguagem avançado. Apesar de usar o NotebookLM com um modelo robusto muitas vezes ser eficaz para criar uma aplicação de inteligência artificial generativa de qualidade, é importante notar que o Google tem uma história de encerrar experimentos, o que torna incerto o futuro do NotebookLM como produto final.

O Google oferece uma solução profissional nesse campo com o Generative AI Studio do Google Vertex AI. Essa ferramenta permite personalizar modelos básicos com seus próprios dados, utilizando recursos como ajuste de adaptador e aprendizado de reforço com feedback humano (RLHF), ou estilo e ajuste de assunto para criar imagens. Isso amplia as funcionalidades dos modelos básicos do Vertex AI, como APIs.

Se você possui conhecimento em Python, JavaScript ou Go, é possível realizar diversas tarefas semelhantes às disponíveis no Azure AI Studio, ou até mesmo mais, com LangChain e LangSmith. Além disso, é possível realizar algumas dessas tarefas com Poe, que conta com uma variedade de modelos e a opção de personalizar bots através de prompts de texto simples e código.

Catálogo de modelos de Azure AI Studio.

O Azure AI Studio abriga uma variedade de modelos de inteligência artificial de diferentes empresas, permitindo que você escolha o mais adequado para a sua aplicação. Além disso, oferece modelos de idiomas do Azure OpenAI com opções de ajuste fino.

Em termos gerais, os modelos da OpenAI são disponibilizados como um serviço, o que implica que eles são integrados em um conjunto de modelos com suas próprias GPUs. Ao fornecê-los, você terá um ponto de inferência exclusivo em sua própria assinatura e talvez a capacidade de utilizá-los em tarefas de ajuste fino e avaliação. Vamos abordar a questão do ajuste fino quando discutirmos a personalização do modelo mais adiante.

azure ai studio 02
Imagem: MaxWdhs/StockVault

O Azure AI Studio oferece uma variedade de modelos de diferentes fornecedores, como OpenAI, NVIDIA, Meta, Hugging Face, Databricks e Microsoft Research, que estão organizados com base em suas capacidades de inferência e nos responsáveis por sua criação.

Comparação de modelos de referência no Azure AI Studio.

Não todos os modelos de inteligência artificial generativa possuem as mesmas habilidades ou eficácia. No passado, os modelos superiores eram mais caros, porém, recentemente, alguns modelos de código aberto gratuitos têm demonstrado um desempenho excelente em tarefas cotidianas.

Existem várias métricas de referência comuns para LLMs, que são mais simples de avaliar automaticamente do que modelos que produzem conteúdo. De acordo com o gráfico fornecido, o GPT-4 32K é o líder atual entre os modelos implementados no Azure em termos de precisão, porém é importante notar que o desempenho dos LLMs muda quase diariamente.

Enquanto escrevo, o Google declara que seu novo modelo Gemini ultrapassa o GPT-4. No entanto, ainda não tive a oportunidade de testá-lo para confirmar essa informação. Parece que a versão “realmente boa” Ultra do Gemini só estará disponível no próximo ano. A versão Pro que pude testar está em um patamar próximo ao do GPT-3.5.

Além disso, nos últimos tempos foram introduzidos pelo menos três novos modelos competitivos para línguas menos faladas. Um deles é o Starling-LM-7B, que emprega a técnica de aprendizado por reforço de feedback de inteligência artificial (RLAIF) desenvolvida pela UC Berkeley.

azure ai studio 03
Imagem: karvanth/Burst

No Azure AI Studio, estamos comparando a precisão de quatro modelos de linguagem (LLMs): GPT-3.5 Turbo, GPT-4 32K, Llama 2 70b e Llama 2 70b chat, em relação à resposta a perguntas e geração de texto. Não é surpresa que o GPT-4 32K, o maior e mais caro modelo avaliado, tenha se destacado. É importante observar que os modelos de bate-papo, projetados para interatividade, não são esperados para superar os modelos não voltados para bate-papo em tarefas de conclusão.

Comparação entre o modelo de serviço e o modelo de plataforma.

O Azure AI Studio disponibiliza modelos por meio de dois métodos: modelo como serviço (MaaS) e modelo como plataforma (MaaP). Ao optar por um modelo como serviço, o acesso é feito por meio de uma API e os custos são geralmente baseados no uso. Os modelos são armazenados em um pool central onde há acesso a GPUs. Todos os modelos Azure OpenAI estão disponíveis como MaaS, o que faz sentido, pois requerem uma grande capacidade de GPU para funcionar. Até o momento da redação, seis modelos Meta Llama 2 foram disponibilizados como MaaS.

O modelo como plataforma envolve a implantação de um modelo em máquinas virtuais dentro da sua assinatura do Azure. Ao testar essa abordagem, foi utilizado um modelo Mistral 7B em uma única VM do tipo Standard_NC24ads_A100_v4, que possui 24 vCPUs, 220.0 GiB de memória, uma GPU NVIDIA A100 PCIe e processadores AMD EPYC 7V13 de terceira geração (Milan). Os resultados da inferência do Mistral 7B em prompts personalizados não foram satisfatórios, com respostas corretas sendo apresentadas juntamente com informações irrelevantes, sugerindo a necessidade de ajustes por meio de engenharia imediata e/ou RAG. Há a suspeita de que o Mistral 7B tenha sido treinado em dados de teste de referência, o que poderia explicar as discrepâncias em relação aos resultados esperados com base nos escores de referência.

RELACIONADO:  Definir uma solução em nuvem com base nas habilidades reais que você possui.

Escutei comentários de que o avançado modelo Mixtral 8x7B de oito vias mix-of-experts é superior, mas não pude encontrá-lo no Azure AI Studio durante meus testes. GPT-4 também é mencionado como um modelo de mistura de oito vias de especialistas, porém é consideravelmente maior; a construção desse modelo pela OpenAI ainda não foi confirmada.

Caso sua conta/subscrição/região do Azure não possua cotas de GPU disponíveis, é possível utilizar uma plataforma com capacidade de GPU compartilhada para implantar um modelo de IA generativa. No entanto, essa opção tem a limitação de ser válida por um período determinado, geralmente mencionado como 24 ou 168 horas. Essa solução é considerada temporária até que seu administrador de nuvem possa garantir uma cota de GPU específica para você.

Modelo de filtragem de critérios no Azure AI Studio.

O Azure AI Studio tem a capacidade de classificar os modelos por grupos, os tipos de inferência e ajuste fino que suportam. No momento, existem oito grupos, que geralmente representam as fontes dos modelos, como Azure OpenAI, Meta e Mistral AI. Além disso, são oferecidas 20 opções de tarefas de inferência, como geração de texto, resposta a perguntas, tradução e classificação de imagens. E há 11 tarefas de ajuste fino disponíveis, que são derivadas das tarefas de inferência, excluindo as incorporações, que são consideradas uma ferramenta intermediária para aprimorar a geração de recuperação de informações.

azure ai studio 05
Imagem: timmossholder/Pexels

Os filtros do Azure AI Studio são baseados em uma versão preliminar do produto em dezembro e podem ser alterados no futuro.

Formas de personalização do modelo

É interessante debater estratégias para customizar modelos de forma geral neste momento. Na próxima seção, serão apresentadas as ferramentas e elementos disponíveis no Azure AI Studio.

A engenharia rápida é uma maneira fácil de personalizar um modelo de AI generativa, que geralmente envolve a manipulação de prompts de usuário e sistema para controlar as saídas desejadas. É comum ajustar o prompt do usuário com frequência, enquanto o prompt do sistema é utilizado para estabelecer as características gerais desejadas para o modelo.

A engenharia prompt geralmente é eficaz para determinar a forma como se deseja que um modelo responda a uma tarefa específica, como produzir texto em estilos particulares. A figura ilustra o prompt de exemplo no Azure AI Studio para um assistente de escrita no estilo de Shakespeare. É fácil visualizar a criação de um prompt semelhante para o “Dia de Falar como um Pirata”. Avante, camarada.

Frequentemente, os LLMs possuem parâmetros adicionais que podem ser ajustados pelo usuário como parte da entrada. A otimização desses parâmetros é relevante tanto para os prompts dos LLMs quanto para os modelos de machine learning em geral. Os parâmetros mais comuns para os prompts dos LLMs incluem temperatura, contexto, limite máximo de tokens e critério de parada, embora possam variar de um modelo para outro.

A temperatura influencia a imprevisibilidade da saída, podendo variar de 0 a 1 ou de 0 a 2, dependendo do modelo. Temperaturas mais altas resultam em maior imprevisibilidade. Em certos modelos, o valor 0 indica ajuste automático da temperatura, enquanto em outros indica ausência de imprevisibilidade.

A janela de contexto determina quantos tokens anteriores são considerados pelo modelo ao gerar uma resposta, com um limite máximo que define o comprimento da resposta. A sequência de parada é utilizada para filtrar conteúdo inapropriado na saída.

A tecnologia de geração expandida de recuperação, conhecida como RAG, auxilia na conexão de LLMs com fontes específicas, mesmo aquelas que não foram utilizadas durante o treinamento dos modelos originais. Em resumo, os três passos do RAG consistem em recuperar informações de uma fonte específica, ampliar a indicação com o contexto recuperado da fonte e, por fim, gerar conteúdo utilizando o modelo e a indicação expandida.

Os métodos RAG frequentemente empregam a técnica de incorporação para reduzir o tamanho e aprimorar a relevância do contexto recuperado. Basicamente, uma função de incorporação converte uma palavra ou expressão em um vetor de números de ponto flutuante. Esses vetores são geralmente armazenados em um banco de dados que suporta um índice de pesquisa vetorial. Em seguida, na fase de recuperação, é realizada uma busca de similaridade semântica, geralmente utilizando a cosseno do ângulo entre a incorporação da consulta e os vetores armazenados, a fim de encontrar informações “próximas” para serem utilizadas no prompt aprimorado. Os mecanismos de busca frequentemente empregam a mesma abordagem para encontrar suas respostas.

Os agentes de recuperação de conversação são uma extensão dos LLMs conversacionais que incluem ferramentas, código de execução, incorporações e lojas vetoriais. Esses agentes auxiliam na especialização de LLMs para domínios específicos e na adaptação da saída. Por exemplo, Azure Copilots, Google e Amazon se referem a esses agentes como parte fundamental do processo. LangChain e LangSmith, por sua vez, facilitam a construção de pipelines e a implementação de agentes RAG.

Aprimorar modelos de linguagem extensos é um procedimento supervisionado que implica na adaptação dos parâmetros do modelo para uma determinada tarefa. Esse processo envolve treinar o modelo em um conjunto de dados mais limitado e específico, rotulado com exemplos pertinentes à tarefa em questão. Esse ajuste geralmente demanda horas ou até dias, utilizando várias GPUs de alto desempenho e necessitando de centenas ou milhares de exemplos marcados. Apesar disso, é consideravelmente mais ágil do que o pré-treinamento extenso.

LoRA, ou Low-Rank Approximation, é uma técnica que quebra uma matriz de pesos em duas matrizes menores de peso. Isso permite uma adaptação supervisionada mais eficiente dos parâmetros. O artigo original da Microsoft sobre LoRA foi publicado em 2021. Uma variação quantizada de LoRA, chamada QLoRA e lançada em 2023, reduz a quantidade de memória da GPU necessária para o processo de adaptação. Em comparação com o ajuste fino padrão, LoRA e QLoRA normalmente reduzem o número de exemplos rotulados e o tempo necessário.

O pré-treinamento é o processo de aprendizagem não supervisionado em grandes conjuntos de dados de texto que ensina Linguagem Modelos de Aprendizagem (LLMs) os fundamentos da linguagem e desenvolve um modelo genérico. O pré-treinamento estendido ou continuado envolve a adição de conjuntos de dados específicos de domínio ou tarefa ao modelo base para personalizá-lo, como a incorporação de um novo idioma, termos especializados em áreas como medicina ou a capacidade de gerar código. Após a pré-treinagem continuada, que utiliza aprendizagem não supervisionada, é comum realizar um ajuste fino por meio de aprendizagem supervisionada.

azure ai studio 06
Imagem: JonPauling/FreePik

Engenharia adequada. Aqui está um exemplo breve do Azure AI Studio para um assistente de redação no estilo de Shakespeare. O prompt consiste em cinco partes: a modalidade, a função, a mensagem do sistema, uma mensagem de usuário de exemplo e uma resposta de exemplo desejada.

RELACIONADO:  A Hitachi Vantara e a Virtana se unem para aprimorar a infraestrutura de nuvem híbrida.

Recursos e elementos presentes no Azure AI Studio

Antes desta análise, você teve acesso ao portfólio de modelos do Azure AI Studio e comparações de desempenho dos modelos. Além disso, dentro da seção Explorar, o Azure AI Studio disponibiliza funcionalidades de fala, visão e linguagem, inteligência artificial responsável e exemplos práticos, como o assistente de escrita de Shakespeare mencionado anteriormente.

No Azure AI Studio, a seção Build apresenta o Playground, Avaliação, Fluxo Prompt, Voz Neural Personalizada e recursos de ajuste fino, além de componentes para Dados, Índices, Implementações e Filtros de Conteúdo. Já na seção Gerenciar, é possível visualizar os recursos disponíveis e as quotas por assinatura e região, pelo menos na fase de estadiamento.

Pode me fornecer mais informações ou o próprio texto para que eu possa ajudar na paráfrase?

O Azure AI Studio oferece ferramentas de fala do Serviço Cognitivo para o desenvolvimento de aplicativos que funcionam com comandos de voz. É importante ressaltar que esses recursos são modelos de voz específicos, e não de inteligência artificial generativa. Os serviços de voz prontos para uso fornecem links para exemplos que podem ser testados. Já os modelos personalizados possuem links com instruções para começar, e também podem conter amostras para testar.

Os serviços de fala oferecem uma variedade de opções, como legendagem, análise de fala, conversão de fala em texto, tradução de fala para texto e texto para fala utilizando vozes neurais pré-treinadas e personalizadas de alta qualidade. As vozes neurais disponíveis são tão realistas que os clientes podem não perceber que são produzidas por inteligência artificial. Atualmente, a galeria de vozes pré-treinadas conta com 478 vozes em 148 línguas e variantes diferentes, algumas das quais capazes de falar mais de 40 idiomas.

azure ai studio 07
Imagem: GernotBra/Burst

Recursos de voz do Azure AI Studio para desenvolver aplicativos com suporte de fala. Trata-se de Serviços Cognitivos, não de AI generativa. Os serviços prontos incluem links para demonstrações práticas. Já os modelos personalizados fornecem instruções para começar, que também podem incluir demonstrações práticas.

Pode me fornecer mais contexto ou o texto original para que eu possa parafraseá-lo com precisão?

O Azure AI Studio oferece serviços de visão que permitem a leitura de texto, a análise de imagens e a detecção de rostos em um aplicativo por meio de machine learning e OCR, não sendo AI generativa.

azure ai studio 08
Imagem: wal_172619/iStock

Os serviços do Azure AI Studio para visão são semelhantes aos serviços de fala, pois ambos são Serviços Cognitivos e não de inteligência artificial generativa.

Idioma

O Azure AI Studio combina três serviços linguísticos individuais nos serviços de IA do Azure: Text Analytics, QnA Maker e Language Understanding (LUIS). Não tenho certeza se esses serviços estão utilizando os modelos de linguagem baseados em aprendizado de máquina refinados pela Microsoft ao longo dos anos, ou novos modelos de inteligência artificial generativa. No entanto, esses modelos possibilitam a classificação e resumo de documentos, traduções em tempo real e a integração da linguagem em experiências de chatbot.

azure ai studio 09
Imagem: karvanth/iStock

O Azure AI Studio oferece uma variedade de serviços de linguagem, que vão desde modelos pré-construídos e otimizados para diferentes tarefas até a possibilidade de criar seu próprio modelo personalizado.

IA ética

A versão mais recente da solução de IA responsável do Azure é o Content Safety Studio, apresentado na primeira imagem abaixo. Este recurso permite a moderação de conteúdo de texto e imagem, filtragem de IA generativa para riscos de violação, criação de metaprompt para segurança, detecção de material protegido e monitoramento de atividades e dados online.

Você tem a opção de estabelecer os níveis de segurança de um modelo por meio de um filtro de conteúdo durante a sua implementação, conforme ilustrado na segunda imagem abaixo.

azure ai studio 10
Imagem:
chsyys/UnPlash

Atualmente, a única categoria de Inteligência Artificial Responsável no Azure AI Studio é a segurança do conteúdo, que abrange opções para moderar diferentes tipos de conteúdo, como texto, imagem e multimodal. Além disso, oferece soluções de segurança para inteligência artificial generativa, monitoramento de atividade online e desenvolvimento de uma solução personalizada para moderação.

Lo siento, pero necesito que proporciones un texto específico que desees parafrasear. ¡Estaré encantado de ayudarte una vez que me proporciones el texto!

azure ai studio 10a
Imagem: karvanth/UnPlash

Ao configurar um filtro de conteúdo para um modelo de IA no Azure AI Studio, é possível personalizar a sensibilidade em relação ao conteúdo de entrada e saída, abrangendo temas como violência, ódio, conteúdo sexual e autolesão.

Exemplos de Estímulo

Atualmente, há 25 exemplos de prompt disponíveis na seção Prompts, sendo vários deles bastante interessantes. Sugiro que você dê uma olhada no prompt do Apple Cycle Analyst para observar como seria possível ensinar a um LLM a interpretar imagens, e na amostra de raciocínio Chain of Thought para ver como ensinar um LLM a resolver problemas simples de palavras aritméticas. Sem a orientação de Chain of Thought, a maioria dos LLMs apresenta falhas significativas ao lidar com esse tipo de problema.

Eu adicionei um soneto no estilo de Shakespeare sobre o horário de verão que foi criado por meio de algumas interações com o GPT-3.5 Turbo 16k e eu, a partir de um prompt do usuário. Utiliza a mesma fraseologia do sistema mencionada anteriormente para capturar o estilo de Shakespeare. Não foi necessário explicar a estrutura do soneto.

azure ai studio 11
Imagem: driles/UnPlash

Atualmente, o Azure AI Studio conta com 25 exemplos de prompt, os quais abrangem diferentes tipos de entradas, como texto e imagem.

azure ai studio 12
Imagem: JonPauling/FreeImages

Este é um chat resultante do prompt do assistente de escrita de Shakespeare que vimos anteriormente nas seções sobre personalização de modelos. Uma temperatura de 0.7 é apropriada para criar conteúdo criativo.

Área para prática de esportes.

O soneto de Shakespeare e os exemplos de prompt que foram mostrados foram testados na ferramenta Playground do Azure AI Studio. Se desejar trabalhar com código, é possível abrir o projeto no Visual Studio Code (Web) por meio do link na parte superior direita, que é muito semelhante ao Visual Studio Code para desktop. O Playground é uma ferramenta valiosa no Azure AI Studio, especialmente para tarefas de engenharia rápida e ajuste de hiperparâmetros.

Análise crítica.

Você pode usar esta ferramenta para testar e comparar seus modelos de idioma com métricas comuns da indústria. Assim, é possível selecionar a versão mais adequada de acordo com suas necessidades. As métricas avaliadas incluem aterramento, coerência, fluência, relevância e similaridade com GPT. Para iniciar a avaliação, é necessário criar um tempo de execução, o qual pode ser acessado através do Playground e Prompt Flow.

Fluxo de solicitação constante.

Prompt Flow é o local no Playground onde você pode aprimorar seu modelo em um aplicativo utilizando recursos como RAG, filtros de conteúdo, incorporação, código, saída de voz personalizada e ajustes finos. Nos arquivos localizados no canto superior direito da tela, você encontrará Jinja, YAML e arquivos de texto que definem o prompt, o fluxo de execução e quaisquer requisitos que deseja incluir. Jinja é um motor de modelo web de código aberto para Python, enquanto YAML é uma linguagem de serialização de dados usada em arquivos de configuração.

RELACIONADO:  Quatro credenciais em computação em nuvem que podem impulsionar o seu destaque.

A tela Prompt Flow no Azure AI Studio oferece uma maneira simples de acessar a engenharia de aplicativos de inteligência artificial robusta. Além disso, o Prompt Flow pode ser encontrado como um projeto de código aberto no GitHub, acompanhado de sua própria extensão SDK e Visual Studio Code.

azure ai studio 13
Imagem: astrovariable/KaboomPics

A ferramenta de Fluxo Prompt do Azure AI Studio foi acessada a partir do Playground, onde o assistente de escrita de Shakespeare estava sendo utilizado. A partir deste ponto, é possível aprimorar o aplicativo para a utilização de dados, implementar um índice de vetor, realizar ajustes finos, avaliar e implantar o modelo.

Voz específica gerada por inteligência artificial.

Neural Voice Custom is a restricted access platform (permission must be requested to use it) that enables the creation of a new AI voice for your application. You can design your unique voice persona and effectively manage voice talents, datasets, models, tests, and endpoint connections.

Refinamento minucioso.

Durante o período atual, somente é possível utilizar esta ferramenta para modificar os modelos Llama 2 em projetos localizados na região oeste dos Estados Unidos 3.

Informações coletadas

Você tem a opção de vincular o Azure AI Studio aos dados armazenados no Azure Blob Storage, Azure Data Lake Storage Gen 2 ou Microsoft OneLake. Os dados podem estar contidos em um único arquivo ou em uma pasta, e também é possível fazer o upload de arquivos de dados.

Você pode utilizar seus próprios dados para aplicar o RAG (consulte a seção sobre métodos de personalização de modelo) a fim de embasar seu modelo, desde que não exceda um comprimento considerável. Se os dados forem mais extensos que o tamanho do contexto do modelo, será necessário recorrer a uma incorporação e a um índice de pesquisa vetorial.

Adicionalmente, é possível empregar arquivos de imagem de até 16 MB cada no GPT-4 Turbo com Vision, do Playground. Armazenar as imagens em um Blob storage ou em uma pasta no Data Lake possibilita fornecer ao modelo uma URL, evitando assim o envio individual das imagens para o Playground.

Pode me dar mais contexto sobre o texto que você gostaria que eu parafraseasse?

Os índices de vetores, juntamente com a Azure AI Search, facilitam a localização de informações importantes de forma eficiente, evitando problemas de extensão de contexto ao empregar o RAG. Ao criar seu índice, é possível conectar-se a dados armazenados no Azure Blob Storage, Azure Data Lake Storage Gen 2 ou Microsoft OneLake, ou utilizar dados previamente enviados na seção de dados.

Instalações ou implementações.

O Azure AI Studio permite a implantação de modelos extensos de linguagem, fluxos e aplicativos web. Você tem a opção de implantar modelos como um serviço (MaaS) ou como uma plataforma (MaaP), como mencionado anteriormente.

Os fluxos são conjuntos de ferramentas de inteligência artificial generativa que englobam modelos, dados próprios, pesquisas em bancos de dados vetoriais e conexões personalizadas. Ao implementar um fluxo, você estabelece um ponto de acesso para um serviço de IA, podendo também disponibilizar um aplicativo web que utilize esse serviço.

Controles de acesso de informações.

Esta seção possibilita que você enumere e administre os filtros de conteúdo que são utilizados para limpar a entrada e saída do modelo, conforme abordado na seção anterior sobre IA responsável.

Os meios à sua disposição

Nesta seção, sob o menu Gerenciar, são apresentadas as autorizações, recursos computacionais, conexões, diretrizes e custos para cada um dos seus projetos de inteligência artificial.

Políticas de ação afirmativa destinadas a promover a inclusão de grupos historicamente marginalizados na sociedade.

As limitações para os variados tipos e tamanhos de instância atualmente podem ser visualizadas e controladas na seção de Gerenciamento na versão de estadiamento do Azure AI Studio. No entanto, essas cotas não estão visíveis nas minhas assinaturas de produção, apesar de estarem disponíveis ao escolher e implementar modelos.

Além disso, no InfoWorld também estão disponíveis 5 métodos simples para rodar um LLM localmente.

Iniciação rápida e guias de introdução ao Azure AI Studio.

O número de guias introdutórias e tutoriais na documentação do Azure AI Studio certamente aumentará com o tempo. Atualmente, existem quatro guias introdutórias disponíveis.

  • Escute e converse com exemplos de chatbots no Azure AI Studio Playground.
  • Criar sugestões de nomes de produtos utilizando o playground Azure AI Studio (compleções).
  • Conteúdos de texto e imagens são moderados com segurança no Azure AI Studio.
  • Utilize o GPT-4 Turbo com Vision em suas imagens e vídeos no Azure AI Studio para começar.

Existem três guias de instruções.

  • Implementar um chat online em seus registros de dados (RAG).
  • Desenvolver e executar um sistema de perguntas e respostas em tempo real no Azure AI Studio (copiloto/agente).
  • Utilizando o Azure AI Studio com um software de leitura de tela.

Sim, o Azure AI Studio foi desenvolvido com a intenção de ser acessível para pessoas com deficiência visual.

Criação de Inteligência Artificial sem dificuldades.

Azure AI Studio, embora ainda esteja em fase de pré-visualização e em desenvolvimento, atende a maioria dos requisitos para a criação de aplicativos de inteligência artificial generativa. Está avançando visivelmente, conforme pude observar em um site provisório do produto, assim como nos novos recursos lançados enquanto eu estava revisando.

Você tem a possibilidade de criar aplicativos web generativos de inteligência artificial utilizando o Azure AI Studio sem a necessidade de programar. Se tiver conhecimento em Python, será ainda mais vantajoso. A forma como as ferramentas Playground e Prompt Flow operam me agrada.

No texto anteriormente mencionado, foi discutido que é possível realizar várias tarefas semelhantes utilizando produtos concorrentes da Amazon (Bedrock) e Google (Generative AI Studio). Além disso, se você possui habilidades de programação, também é possível executar essas mesmas tarefas utilizando LangChain e LangSmith.

O Azure AI Studio é uma excelente opção para construir seus aplicativos de inteligência artificial de maneira eficaz e sem complicações, mesmo se você não tiver experiência em programação, contanto que compreenda os conceitos de engenharia rápida, incorporação, RAG e fluxos rápidos.

Lo siento, no puedo parafrasear un texto que no has proporcionado. ¿Puedo ayudarte con algo más?

Preço: Varia de acordo com a utilização do modelo e o tamanho das instâncias implementadas.

Plataforma de computação em nuvem da Microsoft: Azure.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Verifique também
Close
Back to top button