Blog

A total luminosidade da inteligência artificial em interfaces simplificadas.

Adquirir toda capacidade de processamento e armazenamento disponível ou optar por uma plataforma mínima viável? Profissionais de inteligência artificial e design estão se dividindo em duas abordagens.

shutterstock 97037291 summer meadow bright sunny day
Imagem: TomasHa73/iStock

Recentemente, tenho abordado o excesso de engenharia e de provisão de recursos em suporte à Inteligência Artificial, tanto em ambientes de nuvem quanto fora deles. Os arquitetos de IA estão incluindo processadores de alta potência, como GPUs, em suas listas de compras para plataformas de IA, sem avaliar se realmente trarão benefícios financeiros.

Encontrei-me envolvido em diversas discussões acaloradas com outros profissionais de tecnologia da informação sobre a utilização desses recursos para inteligência artificial. Há duas visões predominantes: a primeira defende que a IA demandará toda a capacidade de processamento e armazenamento disponível, mesmo que isso signifique excesso de recursos. Esses indivíduos optam por sistemas superdimensionados, sem levar em conta questões financeiras ou ambientais.

Em segundo plano, o acampamento está desenvolvendo uma versão mínima viável (MVP) que possa suportar as funções essenciais dos sistemas de inteligência artificial. O objetivo é torná-lo o mais enxuto possível e utilizar plataformas de baixa potência, como computação em borda e móvel.

Quem tem razão?

A inclinação para escolher opções de menor tamanho.

Conforme avançamos para a segunda metade de 2024, é evidente que uma mudança significativa está ocorrendo: A inteligência artificial está reduzindo a necessidade de hardware. Em uma época dominada pela eficiência digital, as tecnologias de IA de ponta estão abandonando a dependência de recursos pesados e evoluindo para modelos mais enxutos e flexíveis.

A abordagem convencional para o avanço da Inteligência Artificial tem sido caracterizada por uma forte exigência. No entanto, essa abordagem está passando por uma transformação significativa devido aos recentes progressos em algoritmos de IA e tecnologia de hardware.

RELACIONADO:  O Google está lançando uma nova ferramenta de inteligência artificial chamada CodeWhisperer para competir com o Amazon Dueto. Além disso, também está introduzindo o GitHub Copilot.

A evolução de estruturas de rede neural mais otimizadas, como os transformadores, e a implementação de algoritmos de compressão sem perdas tiveram um papel essencial. Essas novidades têm diminuído a quantidade de dados requeridos para treinamento e inferência, o que resulta em uma redução do esforço computacional. Essa tendência está reduzindo consideravelmente as dificuldades de acesso e disponibilizando plataformas mais compactas e acessíveis, tanto na nuvem quanto fora dela.

Mais eficaz e lucrativo.

Uma etapa crucial nesse progresso foi a introdução de processadores especializados em inteligência artificial, tais como as unidades de processamento tensorial (TPUs) e unidades de processamento neural (NPUs). Em contraste com processadores genéricos, como as GPUs, esses dispositivos são projetados para atender às exigências específicas das tarefas de inteligência artificial. Eles realizam um maior número de cálculos por watt, resultando em um desempenho superior com menor consumo energético.

É possível que surjam processadores mais eficazes e econômicos devido aos investimentos significativos no desenvolvimento desse setor, resultando em alternativas melhores do que as GPUs de alto custo. A tendência atual está direcionada para uma inteligência artificial mais centrada nos dispositivos, com maior poder de processamento e menos dependência de grandes modelos de linguagem, que têm sido fundamentais no campo da inteligência artificial generativa.

Como tenho mencionado repetidamente, as empresas não irão desenvolver LLMs para suas implementações de IA; nos próximos anos, focarão em modelos menores e casos de uso específicos. É nesse ponto que os investimentos devem ser direcionados.

Diante do software, ferramentas como TensorFlow Lite e ONNX possibilitam aos programadores desenvolver modelos de inteligência artificial eficientes que se ajustem adequadamente a dispositivos de borda. Há uma mudança de foco em relação ao desenvolvimento de sistemas de IA, com as empresas percebendo mais vantagens em criar sistemas leves de IA que ofereçam maior valor comercial com menor investimento.

RELACIONADO:  Métodos práticos para incrementar as taxas de conversão do seu site na plataforma Prestashop.

Deve-se apreciar a transformação realizada pela computação de borda, que antes era vista como algo do futuro e agora se tornou uma realidade, levando o processamento de dados para a periferia da rede. Ao utilizar dispositivos de borda, como dispositivos IoT e smartphones, as tarefas de inteligência artificial estão sendo descentralizadas e distribuídas. Isso ajuda a resolver questões de congestionamento e latência na largura de banda, além de apoiar a adoção de processadores mais simples e eficientes.

Tamanho maior nem sempre é sinônimo de superioridade.

No ano de 2024, a confiança em infraestruturas de dados massivas está diminuindo progressivamente. Sistemas avançados de inteligência artificial funcionam perfeitamente em dispositivos portáteis, que não são LLMs, mas podem se equiparar a eles quando necessário e processar a maioria das tarefas no próprio aparelho. Essa é a proposta por trás das funcionalidades ainda não implementadas da Apple Intelligence, que serão incluídas na próxima versão do IOS. No entanto, essa estratégia pode ser mais voltada para impulsionar as atualizações do iPhone do que para aprimorar a eficiência da IA.

Pense na evolução da inteligência presente nos smartphones, com processadores como o A16 Bionic da Apple e o Snapdragon 8 Gen 2 da Qualcomm que possuem capacidades de IA integradas. Isso tem impulsionado uma transformação na área da computação móvel, com esses chips contendo aceleradores de aprendizado de máquina que lidam com diversas tarefas, incluindo tradução de idiomas em tempo real, jogos de realidade aumentada e edição sofisticada de fotos.

Além disso, atualmente os modelos de inteligência artificial podem ser ajustados sem perder sua eficácia. A redução dos modelos, poda e extração de conhecimento permitem que os desenvolvedores refinem os modelos e os tornem mais ágeis para serem implementados em ambientes com recursos limitados.

RELACIONADO:  EDB anuncia a nova solução EDB Postgres AI.

Isso atrasa a narrativa atual, já que a maioria das empresas de consultoria e tecnologia está estabelecendo parcerias com fornecedores de processadores, o que pode ser difícil de desfazer. Há preocupação com a tomada de decisões baseadas mais em obrigações comerciais do que nas necessidades empresariais, e com a tendência de utilizar GPUs caras e consumidoras de energia em nuvens e data centers. Existe a expectativa de que as empresas venham a desenvolver e operar sistemas de IA em larga escala que consumam o dobro de energia e custem o dobro do que custam atualmente, o que é preocupante.

Isso não implica que vamos restringir a capacidade necessária da inteligência artificial. Devemos nos preocupar com a utilização eficiente de nossos recursos e implementar a AI de forma mais eficaz. Não se trata de competir para construir o sistema maior e mais poderoso, e sim de agregar valor aos negócios, adotando uma abordagem simplificada em relação a essa tecnologia.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button