Como os processadores lidarão com os obstáculos de consumo de energia da inteligência artificial generativa.

Mantendo um equilíbrio entre o desempenho, a eficiência energética e o custo, os processadores lidam de forma eficaz com as tarefas menos intensivas de inferência, que representam a maior parte das cargas de trabalho de inteligência artificial.

A maioria esmagadora dos líderes empresariais (98%) reconhece a importância estratégica da inteligência artificial, com quase 65% planejando aumentar os investimentos. Estima-se que os gastos globais em IA alcancem US$ 300 bilhões até 2026. Além disso, prevê-se que o consumo de eletricidade pela IA possa aumentar em dez vezes até 2026, de acordo com a Agência Internacional de Energia. É evidente que a IA apresenta um duplo desafio para as empresas: maximizar suas capacidades enquanto minimiza seu impacto ambiental.
Nos Estados Unidos, prevê-se que o consumo de energia dos data centers aumente significativamente até 2030, atingindo 35GW, principalmente devido à crescente necessidade de tecnologias de Inteligência Artificial. Esse crescimento é principalmente impulsionado pela adoção de racks preparados para IA, que consomem entre 40kW e 60kW cada um devido aos seus processos intensivos de GPU.
Há três principais estratégias que podem ser adotadas para lidar de maneira eficiente com os desafios energéticos iminentes.
- Escolhendo os recursos de computação adequados para tarefas de inteligência artificial, com ênfase na diferenciação entre os requisitos de treinamento e de inferência.
- Melhorando a performance e a eficiência de energia nas instalações atuais do data center.
- Estimular o crescimento sustentável da inteligência artificial por meio de ações colaborativas em todas as partes do sistema.
Comparação entre CPUs e GPUs em termos de desempenho para tarefas de inferência de inteligência artificial.
Em oposição à ideia popular, a implementação de inteligência artificial de forma sustentável indica que as CPUs são suficientes para a maioria das tarefas de IA, não apenas as GPUs de alto desempenho. Um exemplo disso é que 85% da computação em IA é destinada à inferência, não necessitando de uma GPU.
Para tarefas de inferência de inteligência artificial, os processadores centrais oferecem um equilíbrio adequado entre desempenho, eficiência energética e custo efetivo. Eles são eficazes em lidar com uma variedade de tarefas de inferência menos exigentes, sendo especialmente eficientes em termos de consumo de energia. Além disso, sua capacidade de lidar com tarefas paralelas e se adaptar a mudanças nas demandas garante um uso otimizado de energia, o que é fundamental para manter a eficiência. Isso contrasta com as unidades de processamento gráfico mais potentes, que se destacam no treinamento de inteligência artificial devido ao seu alto desempenho, mas muitas vezes ficam subutilizadas em tarefas menos intensivas.
Além disso, o menor consumo de energia e custo associado às CPUs as torna uma escolha preferida para organizações que visam a operações sustentáveis e econômicas. Além disso, complementando essa vantagem, bibliotecas de otimização de software desenvolvidas para arquiteturas de CPU reduzem consideravelmente o consumo de energia. Essas bibliotecas otimizam as tarefas de inferência de inteligência artificial para operarem de maneira mais eficiente, alinhando os processos computacionais com as características da CPU, a fim de minimizar o uso desnecessário de energia.
Da mesma maneira, os profissionais de programação em empresas podem empregar tecnologias avançadas de software que melhoram a eficiência da inteligência artificial em processadores. Essas tecnologias se integram de forma harmoniosa com frameworks comuns de IA, como TensorFlow e ONNX, adaptando automaticamente modelos de IA para obter o melhor desempenho nos processadores. Isso não apenas facilita a implementação, mas também elimina a necessidade de ajustes manuais em diferentes plataformas de hardware, simplificando o processo de desenvolvimento e reduzindo o consumo de energia ainda mais.
Finalmente, aprimorar o modelo melhora essas ferramentas de software, aperfeiçoando modelos de inteligência artificial para remover parâmetros não essenciais, o que resulta em modelos mais enxutos e eficazes. Esse procedimento de redução não apenas mantém a precisão, mas também diminui a complexidade computacional, reduzindo assim o consumo de energia durante o processamento.
Selecionando o computador adequado para tarefas de inteligência artificial.
Para que as empresas aproveitem ao máximo os benefícios da inteligência artificial, preservando a eficiência energética, é essencial realizar uma combinação estratégica dos recursos da unidade central de processamento (CPU) com as necessidades específicas da IA. Isso requer a execução de diversas etapas:
- Identificar as principais prioridades em relação à inteligência artificial envolve, inicialmente, a identificação dos modelos de IA mais essenciais para a empresa, levando em conta aspectos como a frequência de utilização e a relevância estratégica.
- Definição de critérios de desempenho: Estabelecer padrões claros de desempenho, concentrando-se em elementos fundamentais como a latência e o tempo de resposta, a fim de satisfazer de maneira eficiente as necessidades dos usuários.
- Avalie opções especializadas: Busque por processadores que se destaquem não apenas na área específica de Inteligência Artificial requerida, mas também que atendam aos padrões de desempenho estabelecidos, assegurando que sejam capazes de lidar com a carga de trabalho de maneira eficaz.
- Recomenda-se avaliar a capacidade de dimensionamento de uma solução, levando em consideração a sua eficiência em lidar com um volume cada vez maior de demandas. Escolha processadores que proporcionem um equilíbrio ideal entre produtividade (inferências por segundo) e consumo de energia, uma vez que as necessidades de desempenho já tenham sido consideradas.
- Paráfrase: É importante evitar escolher a solução mais poderosa e cara sem considerar as necessidades reais, pois é essencial adequar o tamanho da infraestrutura para evitar gastos desnecessários e garantir que possa ser adaptado conforme a demanda aumenta.
- Pense na possibilidade de adaptação no futuro: É recomendável ter cuidado com soluções muito especializadas que podem não ser adequadas para mudanças futuras na demanda ou tecnologia da inteligência artificial. As empresas devem optar por soluções versáteis que possam lidar com diversas tarefas de IA para evitar a obsolescência no futuro.
Atualmente, os data centers consomem aproximadamente 4% da energia global, mas o aumento da inteligência artificial pode aumentar significativamente esse número. Muitos data centers já possuem uma grande quantidade de GPUs, que consomem muita energia e têm problemas com o controle de temperatura.
Por exemplo, as GPUs, como a H100 da Nvidia, que possuem 80 bilhões de transistores, estão levando o consumo de energia a níveis extremos, chegando a superar os 40kW em algumas configurações. Isso tem levado os data centers a adotarem o resfriamento por imersão, um processo em que o hardware é submerso em um líquido condutor térmico. Embora eficiente na dissipação de calor e na possibilidade de suportar densidades de energia maiores, esse método de resfriamento requer energia adicional, levando os data centers a destinar de 10% a 20% de sua energia exclusivamente para essa finalidade.
Por outro lado, a eficiência energética dos processadores centrais (CPUs) está se tornando uma solução promissora para lidar com o aumento das demandas de eletricidade causadas pela rápida expansão de aplicações complexas de inteligência artificial (IA). Empresas como Scaleway e Oracle estão na vanguarda dessa tendência, adotando abordagens de inferência de IA baseadas em CPUs que reduzem significativamente a dependência das tradicionais GPUs. Essa mudança não apenas fomenta práticas mais sustentáveis, mas também demonstra a capacidade das CPUs de lidar de forma eficiente com tarefas exigentes de IA.
Para exemplificar, a Oracle conseguiu operar com êxito modelos de inteligência artificial generativa com até sete bilhões de parâmetros, como o modelo Llama 2, de forma direta em CPUs. Essa estratégia mostrou eficiência energética notável e vantagens em termos de poder computacional, estabelecendo um padrão para lidar de maneira eficaz com as demandas de trabalho modernas de IA sem um consumo excessivo de energia.
Juntando processadores com requisitos de performance e eficiência energética.
Dada a maior eficiência energética das CPUs na execução de tarefas de inteligência artificial, é importante pensar em como incorporar essas tecnologias nos data centers já existentes. A incorporação de novas CPUs requer uma análise cuidadosa de diversos aspectos fundamentais para garantir que o desempenho e a eficiência energética sejam maximizados.
- Alta eficiência de uso: Escolha uma unidade de processamento central que evite a competição por recursos e elimine os gargalos de tráfego. As características principais incluem um alto número de núcleos, que auxilia na manutenção do desempenho sob cargas intensas. Isso também promove o processamento altamente eficaz de tarefas de inteligência artificial, oferecendo melhor eficiência por watt e contribuindo para a economia global de energia. A CPU também deve oferecer quantidades substanciais de cache privado e uma arquitetura que suporte núcleos de execução única.
- Características especiais da Inteligência Artificial: Escolha processadores que vêm com funcionalidades integradas projetadas para lidar com tarefas de IA, tais como suporte para formatos numéricos utilizados comumente na IA, como INT8, FP16 e BFloat16. Essas características possibilitam uma execução mais eficiente de atividades relacionadas à IA, o que resulta em melhor desempenho e economia de energia.
- Considerações financeiras: Optar por soluções com base em CPU pode ser uma opção mais rentável em comparação com a manutenção ou expansão de sistemas que utilizam GPU, principalmente devido ao menor consumo de energia e às necessidades reduzidas de resfriamento das CPUs.
- Simplicidade na integração: As CPUs proporcionam uma maneira fácil de aprimorar as capacidades do data center. Diferentemente das exigências complicadas para a integração de GPUs de alta potência, as CPUs frequentemente podem ser incorporadas à infraestrutura de data center já existente, como sistemas de rede e energia, de forma simples, facilitando a transição e diminuindo a necessidade de alterações extensivas na infraestrutura.
Focando nessas considerações essenciais, podemos garantir um equilíbrio eficaz entre o desempenho e a eficiência energética em nossos data centers, assegurando que tenhamos uma infraestrutura econômica e preparada para atender às exigências computacionais das futuras aplicações de Inteligência Artificial.
Desenvolver a tecnologia de processamento para inteligência artificial.
As parcerias de inteligência artificial na indústria, como a AI Platform Alliance, têm um papel essencial no avanço da tecnologia de processadores para aplicações de IA, com o objetivo de aprimorar a eficiência energética e o desempenho por meio de colaboração. Essas alianças unem diversos parceiros de diferentes áreas da tecnologia – como CPUs, aceleradores, servidores e software – para criar soluções compatíveis que enfrentam desafios específicos da inteligência artificial. Esse esforço abrange desde a computação em borda até grandes centros de dados, assegurando que as implementações de IA sejam eficazes e sustentáveis.
Essas parcerias são especialmente eficazes para desenvolver soluções personalizadas para diversas áreas da inteligência artificial, como reconhecimento visual, edição de vídeo e inteligência artificial criativa. Ao unir expertises e tecnologias de diferentes empresas, essas colaborações buscam criar soluções mais avançadas que oferecem um desempenho ótimo e uma eficiência energética excepcional.
Os esforços colaborativos, como a AI Platform Alliance, impulsionam a criação de novas tecnologias de processamento e sistemas projetados para lidar de maneira eficaz com as exigências das cargas de trabalho de inteligência artificial. Essas inovações resultam em economia de energia e melhoria no desempenho das aplicações de IA, demonstrando os benefícios da cooperação entre empresas para impulsionar avanços tecnológicos.
Jeff Wittich ocupa o cargo de diretor de produtos na empresa Ampere Computing.
Lo siento, pero necesito que proporciones un texto específico para poder parafrasearlo. ¿Puedes darme algo más concreto para trabajar?
O AI genética A Insights é um espaço onde líderes de tecnologia, incluindo fornecedores e outros colaboradores externos, podem explorar e debater os desafios e oportunidades da inteligência artificial generativa. A variedade de conteúdos disponíveis inclui desde análises aprofundadas sobre tecnologia até estudos de caso e opiniões especializadas. A seleção dos temas é feita com base no público tecnicamente sofisticado da InfoWorld. A InfoWorld não garante a publicação de conteúdos com fins de marketing e reserva o direito de editar todos os materiais contribuídos. Para entrar em contato, envie um e-mail para doug_dineley@foundryco.com.