Cloud

Todos na área de computação em nuvem estão buscando rapidamente uma estratégia inteligente.

KubeCon + CloudNative Con acaba de encerrar com outro avanço significativo em inteligência artificial generativa. Qual é a importância desse avanço para a empresa?

Generative AI, building blocks, learning
Imagem: stephmcblack/Burst

A inteligência artificial generativa foi destacada como tema principal na conferência KubeCon + CloudNativeCon deste ano. Em muitos eventos de computação em nuvem recentes, a GenAI se destacou nas palestras principais, trazendo insights sobre o desenvolvimento das plataformas nativas de nuvem.

A maioria das empresas que se apresentaram na KubeCon afirmou que estão usando plataformas nativas de nuvem para dar suporte a aplicações de inteligência artificial generativa e modelos de linguagem grandes. Em vez de apresentar uma explicação sólida das vantagens estratégicas de sua abordagem, o discurso foi mais no sentido de “nós também!”. Havia uma sensação de urgência, principalmente vinda de empresas que inicialmente menosprezaram a computação em nuvem, mas que depois tiveram que correr para alcançar os concorrentes. Elas não querem passar por isso novamente.

Quais são as novidades no ambiente nativo da computação em nuvem?

Primeiramente, as estruturas desenvolvidas especificamente para a nuvem são fundamentais para a computação em nuvem, não apenas por sua agilidade. Elas representam um meio de criar e lançar aplicativos que operam de maneira eficiente em ambientes de nuvem. A abordagem nativa da nuvem utiliza contêineres e a orquestração deles como bases, incorporando uma gama de recursos tanto padrão quanto personalizados.

Quais são as alterações necessárias em cloud-native para suportar a inteligência artificial generativa? Existem desafios específicos com a IA generativa, conforme discutido no evento. Ao contrário do treinamento de modelos de IA convencional, onde GPUs menores podem ser adequadas para inferência, os LLMs necessitam de GPUs de alta potência em todas as fases, inclusive durante a inferência.

RELACIONADO:  Rodando programas .NET sem a necessidade de um servidor na plataforma da AWS Lambda.

A procura por unidades de processamento gráfico (GPUs) deve aumentar significativamente, devido aos obstáculos relacionados à disponibilidade e à sustentabilidade ambiental. Isso resultará em um aumento no consumo de energia e recursos, o que pode não ser favorável à sustentabilidade, mas pode ser necessário para o avanço da inteligência artificial generativa.

Como mencionei anteriormente, os recursos exigidos para nutrir esses animais de IA são significativamente maiores em comparação com os sistemas tradicionais. Essa sempre foi uma desvantagem da inteligência artificial e continua sendo um fator importante que as empresas devem levar em conta.

Será que a arquitetura e as abordagens nativas de desenvolvimento na nuvem podem resolver esse problema? A eficiência no uso de GPUs tornou-se uma prioridade para Kubernetes, com a Intel e Nvidia recentemente anunciando compatibilidade com a versão 1.26 do Kubernetes para suportar alocação dinâmica de recursos. Utilizando a versão 1.26, é possível melhorar a distribuição de cargas de trabalho para GPUs, o que ajuda a lidar com recursos de infraestrutura em nuvem compartilhados e a reduzir a demanda por recursos de processamento.

Os testes de laboratório prometem ser cativantes, pois revelaram diferenças na eficiência de características arquitetônicas. É crucial identificar rapidamente essas discrepâncias para que a inteligência artificial generativa possa gerar valor para o negócio sem demandar investimentos vultosos. Além disso, a otimização do consumo de energia terá um impacto mais favorável na sustentabilidade do que o desejado.

Será que a fonte aberta pode ser uma solução para o resgate?

As empresas devem levar em conta a importância das soluções de código aberto, como as integradas na Cloud-native, que podem abrir caminho para a utilização efetiva da AI generativa. A escolha entre soluções de código aberto e as de fornecedores de tecnologia específicos envolve diferentes custos e riscos que as empresas devem avaliar cuidadosamente.

RELACIONADO:  Utilizando modelos de aprendizado de máquina de reconhecimento facial do tipo Hugging Face no Azure.

A utilização de software de código aberto pode ser vista como uma crença forte por algumas empresas, que optam exclusivamente por essas soluções, ao passo que outras as evitam por completo. Ambos os grupos têm motivos válidos, mas talvez a abordagem mais eficaz esteja em encontrar um equilíbrio. Ao embarcar na jornada da inteligência artificial generativa, é importante manter a mente aberta e considerar todas as tecnologias como possíveis soluções.

Estamos em um momento crucial em que as decisões que tomamos agora terão impacto em nossa eficiência e valor nos próximos cinco anos. Semelhante às decisões precoces sobre computação em nuvem, algumas das quais resultaram em diferenças significativas entre expectativas e realidade, será necessário corrigir esses erros por um longo período. É desejável evitar a repetição dessas lições com inteligência artificial generativa.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Verifique também
Close
Back to top button