Blog

Explorando as capacidades da inteligência artificial geradora.

Durante o processo de aprendizado com inteligência artificial e modelos de linguagem de grande escala, é recomendável explorar diversas possibilidades, porém é importante analisar os resultados com cautela, principalmente ao utilizá-los na escrita de código.

crash test dummies
Imagem: stephmcblack/DepositPhotos

Para obter o máximo benefício das ferramentas generativas de Inteligência Artificial, como o GitHub Copilot ou ChatGPT, Simon Willison, fundador da Datasette, sugere que é necessário estar aberto a quatro perspectivas conflitantes. Ele destaca que a IA não é nem totalmente benéfica nem totalmente prejudicial, nem uma mera moda passageira nem a resposta para todos os problemas. De acordo com Willison, a peculiaridade está no fato de que todas essas visões estão corretas ao mesmo tempo.

Pode haver diferentes resultados dependendo da maneira como você utiliza ferramentas de IA e das suas expectativas. Se você espera que um assistente de geração de código, como o AWS CodeWhisperer, produza código perfeito que você possa utilizar sem alterações, ficará desapontado. No entanto, se você utilizar essas ferramentas para complementar as habilidades do desenvolvedor, poderá se surpreender positivamente.

“Android Paranoico”

Muitas empresas adquiriram a GenAI com grande expectativa, acreditando que seria a solução milagrosa para seus problemas. Segundo o analista da Gartner, Stan Aronow, uma pesquisa recente da Gartner revelou que quase 70% dos líderes empresariais acreditam que os benefícios da GenAI superam os riscos, embora tenham uma compreensão limitada da sua aplicabilidade e riscos específicos. Se a estratégia de negócios se resume a apenas parecer interessante no Twitter, é provável que enfrentem consequências negativas.

Em relação aos modelos de linguagem de grande escala (LLMs), Willison compara a situação a um cenário fictício em que alienígenas entregaram um dispositivo misterioso à humanidade há três anos. Desde então, os pesquisadores têm explorado e experimentado para descobrir seu potencial, reconhecendo que ainda estão em uma fase de tentativa e erro, apesar de reconhecerem a importância e os limites da inteligência artificial (AI) e dos LLMs.

RELACIONADO:  Fluxo de trabalho de motor para scripters devops: Vazão

De acordo com Willison, o desafio (e a possibilidade) dos LLMs é que muitas vezes não fornecem exatamente o que foi solicitado. Portanto, a engenharia rápida tem sido desenvolvida para explorar maneiras de obter dos LLMs mais do que desejamos e menos do que não desejamos. Às vezes, ao empregar certos truques, é possível descobrir novas habilidades e oportunidades inesperadas.

Todos estamos em busca desse “segredo simples”, o que me leva à programação.

Todas as coisas no local apropriado.

Alguns afirmam que os assistentes de codificação podem se tornar valiosos para desenvolvedores menos experientes no futuro, mas atualmente isso não é uma realidade. Isso se deve à necessidade de ter experiência para avaliar corretamente a precisão dos resultados gerados por essas ferramentas. Willison argumenta que obter os melhores resultados com esses assistentes requer um amplo conhecimento e experiência, muitas vezes baseados na intuição.

Os desenvolvedores podem descobrir truques de programação por meio de tentativa e erro, mas há áreas que não são adequadas para a inteligência artificial no momento. Mike Loukides, da O’Reilly Media, destaca que é essencial manter o controle da complexidade, pois os humanos são mais capazes de lidar com isso do que as máquinas. Por exemplo, é difícil para um desenvolvedor pedir a um modelo de linguagem natural para simplificar o código, pois isso pode resultar em simplificações superficiais que tornam o código mais difícil de entender. Enquanto os computadores não se preocupam com a complexidade do código, os humanos que precisam mantê-lo e compreendê-lo no futuro precisam considerar esse aspecto.

Estamos muito avançados no desenvolvimento da inteligência artificial, embora ela exista há décadas. Na área da tecnologia, tendemos a nos adiantar, considerando a computação em nuvem como algo comum, embora represente apenas cerca de 10% dos gastos em TI. Mesmo com grandes investimentos em IA, ainda corresponde a uma pequena parte, cerca de 0,01%.

RELACIONADO:  Qual será o próximo passo em relação à observabilidade?

Na perspectiva de Willison, é hora de experimentar os vários LLMs e suas respectivas ferramentas de codificação. Devemos focar em identificar as capacidades e limitações de cada um, explorando como podemos utilizar tanto seus pontos fortes quanto suas fraquezas a nosso favor, em vez de esperar que realizem todo o trabalho por nós.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button