Consultoria prevê queda no custo de IA, mas alerta para aumento no gasto total

Consultoria prevê queda no custo de IA, mas alerta para aumento no gasto total

Redução será impulsionada por avanços tecnológicos, mas aumento no uso e na complexidade das aplicações pode elevar o gasto total com IA

IA – O custo de uso da inteligência artificial generativa deve cair de forma significativa nos próximos anos, segundo projeção do Gartner. A consultoria estima uma redução superior a 90% no custo de inferência em modelos de linguagem de grande porte (LLMs) com 1 trilhão de parâmetros até 2030, em comparação com 2025.

De acordo com a análise, essa queda será impulsionada por uma combinação de fatores tecnológicos, como melhorias em semicondutores, evolução na arquitetura dos modelos, maior eficiência no uso de chips e a adoção crescente de silício especializado e computação de borda.

LEIA: Justiça dos EUA condena Meta e Google por vício de adolescentes em redes sociais

O Gartner também projeta que, até o fim da década, modelos desse porte poderão ser até 100 vezes mais eficientes em custo em relação aos primeiros sistemas equivalentes desenvolvidos em 2022.

Para chegar a essas estimativas, a consultoria considerou dois cenários distintos de infraestrutura. Um deles é baseado em chips de última geração (frontier), enquanto o outro combina tecnologias mais novas com semicondutores legados (legacy blend). Neste segundo cenário, os custos permanecem mais elevados devido à menor capacidade computacional disponível.

Apesar da tendência de queda no custo unitário dos tokens, unidades de dados processadas pelos modelos de IA generativa, o Gartner alerta que essa redução não será totalmente repassada às empresas. Além disso, aplicações mais avançadas, como sistemas baseados em agentes, tendem a demandar um volume significativamente maior de tokens por tarefa, variando entre cinco e 30 vezes o consumo de um chatbot tradicional.

Esse aumento no uso pode neutralizar parte dos ganhos de eficiência. Mesmo com a redução no preço por token, o crescimento no volume de consumo deve pressionar os custos totais de inferência. A avaliação é de que a expansão do uso da IA generativa, somada à maior complexidade das aplicações, pode levar a um aumento no gasto geral com processamento.

Diante desse cenário, o Gartner aponta que o diferencial competitivo estará nas plataformas capazes de orquestrar diferentes modelos de forma eficiente. A recomendação é direcionar tarefas recorrentes para modelos menores e especializados, enquanto modelos maiores devem ser utilizados apenas em aplicações que exijam raciocínio mais complexo e ofereçam maior retorno financeiro.

(Com informações de TI Inside)
(Foto: Reprodução/Freepik/Frolopiaton Palm)

Leia mais