O que esperar do próximo ano?
É muito difícil fazer previsões, especialmente sobre o futuro.Niels Bohr
Costumo direcionar meu estudo baseado no que acredito que vai acontecer nos próximos anos, numa tentativa bem furada de prever o que pode acontecer com o mercado de tecnologia, com um belo chute educado.
Do que vi esse ano, acredito que podemos ter uma ideia de como o mercado vai seguir em 2025, e o que podemos esperar do ano.
Como em 2023 com GPT, e 2024 com "IA pra tudo" e crescimento dos multi modais, o próximo ano será carregado de hype e sonhos de AGI, mas com muito mais exemplos do bom e do ruim dos modelos de IA.
Primeira previsão: Não teremos AGI em 2025
Como eu enxergo 2025 sobre a perspectiva de tecnologia e IA:
Pretendo escrever sobre cada um dos temas no decorrer do ano, mas é importante ter uma lista que vai servir de parâmetro para meu entendimento e visão sobre o mercado durante o ano.
A intenção não é exaurir as possibilidades, apenas apontar um caminho, totalmente enviesado pelas minhas próprias escolhas.
A Hype Machine tem um novo alvo - Test-Time Compute
Modelos como o o3, Claude 3, Perplexity AI serão o foco do primeiro semestre inteiro, possivelmente do ano. É uma mudança importante do paradigma Train-Time Compute (gasta $ pra treinar), para Inference-time Compute (gasta $ pra pegar a resposta) ou Test-time Compute. O assunto é interessante e tenho me aprofundado a respeito. Vale a pena entender melhor. Isso vai impactar todos os modelos existentes.
Os resultados apresentados pela OpenAI sobre o o3 são sim impressionantes. Test-time compute é um salto de performance real. Apesar disso, foi apresentado um modelo gastando 1000usd e 15min por tentativa no prompt. 300k usd gastos pro anuncio somente em compute! Inviável e provavelmente sem uso real para clientes que não tenham dinheiro infinito (tipo o exército americano). Mesmo com suspeitas de contaminação do benchmark e nenhum avaliador externo, pode esperar uma locomotiva de marketing nos próximos meses.
GenAI tomando conta da Geração de Conteúdo
Já esta acontecendo, e só vai piorar: conteúdo generativo em Instagram, Soundcloud, Spotify, Youtube e Tiktok impactarão todo o modelo de negócio de engajamento nas redes sociais. Veremos os primeiros movimentos para conter ou diferenciar o que é produzido por humanos.
Busque qualquer assunto online sobre IA, crypto, ou produtos tech para fazer o teste: invariavelmente você acaba caindo em canais com videos gerados por IA, que regurgitam obviedades e mediocridade sem nenhum valor real. Aqui está um exemplo:
Ferramentas como HeyGen, CharacterAI, NotebookLM, Whisper, e tantas outras ficarão ainda melhores, sem serem uncanny. Consumo rápido de conteúdo será atropelado por canais farmando engajamento.
A Teoria da Internet Morta está cada vez mais se tornando realidade. Se você trabalha e depende de geração de conteúdo, sinto muito.
"Micro Modelos" com uso especializado. Small Language Models (SLMs)
É um fato que LLMs de larga escala tem um limite, e que estamos chegando perto dele, por isso uma mudança concreta para a busca de outras abordagens pra ampliar a capacidade desses modelos (RAG, IFC, etc). Enquanto você ainda usa produtos com o custo subsidiado por investidores e donos do Capital de Nuvem, tudo bem. Mas isso pode mudar ano que vem.
Performance e Custo determinam a adoção em escala de LLMs, e neste quesito, é bem questionável a viabilidade do custo. Small Language Models (SLMs) são uma possibilidade bem viável.
Com a evolução de performance de modelos com poucos bilhões de parâmetros, veremos mais soluções usando modelos especializados para a sua demanda: análise jurídica, visão computacional, escrita jornalística, geração de videos.
LLMs mais Caras
Algumas previsões:
200 usd/mês é um teste para OpenAI avançar na busca por lucratividade. Veremos mais mudanças de preço em todas as plataformas
o3 apresentará ainda mais opções de upgrade de MRR para a empresa, e por isso mesmo o último demo demostra a performance de modelos 1000x mais caros que o preço atual
Concorrentes vão embarcar na mesma. Espere uma busca significativa por diferenciação de modelos pro, premium, ultra para todos os fornecedores.
Mesmo com ganhos de escala, reasoning models são inviavelmente mais caros para o público, e serão usados em parte pro grandes empresas para alavancar vendas de infraestrutura - "com mais compute você consegue resolver qualquer problema! 🤡"
Open-source FTW
Como o mercado é bastante dinâmico, tem sido um desafio acompanhar tudo que tem acontecido. Mas modelos opensource, e principalmente Open Weights, tem se tornado uma mega possibilidade de uso para soluções.
E nesse quesito, a chinesa DeepSeek, é uma das mais promissoras, competindo de frente com os melhores modelos atuais. Além disso, ela está realmente demonstrando resultados para reduzir o custo de treinamento, e publicando tudo no github. Opensource talvez seja a saída para vencer nesse mercado.
AI Agents quer você queira ou não
2024 foi o ano da especulação sobre agentes. 2025 será o ano de implementações em média escala. O amadurecimento em Governança e em ferramental de orquestração pode impulsionar o uso experimental para soluções reais
Mídia especializada que já canta a bola há algum tempo, e espero ver mais cases, especialmente mais complexos e substanciais. Agora é a vez dos grandes canais falarem a respeito
Riscos inerentes ao modelo e eventuais problemas serão tratados com maior escrutínio (veremos mais casos de pessoas perdendo a vida ou sendo enganadas)
Dar capacidade de decisão para agentes é um erro, especialmente com os riscos de segurança que cito abaixo
Segurança e impactos
Estude segurança para LLMs e Agentes, a integração das ferramentas a sistemas internos de missão crítica ou dados sigilosos empurrada por big techs esconde um risco inerente à arquitetura de LLMs. Veremos isso na prática em 2025
Junte a capacidade de decisão atribuída a agentes (como a automação de desktop do Claude), e temos a receita para o desastre.
Particularmente o que me fascina são os Vermes de IA (AI Worms), e a capacidade de infectar uma LLMs apenas interagindo com o prompt, e ser capaz de impactar qualquer outro usuário na sequência. Zero-click Worms que vazam informação ou mentem para os usuários já são uma realidade.
Assim como o caso da Air Canada e de Sewell Garcia, veremos a multiplicação de casos durante o ano.
Regulação, Regulação e Regulação
Imagino que ninguém quer viver em um mundo em que suas interações digitais sejam através de máquinas se passando por humanos, e a única forma de garantir isso é regulando. Independente da opinião sobre regulação, teremos um ano inteiro para se preparar para o trabalho sendo realizado no mundo.
O medo inerente a modelos opensource, devido às possibilidades que um modelo capaz de gerar imagens e textos convincentes, vai empurrar as negociações para o uso de soluções de IA
Em 2025, a medida que OpenAI cresce, teremos mais processos contrários ao uso de propriedade intelectual sem autorização que todos os modelos comerciais fazem. Espero podermos compensar artistas que perderam muito dinheiro nesse processo.
Marco Regulatório da IA do Brasil. Apesar de esvaziado em comparação com o texto inicial, o Marco segue para a aprovação na Câmara, e provavelmente veremos o resultado em 2025. Ainda falta uma posição clara quanto às Violações do marco, e a eventual penalidade que empresas estarão submetidas. MAs é um começo
Além da Europa, acredito que outros países e blocos econômicos se movimentarão nesse sentido. Mas resultado real só virá impulsionado pela perda financeira que Estúdios, Veículos de Mídia e Grandes empresas acreditam ter sofrido. Infelizmente.
Medicina e Saúde
Baumol Effect coloca a saúde na mira de qualquer empresa de tecnologia querendo alavancar ganhos. Também conhecido como Doença de Custo de Baumol, apesar do pouco ganho em produtividade no decorrer dos anos, os salários sempre sobem: enfermagem e medicina, como profissão, continua sendo muito próxima do que fazemos nos últimos 50 anos.
Mais exemplos como a UnitedHealth, suicídio de pessoas usando LLMs, diagnósticos errados e uso indiscriminado de ferramentas de transcript causarão sérios problemas.
Minha esperança é que veremos na saúde o primeiro esforço de responsabilização de empresas que incorporam ferramentas de IA na gestão de saúde. Enquanto tecnologistas não forem responsabilizados pelos erros da IA, dificilmente impactaremos positivamente o mercado.
Crimes Digitais
O maior resultado da Inteligência Artificial é a capacidade de enganar e roubar pessoas. Nenhuma outra tecnologia é tão produtiva a serviço de criminosos. 2025 vai ser o ano dos crimes digitais com IA.
Se familiarize com a abordagem Zero Trust para qualquer interação digital.
Deep fakes se tornam padrão. Sem maior regulação e responsabilização, veremos a grande mídia utilizando a tecnologia em propagandas, normalizando seu uso ainda mais
Golpes digitais já são comuns, e serão ainda mais indistinguíveis da realidade para pessoas comuns. Seu tio do interior vai receber uma ligação sua, com a sua voz, pedindo dinheiro, em escala não imaginável.
Texto, Imagem e audio a serviço de Fake news. Já acontece hoje, e a escala de uso só acelera
Será mais comum casos em escolas e o uso de Deep Fakes para criação de pornografia usando imagens de professores, alunos e funcionários
Ferramentas subsidiadas, modelos opensource e avanço tecnológico vão transformar esse tema num dos principais de 2025
Onde podemos ver resultados reais
Mais empresas seguirão o exemplo do Bluesky em declarar que não usam o conteúdo da rede para treinar IA. Além disso, mais produtos tomarão partido quanto a não usar IA generativa. A onda crescente de insatisfação de usuários vai obrigar empresas a se posicionarem.
Acredito que veremos o principal impacto, e que provavelmente será a primeira leva real de demissões: BPM com IA. Automação de processos, atendimento de primeiro nível e principalmente atendimento ao cliente serão impactados:
Impacto de Empregos, principalmente no setor criativo - que já está acontecendo com a geração automática de imagens.
RPA para Entrada de Dados acelerado: soluções que resolvem cadastro geral de informações começarão a ser implantados
Copilots e consolidação de ferramentas gerais para desenvolvimento
Uso de Visão Computacional para segurança em níveis mais locais (uma area interessante de investir)
Apesar da minha aversão ao uso de GenAI para conteúdo (meus textos tendem a ser mais aprofundados do que uma IA consegue me entregar), é inegável o fato de que notícias, institucional, blogs e conteúdos gerais usam indiscriminadamente essas ferramentas para atuação. O resultado está ai...
Se você chegou até aqui, espero que a leitura tenha sido proveitosa. Nos vemos novamente em Dezembro/2025 para validar se alguma coisa aqui fez sentido e aconteceu.
Comments