O peixe morre pela boca, já dizia minha sogra, manezinha de Florianópolis.
Você não precisa de mais uma explicação sobre o que é o R1 da DeepSeek, o que é a DeepSeek, e como isso é importante para o momento atual do desenvolvimento em IA no mundo. Quero propor uma outra perspectiva: Você foi enganado.

Opensource, open weights, open research, open innovation. Esse é o maior avanço que uma abordagem de pesquisa pode trazer para o mundo no momento atual de loucura da IA. Mesmo com alguns míseros milhões de dólares investidos, se utilizando da pesquisa mundial em Inteligência Artificial, uma equipe foi capaz de inovar criando soluções para as restrições de budget e infraestrutura que possuíam.
Quando um executivo diz, numa conferência, que a grande saída para o mundo é gastar mais dinheiro com infraestrutura, desconfie. Seja cético ao extremo. Todo o interesse organizacional está no relatório trimestral que apresenta uma valorização aparente das ações da companhia, e o CEO vai dizer qualquer coisa para seguir com as ações crescendo. Não necessariamente mentir, mas COM TODA CERTEZA, impulsionar a expectativa do mercado para seguir com os múltiplos acelerados de sempre. É assim que empresas se sustentam valendo mais de 1 Trilhão de dólares.

Para que essas empresas sigam a trajetória de crescimento perpétuo, é necessário um objetivo inalcançável e um inimigo comum a ser batido. O inimigo da vez: agregar valor ao acionista. Nenhuma equipe com 5 bilhões por ano pra gastar vai criar soluções que não sejam baseadas no uso de dinheiro para comprar maior poder computacional. Para justificar esse custo, só fazendo FUD: fear, uncertainty and doubt. Risco existencial nacional, risco de perder a corrida para AGI, posicionamento na liderança global - quando no fundo, toda a discussão dos últimos anos sobre corrida para AGI, sempre foi sobre garantir que as ações continuassem super valorizadas.
R1 não é uma surpresa: era inevitável. Já no meu último post em Dezembro, sobre o que esperar para 2025, eu dizia que a alternativa opensource era a mais interessante à loucura de construção desenfreada de datacenters para atender uma demanda impossível de poder computacional. Mesmo assim, essa onda não apenas acelerou: ela atropelou qualquer resquício de sanidade no mercado, com a ideia do Projeto Stargate, anunciado também na semana passada.
A cobertura dessa última semana foi mais uma final de copa do mundo de futebol do que uma discussão séria sobre o que aconteceu: DeepSeek demonstrou o grande problema no paradigma dominante de desenvolvimento de Inteligência Artificial.
O problema, inclusive, que já está sendo avisado há pelo menos 1 ano!
Até o momento, OpenAI e seus pares tem tentado convencer o público e políticos que escalar modelo de AI indefinidamente é a melhor forma de alcançar "AGI" (do jeito deles, obviamente). Independentemente das consequências catastróficas em usar toda a água e energia disponível na Terra para tal.
Como escreveu perfeitamente Karen Hao:
O caso para aumentar a escala foi sempre baseado mais em negócio do que em ciência. Cientificamente, não existe nenhuma lei da física que diz que avanços da IA precisam vir de maior escalada ao invés de abordagens alternativas utilizando os mesmos ou menos recursos. Mas para o Negócio, essa abordagem é perfeitamente utilizada para criar relatórios trimestrais e planejamento de receita leva a um caminho claro para eliminar a competição: Mais Chips.
O que R1 demonstra é que os argumentos gerais de busca de Escala Infinita em detrimento do planeta não se sustentam, e que nós devemos sim questionar essa expectativa.
Para mim, esse novo modelo de Reasoning, Aberto e Público, é a melhor possibilidade para uma evolução séria e adoção real de ferramentas de IA sem as amarras corporativas que tem o único objetivo de coletar nossas informações para treinar os próprios modelos.
Poder rodar um modelo de bom desempenho em seu próprio computador local, sem que você tenha que pagar por um serviço que vai ter acesso a todas as suas informações é o melhor caminho.
E nisso o Satya Nadella talvez esteja certo, ao citar o paradoxo de Jevons: o ganho de eficiência e a possibilidade commoditização de uma solução viável economicamente de LLM não vai fazer a demanda diminuir, mas aumentar violentamente.
Além disso: é o melhor momento para equipes brasileiras de pesquisa e desenvolvimento se debruçarem sob o artigo descrevendo o processo de Reinforcement Learning e Estabilização Numérica encontrado pela equipe da DeepSeek para aplicar em seus próprios projetos. Não duvido se a própria Meta e OpenAi não estão nesse momento avaliando as possibilidades do uso das mesmas estratégias geradas pela equipe da DeepSeek.
DeepSeek R1 não precisam nem ser bom o suficiente para se igualar ao demais Modelos de Fronteira. Ele já realizou mais do que qualquer outra abordagem poderia fazer: abrir os olhos do mercado. Espero que eles continuem abertos.
Ciência se faz com compartilhamento de informações, de forma aberta e colaborativa. É desse intercambio de resultados que podemos ter alguma chance de avançar nossa própria capacidade tecnológica. Da mesma forma que a OpenAi se valeu do estudo da Google Brain, no já famoso paper Attention is All you need, DeepSeek se vale de toda a pesquisa até o momento para inventar soluções inovadoras, apesar da limitação de budget e poder computacional. A necessidade é, afinal, a mãe de todas as invenções.
Não duvido que nesse momento as equipes da Meta, OpenAI, Claude e demais esteja destrinchando o código disponível no Github para entender, e incorporar as soluções com Reinforcement Learning e Estabilização Numérica propostas pelo DeepSeek. Pesquisa aberta beneficia a todos.
Além disso: Modelos menores se tornam muito mais acessíveis e agradáveis com essa nova abordagem de desenvolvimento e Edge AI:
Nvidia tem ficado rica vendendo pás extremamente bem desenhadas, para uma corrida do ouro que talvez nós não devêssemos nem estar participando. Esse é o maior benefício de um modelo open source com essa capacidade e resultado.
O problema: isso não afeta positivamente o bottom line.
Você também pode rodar os modelos localmente e conectá-los ao seu Obsidian:
Comments