Fábio Santos
Os dados do PISA –Programa Internacional de Avaliação dos Estudantes– de 2018 revelam um contraste alarmante: apenas 2% dos estudantes brasileiros atingiram os níveis mais altos de proficiência em matemática, enquanto na China esse índice foi de 44%.
Tal disparidade reforça a urgência de investimentos estratégicos em educação. Acredito que talvez seja essa a verdadeira vantagem competitiva por trás do DeepSeek: uma equipe majoritariamente formada por talentos das universidades chinesas, moldados em um ecossistema que valoriza ciência e tecnologia.
O modelo de inteligência artificial (IA) chinês utiliza uma abordagem que combina duas técnicas principais: Mixture-of-Experts (MoE) e Reinforcement Learning (RL). A MoE (“mistura de especialistas”) é uma arquitetura de aprendizado de máquina que submete uma tarefa complexa a vários modelos especializados.
No lugar de utilizar um único modelo generalista, essa arquitetura cria submodelos que são ativados de acordo com os dados de entrada do usuário. Como apenas alguns especialistas são acionados por vez, grandes modelos podem ser treinados e inferidos de maneira mais eficiente.
Já o RL (“aprendizado por reforço”) é uma técnica que utiliza um agente para tomar decisões em um ambiente dinâmico. Podemos fazer um paralelo com uma criança aprendendo a andar: ela experimenta o ambiente até caminhar, sendo a recompensa o ato de andar. O DeepSeek utiliza essa metodologia posterior ao treinamento. Nesse caso, o RL melhora a capacidade de “raciocínio do modelo”.
Em 2022 os EUA impuseram restrições à exportação para a China de GPUs (unidades de processamento gráfico, componentes essenciais para o treinamento de modelos avançados de IA). Em teoria, essa limitação reduz significativamente a capacidade computacional disponível. Por exemplo, estima-se que o treinamento do GPT-4 tenha exigido cerca de 10 mil GPUs A100. Diante desse cenário, como competir sem acesso à mesma escala de recursos computacionais?
A resposta está na concepção de arquiteturas e algoritmos capazes de maximizar o desempenho mesmo com recursos limitados. Essa combinação de técnicas permitiu que o DeepSeek reduzisse significativamente o custo e o tempo de treinamento. Eles utilizaram 2.048 GPUs Nvidia H800, a um custo de 5,5 milhões de dólares —menos de 1/10 do gasto estimado para o treinamento do GPT-4. Além disso, o código do DeepSeek é aberto, o que significa que qualquer pessoa, inclusive cientistas de outras nacionalidades, pode acessá-lo e contribuir para o seu desenvolvimento.
Agora, voltando ao Brasil, fica a pergunta: nós, brasileiros, seríamos capazes de um feito como esse? Sem dúvida. O país conta com diversos centros de pesquisa de excelência, como o Laboratório Nacional de Computação Científica, o Centro de Inteligência Artificial da USP, o Instituto de Matemática Pura e Aplicada, o Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia (COPPE/UFRJ), o Instituto Nacional de Ciência e Tecnologia em Simulação Clínica e Realidade Virtual (INCT Screens) da UFC, entre outros, que impulsionam a inovação nessa área.
Então, novamente ecoa a pergunta: o que falta para o Brasil? Para nós, cientistas, a resposta é clara: nosso maior obstáculo tem sido o obscurantismo e o negacionismo científico que se intensificou no governo Bolsonaro.
O caminho para o desenvolvimento de uma DeepSeek brasileira —também de código aberto— passa pelo investimento em pessoas capacitadas para conceber novas abordagens algorítmicas. No governo atual, o Plano Brasileiro de Inteligência Artificial (PBIA) surge como uma semente promissora. No entanto, apenas uma política pública não será suficiente se não houver um compromisso sólido e contínuo com a educação de base.
O desenvolvimento de um ecossistema de inovação forte exige uma formação matemática sólida. Isso significa estabelecer incentivos para que talentos brasileiros permaneçam no país, tenham acesso a recursos adequados e possam transformar suas ideias em avanços concretos.
A resposta, portanto, é simples, mas não simplória: a solução está no investimento em nós, brasileiros.
*
Fábio Santos é engenheiro, pesquisador no Laboratório Nacional de Computação Científica e professor no Programa de Engenharia de Sistemas e Computação da COPPE/UFRJ.
O blog Ciência Fundamental é editado pelo Serrapilheira, um instituto privado, sem fins lucrativos, de apoio à ciência no Brasil. Os textos de opinião publicados no blog não refletem necessariamente a opinião do instituto.
LINK PRESENTE: Gostou deste texto? Assinante pode liberar sete acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.