Há poucas semanas, Yann LeCun, ganhador do prêmio Turing em 2018 (considerado o Nobel da computação), deixou seu posto de cientista-chefe da Meta para abrir a sua própria empresa.
Nos últimos anos, LeCun coordenava uma equipe dentro da Meta com recursos praticamente ilimitados e com liberdade para testar ideias sem pressão para conectá-las a produtos, ou seja, um ambiente aparentemente ideal para um cientista trabalhando nessa área. Em um momento em que a Meta investe fortemente em IA, a pergunta que vem a mente é: por que LeCun deixaria a Meta para criar a sua própria empresa?
Essa pergunta foi discutida em vários veículos da imprensa internacional nas ultimas semanas, como por exemplo, pela BBC e pelo Wall Street Journal. A resposta é: LeCun não acredita na estratégia perseguida insistentemente pela Meta e por praticamente todas as chamadas “Big Techs”, a saber: a insistência em IA generativa e grandes modelos de linguagem (LLMs) como GPT, Llama, Gemini etc. como a tecnologia que nos levaria à superinteligência, e a continua aposta na “hipótese da escala”, ou seja, a ideia de mais computação (mais chips, mais data centers) e mais dados bastaria para que esses sistemas atinjam essa superinteligência.
LeCun tem proposto nos últimos anos um caminho completamente oposto. Para ele: a IA generativa é um beco sem saída e a “hipótese da escala” falhou, afinal, já há algum tempo que o aumento da computação e de dados nesses sistemas geram cada vez menos ganhos. Ele defende que precisamos de sistemas que tenham intencionalidade (objetivos e crenças sobre o mundo) e que possuam senso comum.
É para perseguir essas ideias que ele fundou sua nova empresa e precisou ir para Europa para buscar talentos que compartilhem essa mesma visão, visto que essa seria uma visão completamente heterodoxa não só dentro da Meta, mas de forma geral no Vale do Silício.
Na manchete do Wall Street Journal intitulada “Ele esteve certo sobre a IA nos últimos 40 anos. Agora ele acha que todo mundo está enganado”, LeCun é pintado como um gênio que esteve sempre certo e no contrafluxo da comunidade científica vendo o que ninguém mais vê.
LeCun fez contribuições fundamentais para computação, em particular, para o desenvolvimento das redes neurais profundas – apesar de também não as ter inventado –, e assim como seu ex-mentor, o prêmio Nobel de Física Geoffrey Hinton, ele realmente trabalhava na área de aprendizagem de máquina quando essa área era o patinho feio da IA.
No entanto, ele definitivamente não esteve sempre certo nos últimos 40 anos, não foi um visionário solitário em sua defesa dos chamados “modelos de mundo”, do senso comum, e em sua crítica à “hipótese da escala” e das limitações da IA generativa.
Eu mesmo já escrevi sobre isso várias vezes e em vários formatos, inclusive nesta coluna. Por exemplo, em um bate-papo que eu fiz em 2020 (acessível em inglês aqui) com Melanie Mitchell (autora de um dos meus livros preferidos sobre IA chamado “Inteligência Artificial: Um guia para o humano pensante”), conversamos um bocado sobre a importância de senso comum para sistemas artificiais e sobre a incapacidade de sistemas puramente baseados em dados de raciocinarem sobre situações inéditas.
Nem eu nem Melanie fomos pioneiros nessas ideias, longe disso. A ideia de senso comum para as máquinas existe desde o início da área na década de 50 do século passado, e a ideia de “modelo de mundo” tem quase 40 anos. LeCun, em contraste, defendia a IA generativa e a “hipótese da escala” até 2022.
Não estou fazendo aqui uma crítica a Yann LeCun – mais do que louvável é uma obrigação profissional de um cientista mudar de ideias quando se percebe errado. Meu foco aqui é a manchete do Wall Street Journal e o endeusamento de figuras como LeCun e Hinton na imprensa. Inclusive, como discuto aqui, julgo que o prêmio Nobel de Hinton resultou mais de um modismo do que de uma justificável contribuição à física.
O público leigo, que em sua maioria só se tornou consciente sobre Inteligência Artificial com a popularidade trazida por ChatGPT, obviamente não tem obrigação de saber nada disso. Mas a imprensa profissional não deveria fazer o seu dever de casa? E o comitê do Nobel não deveria ser imune a modismos?
O problema aqui é mais profundo. Estamos assistindo a uma crise que mistura aspectos de letramento científico, dilúvio de informações, mas também uma revolução no próprio processo de produção de ciência. Tudo isso em tempo real e com fortes implicações para a nossa capacidade de resolver problemas complexos e de maneira coletiva. Não é só o público leigo, investidores, políticos tentando formular legislação sobre IA e jornalistas que estão perdidos. Assim estão também os cientistas.
A ciência é um jogo fascinante, mas lento e meticuloso. O processo científico requer que ideias sejam validadas empiricamente, ou seja, que sejam testadas na realidade, repetidamente, em crescente escala, e de forma imparcial. Frequentemente, hipóteses que julgávamos obviamente verdadeiras são derrubadas pelos dados.
Por isso precisamos de dados de qualidade, abertos, acessíveis, reutilizáveis e passíveis de serem integrados com outros dados. É isso que permite que experimentos sejam reproduzidos e, assim, confirmados ou refutados por outros cientistas.
Além disso, o fazer científico é sempre coletivo. Uma vez confirmada uma hipótese, ela deve ser rigorosamente descrita em um artigo científico, revisado por outros cientistas e refinados em diversas interações. Somente esse processo de refinamento tipicamente leva de alguns meses até alguns anos.
Artigos científicos não são a mesma coisa que qualquer texto escrito por um cientista! Por mais brilhante que um cientista seja, é absurdo propor que alguém possa estar sempre certo por 40 anos. Na verdade, sem esse processo de experimentação, reprodução, escrutínio e revisão continua e sistemática, cientistas são fadados a produzir resultados falhos.
A pandemia de Covid-19 expôs vários elementos dessa crise. Se, por um lado, assistimos ao triunfo da ciência sendo capaz de produzir várias novas vacinas em tempo recorde para um vírus inédito, vimos também uma enxurrada de desinformação, bem como um dilúvio de textos científicos sem revisão por pares (os chamados “pre-print”), cujo valor como evidência cientifica pode se assumir inexistente.
Por exemplo, este texto da revista Nature reporta (em agosto de 2020) a deposição de 23.500 pre-prints! O mesmo artigo reporta outro estudo analisando 12.682 artigos sobre Covid-19 em que apenas 8% desses artigos teriam sido avaliados por pares. Por fim, o texto fala sobre problemas sérios nos dados reportados e inúmeros conflitos de interesse gerados pela tentativa de acelerar e produzir atalhos no processo científico.
Desde o surgimento de ChatGPT em 2023, esse problema se agravou. Como esses sistemas requerem uma quantidade inimaginável de dados e de computação, eles demandam um investimento financeiro substancial. Por exemplo, treinar um modelo de aprendizagem de máquina como as novas versões do GPT custa dezenas de milhões de dólares. Consequentemente, praticamente toda inovação cientifica na área tem sido feita pelas “Big Techs”.
A transparência cientifica aqui é quase zero: ninguém sabe os detalhes de como um desses sistemas é feito, com que dados é treinado, e de fato qual é a sua confiabilidade e acurácia. Essas empresas podem essencialmente inventar os próprios testes para validar seus sistemas e interpretar e divulgar os resultados como quiserem. Pouca reprodutibilidade.
A onda de interesse, frequentemente acrítico, gerado por essas tecnologias não poupou nem a academia, nem as agências de financiamento de pesquisa. Quase todo o financiamento de pesquisa em IA aposta em uma única hipótese (IA generativa, mais dados, mais computação). Toda uma geração de jovens cientistas faz a mesma coisa e universidades focam contratar um contingente de pessoas com o mesmo e único perfil.
Em vez de produzirmos diversidade para lidar com problemas complexos, estamos arriscando a deterioração do nosso saber científico coletivo. Novamente, como a maioria da pesquisa nessa área requer recursos proibitivos para a maioria das instituições de pesquisa, parte importante dessa geração de cientistas se contenta com produzir ciência “com IA” mas raramente “em IA”.
Assim como na pandemia, aqui também assistimos a um diluvio de artigos “pre-print” sobre IA. Algumas estimativas falam de mais de 150 novos artigos a cada dia. A maioria sem revisão por pares. Como, obviamente, nenhum ser humano é capaz de ler mais de 150 artigos científicos por dia, isso contribui para um outro enorme problema: a quantidade alarmante de novos artigos científicos, inclusive submetidos a revisão por pares, que estão sendo gerados por sistemas de IA generativa! O mesmo pode ser dito para propostas de projetos para financiamento científico.
Como esses sistemas conseguem gerar novos textos quase que instantaneamente, a quantidade de artigos científicos e propostas submetidas a avaliação por pares explodiu em quantidade (por exemplo, uma das principais conferências internacionais de IA recebeu em 2025 mais de 20 mil submissões de artigos). Com o conhecimento cada vez mais volátil e especializado nessa área, quem é capaz de analisar sob devido escrutínio esses artigos?
O resultado, pasmem, é que, mais e mais, cientistas usam também IA generativa para a revisão desses artigos! Em outras palavras, no limite dessa disfuncionalidade, sistemas artificiais limitados e com pouca confiabilidade produzem textos pseudocientíficos que são avaliados por esses próprios sistemas falhos, gerando uma cadeia de retroalimentação de ruídos.
Para piorar a situação, alguns autores começam a falar de uma nova era para a ciência, na qual se torna progressivamente mais comum que máquinas produzam “ciência” que nós humanos seríamos incapazes de entender. Esse tema foi de certa forma explorado no conto de ficção cientifica “A Evolução da Ciência Humana" escrito há 25 anos pelo escritor norte-americano Ted Chiang.
No conto, temos meta-humanos — humanos superinteligentes gerados geneticamente — que produzem ciência, enquanto cientistas comuns estariam relegados a um papel hermenêutico, interpretando a posteriori o que esses produzissem. Recentemente, um artigo intitulado “Pós-Ciência” para a revista Science sugere que os sistemas de IA que estamos produzindo seriam equivalentes a esses meta-humanos.
Eu gosto muito da literatura de ficção de Chiang, sobre a qual falei na minha última coluna. Naquele mesmo texto defendo que um projeto de ampliação da inteligência humana através de simbiose homem-máquina nos possibilitaria realizar feitos (inclusive científicos) antes inalcançáveis.
No entanto, se tratada de maneira incauta, essa ideia, que propõe a abdicação da compreensão a favor do mero controle (da natureza), é cientificamente ingênua, extremamente perigosa e completamente incoerente com o papel da ciência na sociedade. Como defendo aqui, acabaremos sem compreensão e sem controle.
A ciência tem o objetivo final de entender o mundo e de possibilitar a inovação tecnológica. No entanto, esse processo tem que necessariamente ser balizado por processos de deliberação ética. A tecnologia não tem um fim em si mesma e a própria ideia de inovação pressupõe um julgamento de valor. Qualquer criação tecnológica tem que ser avaliada do ponto de vista de valores, riscos e normas humanas. E isso não pode ser delegado para máquinas.
O que podemos fazer sobre tudo isso? Como sociedade, precisamos investir fortemente no letramento científico de cidadãos, jornalistas, investidores e políticos. Como cientistas, precisamos lutar para preservar uma ciência aberta, ética e com diversidade de ideias, mas também para que uma nova geração de cientistas seja formada consciente do que é a ciência e seu papel na história e na sociedade.
O que eu tenho tentado fazer pessoalmente? Recentemente cofundei na Holanda uma iniciativa para a produção de ciência aberta e equânime e, em janeiro próximo, com pesquisadores de várias universidades holandesas, começo um projeto (com financiamento de 7 milhões de euros — cerca de R$ 43 milhões) sobre a democratização da IA, ou seja, sobre como produzir sistemas confiáveis com os cidadãos e para os cidadãos.
Além disso, contribuir para o debate público nesse tema é o objetivo desta coluna. Tenho falado e escrito em eventos científicos e de popularização da ciência sempre que posso sobre tudo isso. Julgo ser essa uma obrigação ética. Individualmente vou acertar e errar nas minhas contribuições, interpretações e previsões.
Novamente, a ciência é um processo coletivo e não individual. Produzimos ciência com calma e atenção, e em constante diálogo com a sociedade e com os nossos pares, inclusive com todos aqueles que vieram antes de nós. Como escreveu o filosofo irlandês Edmund Burke: o verdadeiro pacto social é o pacto sagrado intergeracional entre os vivos, aqueles que nos precederam e aqueles que virão depois de nós.
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta.
