Publicado em 9 de novembro de 2025 às 14:40
É noite e você decide sair para jantar. É possível que seu parceiro não saiba o que você quer comer, mas a inteligência artificial sabe: à tarde, ela te viu assistindo a vídeos de tacos e tem certeza de que agora você não consegue parar de pensar neles.>
"Se não tomarmos decisões, outros as tomarão por nós", escreve a jornalista e escritora espanhola Laura G. de Rivera em seu livro Esclavos del algoritmo: Manual de resistencia en la era de la inteligencia artificial (Escravos do Algoritmo: Um Manual de Resistência na Era da Inteligência Artificial, em tradução livre), resultado de anos de pesquisa.>
"Vivemos imersos em pensamentos, desejos e sentimentos impostos de fora porque, ao que parece, nós, humanos, somos bastante previsíveis. Basta aplicar a estatística às nossas ações passadas, e é como se alguém lesse nossa mente", continua.>
A precisão em prever nossas necessidades ou desejos é tão grande que Michal Kosinski, psicólogo e professor da Universidade Stanford (EUA), demonstrou em seus experimentos que um algoritmo bem treinado, com dados digitais suficientes, pode prever o que você quer ou do que você gosta mais do que a sua mãe.>
>
Soa bem, em princípio, a ideia de que a inteligência artificial possa prever os interesses de uma pessoa com extrema precisão. Mas isso tem um preço, diz Rivera, e é um preço alto: "Perdemos a liberdade, perdemos a capacidade de sermos nós mesmos, perdemos a imaginação.">
"Trabalhamos de graça para o Instagram ao fazer o upload de nossas fotos, para que a rede social exista e fature milhões. É preciso estar consciente e aproveitar os benefícios das plataformas sem deixar que os riscos nos prejudiquem", afirma.>
A BBC News Mundo (serviço em espanhol da BBC) conversou com Rivera durante o Hay Festival, que acontece entre 6 a 9 de novembro na cidade peruana de Arequipa, evento que reúne 130 participantes de 15 países.>
Qual é a solução para não nos tornarmos escravos do algoritmo?>
A solução, na minha opinião, é muito simples, está ao alcance de qualquer pessoa, é gratuita e não tem impacto ambiental. É simplesmente pensar. Em outras palavras, usar o cérebro. É uma capacidade humana que está em desuso, que se perdeu.>
A cada momento em que não estamos trabalhando ou com outras pessoas, pegamos o celular e nos distraímos com a tela. Já não pensamos na sala de espera do médico nem quando nos entediamos em casa.>
Esses espaços que antes serviam para pensar estão hoje completamente ocupados por uma distração constante. Pelo smartphone, recebemos um bombardeio de estímulos que nos impede de refletir.>
Há outras coisas que se podem fazer, mas para mim esta é a mais básica e a mais fácil. Só o pensamento crítico pode defender a liberdade individual diante do controle algorítmico e da vontade de terceiros.>
É quase impossível não fornecer dados ao se inscrever em uma plataforma. E ainda mais difícil ler todas as letras miúdas de um serviço ou rejeitar os "cookies" toda vez que entramos em um site. Nos tornamos preguiçosos?>
Somos um pouco preguiçosos e um pouco marionetes, mas também nos falta informação.>
Muita gente não percebe que, ao passar horas no TikTok, está trabalhando de graça para a plataforma. Elas fornecem à plataforma todos os seus dados de comportamento online, e esses dados têm valor econômico.>
Por isso, a educação é fundamental: ela explica como funciona o modelo de negócios dessas grandes plataformas.>
Como é possível que o Google seja uma das empresas mais ricas do mundo se não nos cobra pelos seus serviços? Refletir sobre isso é muito importante para que as pessoas entendam o quão valiosas são todas as informações que fornecemos sobre nós mesmos.>
Quais são os perigos da inteligência artificial?>
Na realidade, o verdadeiro perigo é a estupidez humana, porque a inteligência artificial em si não precisa fazer nada com você; ela é apenas composta de zeros e uns.>
O problema é que somos tão preguiçosos que, se as coisas forem feitas por nós, melhor ainda. Isso nos coloca numa posição em que somos mais facilmente manipulados.>
Vivemos um adormecimento generalizado da vontade. Resignamo-nos diante da digitalização do sistema de saúde, da vigilância em massa e da educação online dos filhos. Aceitamos injustiças, abusos e ignorância como fatos inevitáveis contra os quais não nos rebelamos, por pura preguiça.>
Quais podem ser as consequências de confiar inteiramente nas previsões automáticas de um sistema algorítmico?>
Quando delegamos decisões importantes, que podem até envolver vida ou morte, o risco é muito alto, sobretudo porque estudos mostram que os humanos tendem a acreditar que, se um computador diz algo, deve ser verdade, mesmo que pensemos diferente.>
Então, a quem você vai deixar que decida? À sua mãe, ao seu professor, ao seu chefe ou à inteligência artificial?>
Esse é um problema muito antigo da humanidade. Gosto muito do livro do psicanalista, sociólogo e membro da Escola de Frankfurt, Erich Fromm, O Medo à Liberdade, que é dedicado precisamente a isso.>
Fromm argumenta que os seres humanos preferem receber ordens porque têm pavor da ideia de a decisão ser tomada por eles mesmos. Tomar decisões nos assusta, e preferimos ser como robôs, recebendo ordens. E Fromm já dizia isso no começo do século 20.>
Existe alguma maneira de evitar divulgar nossos dados online?>
Claro que sim. Há maneiras de não entregar nossos dados, ou de entregar apenas o mínimo necessário. Mas o mais importante é entender como as plataformas funcionam. Só assim é possível tomar medidas, ainda que seja apenas para dificultar um pouco a vida dos que lucram com seus dados e com sua vida. É possível adotar pequenos hábitos, como rejeitar os "cookies" ao entrar em um site.>
O que mais podemos fazer?>
Podemos também falar sobre a necessidade de regulamentações que nos protejam e sobre o desenvolvimento da ética por parte das empresas que utilizam inteligência artificial.>
A sra. está se referindo ao caso Edward Snowden, que expôs os sistemas de vigilância em massa usados pelas agências de inteligência dos EUA?>
Sim. Para mim, Snowden é um dos heróis deste século para mim, mas existem outros. O caso dele é o mais conhecido.>
Há também Sophie Zhang, cientista de dados do Facebook, que foi demitida após alertar internamente sobre o uso sistemático de contas falsas e bots por governos e partidos políticos para manipular a opinião pública e semear o ódio.>
Zhang percebeu que, em muitas partes do mundo, na América Latina, na Ásia e até mesmo em alguns lugares da Europa, havia políticos usando contas falsas, com seguidores inexistentes, com curtidas e compartilhamentos incessantes, para enganar os cidadãos e fazê-los acreditar que tinham apoio e aceitação popular que não eram verdadeiros.>
Quando relatou o problema a seus superiores, Sophie Zhang percebeu, surpresa!, que ninguém queria fazer nada para resolvê-lo.>
Demorou um ano, por exemplo, para que o Facebook apagasse a rede de seguidores falsos do então presidente de Honduras, Juan Orlando Hernández, declarado culpado pelo Tribunal Federal de Distrito em Nova York por conspirar para importar cocaína aos Estados Unidos e por posse de metralhadoras.>
Em seu livro, a sra. também menciona o caso da engenheira de computação Timnit Gebru, codiretora da equipe de Ética em IA do Google, que também foi demitida.>
Sim, por denunciar que os algoritmos favorecem a discriminação racial e de gênero. Ela alertou que os grandes modelos de linguagem podiam representar um risco: as pessoas poderiam acreditar que eram humanos e ser manipuladas por eles. Apesar da carta de protesto assinada por mais de 1.400 funcionários da empresa, Gebru acabou demitida.>
Outro "denunciante" é Guillaume Chaslot, ex-funcionário do YouTube, que descobriu que o algoritmo de recomendações empurrava sistematicamente os usuários para conteúdos sensacionalistas, teorias da conspiração e conteúdo polarizador.>
Que esperança nos resta?>
Sabemos com certeza que, por mais que se tente, um programa de software não é capaz de oferecer a menor dose de criatividade para inventar novas opções, isto é, opções que não se baseiem na estatística de dados passados.>
Tampouco será capaz de fornecer soluções baseadas na empatia, para se colocar no lugar do outro, nem na solidariedade, para buscar a própria felicidade na felicidade dos outros.>
Essas três qualidades são exclusivamente humanas por definição.>
>
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta