Publicado em 17 de março de 2026 às 18:36
Gigantes das redes sociais permitiram mais conteúdo nocivo nos feeds dos usuários, mesmo depois que pesquisas internas sobre os seus algoritmos mostraram que a indignação impulsionava o engajamento, disseram à BBC pessoas que são ou foram ligadas a essas empresas.>
Mais de uma dúzia de denunciantes e pessoas de dentro das empresas expuseram à BBC como essas companhias assumiram riscos de segurança em questões como violência, chantagem sexual e terrorismo, enquanto disputavam a atenção dos usuários.>
Um engenheiro da Meta, empresa que controla as redes sociais Facebook e Instagram, descreveu como recebeu orientação da direção da empresa para permitir mais conteúdo nocivo "limítrofe", que inclui misoginia e teorias conspiratórias, nos feeds dos usuários para competir com outra rede social, o TikTok.>
"Eles basicamente nos disseram que era porque o preço das ações estava em queda", disse o engenheiro.>
>
Um funcionário do TikTok deu à BBC acesso raro aos painéis internos da empresa com reclamações de usuários, além de outras evidências de como funcionários foram instruídos a priorizar vários casos envolvendo políticos em detrimento de uma série de denúncias de publicações nocivas envolvendo crianças.>
As decisões estavam sendo tomadas para "manter um relacionamento forte" com figuras políticas e evitar ameaças de regulação ou proibições, e não por causa dos riscos aos usuários, disse o funcionário do TikTok.>
Os denunciantes que falaram no documentário da BBC Inside the Rage Machine (Dentro da Máquina de Raiva, em tradução livre) oferecem uma visão detalhada de como o setor reagiu após o crescimento explosivo do TikTok, cujo algoritmo altamente envolvente de recomendação de vídeos curtos transformou as redes sociais, deixando rivais correndo para tentar acompanhar.>
Matt Motyl, pesquisador sênior da Meta, disse que o concorrente do TikTok criado pela empresa, o Instagram Reels, foi lançado em 2020 sem proteções suficientes. Pesquisas internas compartilhadas com a BBC mostraram que os comentários no Reels apresentavam prevalência significativamente maior de bullying e assédio, discurso de ódio e violência ou incitação à violência do que em outras partes do Instagram.>
A empresa investiu na contratação de 700 funcionários para expandir o Reels, enquanto equipes de segurança tiveram negada a contratação de dois especialistas para lidar com a proteção de crianças e de mais dez profissionais para ajudar na integridade das eleições, disse outro ex-funcionário sênior da Meta.>
Motyl, da Meta, entregou à BBC dezenas do que descreveu como "documentos de pesquisa de alto nível mostrando todo tipo de danos aos usuários nessas plataformas". Entre eles, havia evidências que mostravam que o Facebook estava ciente de problemas causados por seu algoritmo.>
Segundo um estudo interno, o algoritmo oferecia aos criadores de conteúdo um "caminho que maximiza os lucros às custas do bem-estar de sua audiência", e "o atual conjunto de incentivos financeiros que nossos algoritmos criam não parece estar alinhado com nossa missão" de aproximar as pessoas ao redor do mundo.>
O documento afirma que o Facebook pode "escolher permanecer inativo e continuar alimentando os usuários com conteúdo de qualidade duvidosa, mas isso só funciona por algum tempo".>
Em resposta às alegações dos denunciantes, a Meta disse: "Qualquer sugestão de que ampliamos deliberadamente o conteúdo nocivo para ganho financeiro é incorreta." O TikTok afirmou que essas são "alegações fabricadas" e que a empresa investe em tecnologia que impede que o conteúdo nocivo seja visualizado.>
Os algoritmos são uma "caixa-preta", cujo funcionamento interno é difícil de examinar, disse Ruofan Ding, que trabalhou como engenheiro de aprendizado de máquina no desenvolvimento do mecanismo de recomendação do TikTok de 2020 a 2024.>
Ele afirmou que era difícil construir sistemas como esse que fossem completamente seguros. "Não temos controle sobre o próprio algoritmo de aprendizado profundo [deep learning].">
Segundo ele, os engenheiros não prestam muita atenção ao conteúdo das publicações. "Para nós, todo o conteúdo é apenas um ID, um número diferente.">
Ele disse que dependiam das equipes de segurança de conteúdo para remover publicações nocivas e impedir que fossem promovidas pelo algoritmo. Segundo ele, essa relação entre as equipes é como a de diferentes grupos que trabalham em partes de um carro.>
"Há a equipe responsável pela aceleração, pelo motor, certo? Então esperamos que a equipe que trabalha no sistema de freios esteja fazendo um bom trabalho", disse.>
Mas Ding disse que, enquanto o TikTok atualizava seu algoritmo quase toda semana para ganhar mais espaço no mercado, ele passou a ver mais conteúdo "limítrofe" ou publicações problemáticas aparecendo depois que os usuários já estavam há algum tempo assistindo a vídeos.>
Conteúdo limítrofe é um termo usado por empresas de redes sociais para descrever publicações prejudiciais, mas que não violam as regras, como posts misóginos, racistas, sexualizados e teorias conspiratórias.>
Adolescentes disseram à BBC que as ferramentas para indicar que não querem ver conteúdo problemático não funcionam e que ainda recebem recomendações de violência e discurso de ódio nas principais redes sociais.>
Em um caso extremo, outro adolescente, Calum - hoje com 19 anos - disse que havia sido "radicalizado pelo algoritmo" desde os 14 anos. O algoritmo lhe mostrava conteúdo que o deixava indignado e o levou a adotar visões racistas e misóginas, afirmou.>
Os vídeos "me energizavam, mas não de um jeito bom", disse ele. "Eles só me deixavam muito irritado. Refletiam muito a forma como eu me sentia por dentro, que eu estava com raiva das pessoas ao meu redor.">
Especialistas da polícia antiterrorismo no Reino Unido, que analisam milhares de publicações nas redes sociais todos os anos, dizem ter observado um aumento e uma "normalização" de posts antissemitas, racistas, violentos e de extrema direita nos últimos meses.>
"As pessoas estão mais dessensibilizadas à violência no mundo real e não têm medo de compartilhar suas opiniões", disse um dos agentes.>
Ao longo de vários meses em 2025, a BBC conversou regularmente com um integrante da equipe de confiança e segurança do TikTok, a quem estamos chamando de Nick. A BBC teve acesso ao painel interno da empresa no laptop dele, que mostrava os casos analisados por sua equipe e como respondia a eles.>
"Se você se sente culpado diariamente por causa do que é instruído a fazer, em algum momento começa a pensar: devo dizer algo?", disse Nick.>
Ele acrescentou que o volume de casos que estavam avaliando era grande demais para acompanhar e garantir a segurança dos usuários, deixando adolescentes e crianças especialmente em risco.>
Segundo ele, cortes e a reorganização de algumas equipes de moderação - nas quais algumas funções estão sendo substituídas por tecnologia de inteligência artificial - reduziram a capacidade da empresa de lidar de forma eficaz com esse tipo de conteúdo.>
Conteúdos ligados a "terrorismo, violência sexual, violência física, abuso e tráfico" parecem estar aumentando, disse o denunciante.>
A realidade do que o aplicativo recomenda e das medidas tomadas contra conteúdos nocivos é "muito diferente, em muitos aspectos, do que as plataformas dizem ao público", acrescentou.>
Nick mostrou à BBC evidências de que o TikTok tratava alguns casos relativamente simples envolvendo políticos como prioridade maior para revisão pela equipe de segurança do que vários casos envolvendo danos a adolescentes.>
Em um exemplo, um político que havia sido ridicularizado ao ser comparado a uma galinha recebeu prioridade sobre um jovem de 17 anos que relatou ser vítima de cyberbullying e falsificação de identidade na França, e sobre uma jovem de 16 anos no Iraque que disse que imagens sexualizadas, supostamente dela, estavam sendo compartilhadas no aplicativo.>
Ao falar sobre o caso no Iraque, Nick disse: "Se você olha o país de onde vem esse relato, é de altíssimo risco porque envolve um menor e chantagem sexual. Mas, você pode ver aqui, a prioridade não é alta.">
Nick também mostrou exemplos de publicações que incentivavam pessoas a se juntar a grupos terroristas ou a cometer crimes e que não haviam sido classificadas como prioridade máxima.>
Quando a equipe de confiança e segurança pediu para priorizar casos envolvendo jovens em vez de casos políticos, disse o denunciante, eles foram orientados a não fazer isso e a seguir tratando os casos de acordo com a identificação que haviam recebido.>
Segundo Nick, isso acontece porque, em sua avaliação, a empresa se preocupa menos com a segurança das crianças do que em manter um "relacionamento forte" com políticos e governos, para evitar regulações ou proibições que poderiam prejudicar seus negócios.>
Nick disse que, quando ele e outros funcionários levantaram algumas dessas preocupações com a direção, não houve receptividade, porque eles "não são expostos a esse conteúdo no dia a dia".>
O conselho de Nick aos pais cujos filhos usam o TikTok é: "Apaguem o aplicativo. Mantenham as crianças o mais longe possível dele pelo maior tempo possível.">
O TikTok afirmou que rejeita a ideia de que conteúdo político tenha prioridade sobre a segurança dos jovens e disse que a alegação "deturpa fundamentalmente a forma como os seus sistemas de moderação funcionam".>
A equipe da qual Nick faz parte integra um sistema de segurança mais amplo, com várias equipes responsáveis por analisar denúncias sobre conteúdos. O TikTok afirmou: "Fluxos de trabalho especializados para determinadas questões não resultam na redução da prioridade de casos envolvendo segurança infantil, que são tratados por equipes dedicadas dentro de estruturas paralelas de revisão.">
Um porta-voz do TikTok disse que as críticas "ignoram a realidade de como o TikTok permite que milhões de pessoas descubram novos interesses, encontrem comunidade e sustentem uma economia vibrante de criadores".>
A empresa afirmou que contas de adolescentes têm mais de 50 recursos e configurações de segurança pré-definidos que são ativados automaticamente. Também disse que investe em tecnologia para impedir que conteúdos nocivos sejam exibidos, mantém regras rígidas de recomendação e oferece ferramentas para que os usuários personalizem sua experiência.>
Em 2020, a disputa entre algoritmos ficou mais intensa quando o Instagram lançou o Reels, como resposta ao TikTok, que ganhou enorme popularidade durante a pandemia de Covid-19.>
Matt Motyl, que trabalhou como pesquisador sênior no Facebook e em sua empresa sucessora, a Meta, a partir de 2021, disse que essa foi a tentativa da companhia de "imitar" o "produto único" lançado pelo TikTok.>
Entre 2019 e 2023, seu trabalho envolvia "realizar experimentos em larga escala com, às vezes, centenas de milhões de pessoas" — que muitas vezes "não tinham ideia" de que isso estava acontecendo — para testar como o conteúdo era exibido nos feeds.>
"Os produtos da Meta são usados por mais de três bilhões de pessoas. Quanto mais tempo elas passam na plataforma, mais anúncios a empresa vende e mais dinheiro ganha. Mas é muito importante fazer isso da forma certa, porque quando isso não acontece, coisas muito ruins podem acontecer", disse.>
Quando ao Reels, Motyl disse que a estratégia era avançar o mais rápido possível, independentemente do impacto sobre os usuários. Segundo ele, havia um "dilema comum entre proteger as pessoas de conteúdo nocivo e o engajamento".>
De acordo com um estudo que ele compartilhou com a BBC, a Meta estava tendo dificuldades para evitar danos no Reels após seu lançamento. O documento sugere que publicações no Reels tinham maior prevalência de comentários nocivos do que posts no feed principal do Instagram: 75% a mais de bullying e assédio, 19% a mais de discurso de ódio e 7% a mais de violência ou incitação à violência.>
Ele afirmou que havia um "desequilíbrio de poder", porque as equipes de segurança precisavam da aprovação das equipes responsáveis pelo Reels para lançar novos recursos que aumentassem a segurança dos usuários. Segundo Motyl, essas equipes tinham "incentivo para impedir o lançamento dessas ferramentas, porque o conteúdo tóxico gera mais engajamento do que conteúdo normal".>
Brandon Silverman, cuja ferramenta de monitoramento de redes sociais Crowdtangle foi comprada pelo Facebook em 2016, participou de discussões em alto nível nesse período e disse que o CEO Mark Zuckerberg estava "muito paranoico" com a concorrência.>
"Quando ele percebe que há concorrência, não mede esforços nem dinheiro", disse Silverman.>
Ele afirmou que, nesse período, viu equipes de segurança lutando para conseguir aprovação para contratar poucos funcionários, enquanto a empresa priorizava a expansão do Reels. "Ao mesmo tempo, outra equipe disse: 'Acabamos de conseguir 700 pessoas para o Instagram Reels'. Eu pensei: ok", afirmou.>
Um ex-engenheiro da Meta, a quem estamos chamando de Tim, disse que, enquanto a empresa tentava competir com o TikTok, passou a permitir mais conteúdo nocivo limítrofe na plataforma. Segundo ele, sua equipe trabalhava para reduzir esse tipo de conteúdo, até que o "posicionamento de negócios" da empresa mudou.>
"Você está perdendo para o TikTok e, portanto, o preço das suas ações estava caindo. As pessoas começaram a ficar paranoicas e reativas e passaram a pensar: precisamos fazer tudo o que pudermos para recuperar o atraso. Onde podemos conseguir ganhar 2% ou 3% de receita no próximo trimestre?", disse Tim.>
Ele afirmou que a decisão de deixar de limitar conteúdos possivelmente nocivos, mas que não eram ilegais e geravam engajamento dos usuários, foi tomada por um vice-presidente sênior da Meta que, segundo ele, respondia diretamente a Mark Zuckerberg.>
Na época em que o Facebook dizia ser apenas um "espelho da sociedade", documentos internos compartilhados com a BBC por Motyl, o pesquisador sênior, revelam como a empresa sabia que estava amplificando conteúdo que deixava as pessoas irritadas e até incitava danos.>
Os documentos explicam que conteúdos sensíveis — como publicações ligadas a crenças morais ou que incentivam violência — tendem a gerar mais reação e engajamento na plataforma, especialmente quando provocam indignação.>
"Como esse conteúdo gera muito mais engajamento, nossos algoritmos passam a entender que os usuários gostam dele e querem ver mais", afirma o estudo.>
Silverman disse que, no início, a liderança da Meta parecia não saber como lidar com o conteúdo tóxico na plataforma e que houve um período em que a empresa estava "genuinamente introspectiva".>
Mas, segundo ele, essa posição "começou a se consolidar em uma espécie de postura defensiva". A atitude passou a ser a de que "não somos responsáveis por toda a polarização na sociedade", afirmou.>
"Ninguém está dizendo que vocês são responsáveis por toda a polarização. Estamos dizendo apenas que vocês contribuem para isso, e provavelmente de maneiras que poderiam evitar. Com algumas mudanças, essa contribuição poderia ser menor", afirmou Silverman.>
Um porta-voz da Meta negou as acusações feitas pelos denunciantes. "A verdade é que temos políticas rigorosas para proteger os usuários em nossas plataformas e fizemos investimentos significativos em segurança ao longo da última década", afirmou.>
A empresa também disse que "fez mudanças reais para proteger adolescentes online", incluindo a introdução de um novo recurso chamado Teen Accounts, "com proteções integradas e ferramentas para que os pais gerenciem a experiência de seus filhos adolescentes".>
>
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta