Sair
Assine
Entrar

Entre para receber conteúdo exclusivo.
ou
Crie sua conta A Gazeta
Recuperar senha

Preencha o campo abaixo com seu email.

  • Início
  • Mundo
  • Instagram vai alertar pais sobre buscas por suicídio; associações dizem que medida é insuficiente
Mundo

Instagram vai alertar pais sobre buscas por suicídio; associações dizem que medida é insuficiente

Especialistas em segurança digital afirmam que a Meta está "transferindo a responsabilidade" para as famílias com o novo recurso.
BBC News Brasil

Publicado em 

26 fev 2026 às 22:08

Publicado em 26 de Fevereiro de 2026 às 22:08

Imagem BBC Brasil
Crédito: Getty Images
Pais que utilizam ferramentas de supervisão do Instagram passarão a receber notificações caso seus filhos adolescentes pesquisem repetidamente na plataforma termos relacionados a suicídio ou automutilação.
A medida marca a primeira vez em que a Meta decide alertar proativamente responsáveis sobre os hábitos de pesquisa dos jovens.
Até então, a empresa limitava-se a bloquear determinadas buscas na plataforma e direcionar usuários para serviços externos de apoio.
O novo recurso começará a ser implementado a partir da próxima semana para famílias que participam do programa de Contas para Adolescentes do Instagram no Reino Unido, Estados Unidos, Austrália e Canadá.
Segundo a empresa, a intenção é expandir a funcionalidade gradualmente para outros países.
A iniciativa, porém, foi duramente criticada pela organização britânica de prevenção ao suicídio Molly Rose Foundation, que alertou que as medidas "podem causar mais danos do que benefícios".
"Esse anúncio é cheio de riscos. Temos medo que divulgações forçadas possam causar mais danos do que benefícios", afirmou Andy Burrows, diretor-executivo da Molly Rose Foundation.
A entidade foi criada pela família de Molly Russell, adolescente que tirou a própria vida em 2017, aos 14 anos, após ter sido exposta a conteúdos sobre automutilação e suicídio em plataformas digitais, incluindo o Instagram.
Burrows acrescentou que "todo pai gostaria de saber se o filho está em lutando contra algo, mas essas notificações frágeis podem deixar os responsáveis em pânico e despreparados para as conversas sensíveis e difíceis que virão depois".
Imagem BBC Brasil
Crédito: Getty Images
A Meta afirma que os alertas enviados aos pais quando adolescentes pesquisarem no Instagram conteúdos sobre suicídio e automutilação em um curto intervalo de tempo serão acompanhados de materiais produzidos por especialistas, com orientações sobre como lidar com a situação.
Mesmo assim, o pai de Molly, Ian Russell, que fundou a organização em homenagem à filha, continu cético quanto à eficácia da medida.
"Imagine ser pai de um adolescente e receber, no trabalho, uma mensagem dizendo que seu filho pode estar pensando em tirar a própria vida… não sei como reagiria", disse ele à BBC.
"Mesmo que a Meta diga que vai oferecer apoio para aquele pai, naquele momento de pânico que você recebe uma notícia assim sobre o próprio filho, não me parece uma forma muito sensata de lidar com a situação", acrescentou.

'Negligenciando o verdadeiro problema'

Diversas organizações, entre elas a Molly Rose Foundation, afirmam que o anúncio da Meta representa, na prática, um reconhecimento de que algo mais poderia ser feito para proteger crianças e adolescentes no Instagram.
Ged Flynn, diretor-executivo da organização Papyrus Prevention of Young Suicide, disse que, embora a entidade veja a iniciativa com bons olhos, a empresa estaria "negligenciando o verdadeiro problema, que é o fato de crianças e jovens continuarem sendo atraídos para um ambiente online sombrio e perigoso".
"Pais entram em contato conosco todos os dias para dizer o quanto estão preocupados com seus filhos na internet", afirmou ele à BBC.
"Eles não querem ser alertados depois que seus filhos já buscaram conteúdos prejudiciais; não querem que isso lhes seja oferecido de bandeja por algoritmos."
Já Leanda Barrington-Leach, diretora-executiva da organização de defesa dos direitos das crianças 5Rights, afirmou que, "se a Meta pretende levar a segurança infantil a sério, precisa repensar completamente seus sistemas e torná-los adequados à idade desde a concepção e por padrão".
Burrows também citou pesquisas anteriores feitas pela fundação que indicam que o Instagram ainda recomenda "ativamente" conteúdos prejudiciais sobre depressão, suicídio e automutilação para "jovens vulneráveis".
"O foco deveria estar em enfrentar esses riscos, e não em fazer mais um anúncio oportunista que transfere a responsabilidade para os pais", acrescentou.
A Meta contestou as conclusões do estudo publicado em setembro do ano passado, afirmando que ele "distorce nossos esforços para empoderar pais e proteger adolescentes".

Maior escrutínio

Os novos alertas foram criados para informar os pais quando houver uma mudança repentina no comportamento e nos hábitos de busca de seus filhos dentro da plataforma.
Em uma publicação oficial, a Meta afirmou que a medida complementa as proteções já existentes no Instagram para adolescentes, que incluem ocultar conteúdos relacionados a suicídio e automutilação, e bloquear pesquisas por assuntos considerados perigosos.
As notificações serão enviadas aos pais por e-mail, mensagem de texto, WhatsApp ou no próprio aplicativo do Instagram, dependendo das informações de contato que a Meta possuir das famílias.
Segundo a Meta, os novos alertas do Instagram, baseados em padrões de busca dos usuários, podem ocasionalmente alertar os pais sem que haja um motivo real para preocupação, pois "priorizarão a cautela"
O pesquisador Sameer Hinduja, codiretor do Cyberbullying Research Center, disse que receber esse tipo de alerta "obviamente" assusta qualquer responsável.
Mas ele disse à BBC que "o que importa não é apenas o alerta em si, mas a qualidade das informações e recursos que os pais vão receber para orientá-los sobre o que fazer em seguida."
"Você não pode simplesmente enviar uma notificação dessa para um dos pais e deixá-lo se virar sozinho, e parece que a Meta entende isso", acrescentou Hinduja.
O Instagram também disse que planeja, para os próximos meses, ter alertas semelhantes caso adolescentes discutam automutilação e suicídio com seu chatbot de IA, já que as crianças "recorrem cada vez mais à IA em busca de apoio".
As plataformas de redes sociais têm enfrentado uma pressão crescente de governos em todo o mundo para tornar suas plataformas mais seguras para crianças.
No início do ano, a Austrália proibiu redes sociais para menores de 16 anos, e Espanha, França e o Reino Unido estudam medidas semelhantes.
Enquanto isso, órgãos reguladores e legisladores estão analisando de perto as práticas comerciais das grandes empresas de tecnologia em relação aos jovens usuários.
Executivos da empresa, incluindo Mark Zuckerberg e Adam Mosseri, compareceram recentemente a tribunal nos Estados Unidos para responder a acusações de que a empresa teria direcionado seus produtos a usuários mais jovens.
Reportagem adicional de James Kelly.

Este vídeo pode te interessar

Viu algum erro?
Fale com a redação
Informar erro!

Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rapido possível! Clique no botão ao lado e envie sua mensagem

Fale com a gente

Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta

A Gazeta integra o

Saiba mais

Recomendado para você

Imagem de destaque
Lula reafirma candidatura e fala em 'compromisso cristão'
Imagem de destaque
Delegação capixaba fica em 7ª em prova nacional de kart
Imagem de destaque
Pratos inspirados em canções de Roberto Carlos participam de festival em Cachoeiro

© 1996 - 2024 A Gazeta. Todos os direitos reservados