Publicado em 10 de julho de 2020 às 09:10
A depender das regras de moderação que o projeto de lei sobre fake news impuser às redes sociais, especialistas consultados pela reportagem acreditam que a medida poderia dar às plataformas um papel que, na verdade, caberia ao Judiciário. >
Entre os exemplos mencionados que entrariam nesta hipótese estão desde a previsão de remoção obrigatória de determinado conteúdo até a criação de um direito de resposta àqueles que se sintam ofendidos por determinada postagem.>
Em tramitação na Câmara dos Deputados, o projeto de lei que ficou conhecido como PL das fake news busca instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet.>
Alvo de críticas das plataformas, de acadêmicos e de diferentes organizações da sociedade civil, o projeto de lei também tem sido criticado por apoiadores do presidente Jair Bolsonaro (sem partido), que se referem à proposta como "PL da Censura".>
>
Enquanto o presidente da Câmara, Rodrigo Maia (DEM-RJ), tem pressa em aprovar o projeto e vem se manifestando publicamente a favor da proposta, Bolsonaro disse que poderia vetá-lo.>
Um dos motivos de interesse dos parlamentares no projeto neste momento é a proximidade das eleições municipais e o receio do papel que as postagens nas redes sociais podem ter no pleito.>
Aprovado no Senado em 30 de junho, o projeto é extenso e traz diversas mudanças em relação a redes sociais como Facebook e Twitter e também de aplicativos de mensagem como WhatsApp e Telegram. Entre elas, regras de transparência em relação à publicidade nas redes e proibição de contas falsas ou de robôs não identificados como tal.>
Entre as versões que surgiram no Senado, houve artigos que determinavam a remoção imediata de determinados conteúdos como em casos de "prática de crime de ação penal pública incondicionada". Porém, a versão aprovada não determinou a remoção de conteúdo. O PL obriga as plataformas a remover contas automatizadas e inautênticas.>
No caso do artigo 12, são criadas regras de moderação. E são principalmente os itens referentes a este ponto que, na opinião dos entrevistados, podem fazer com que decisões que deveriam caber a juízes acabem ficando nas mãos das redes sociais.>
Para Paulo Rená da Silva Santarém, professor da UniCeuB e integrante da Coalizão de Direitos na Rede, há uma confusão quando se fala em regras sobre moderação de conteúdo. Ele explica que neste quesito pode-se falar em três caminho: obrigatoriedade de remoção, autorização de remoção e proibição de remoção.>
Segundo Rená, o ideal seria uma legislação que permitisse a remoção, mas que não a tornasse mandatória nem proibida.>
Desde que foi apresentado no Senado, em maio, o projeto teve várias versões e a tendência é que ele volte a ser alterado na Câmara - neste caso, depois de aprovado, ele retorna ao Senado.>
Entre as versões que surgiram no Senado, houve artigos que determinavam a remoção imediata de determinados conteúdos como em casos de "prática de crime de ação penal pública incondicionada" e de injúria racial.>
Carlos Affonso de Souza, professor da Uerj e um dos diretores do ITS Rio, vê em regras do tipo o risco de que, no futuro, tenha que ensinar a seus alunos não a jurisprudência dos tribunais, mas como cada uma das plataformas interpreta determinado dispositivo legal.>
Isso porque prever a remoção com base em crimes específicos faria com que a plataforma tivesse que entender não mais se determinado conteúdo fere seus termos de uso, mas determinada lei.>
O projeto traz uma série de obrigações às plataformas e, em caso de descumprimento, prevê a aplicação de sanções. Para o professor da UnB Alexandre Veronese, apesar de o problema da desinformação nas redes ser real, é preciso tomar cuidado para que, ao buscar soluções, não se criem outros danos à sociedade, como o aumento do monitoramento e a censura pelas plataformas.>
Segundo ele, apesar de as plataformas já removerem conteúdo com base em seus termos de uso, leis prevendo remoção obrigatória, sem ordem judicial, e sob pena de sanção podem prejudicar o direito à liberdade de expressão dos usuários. "O estabelecimento de uma sanção grave, de 10% do faturamento, pode fazer com que esses algoritmos de monitoramento se tornem mais rigorosos.">
Hoje a lei brasileira determina que plataformas não podem ser responsabilizadas legalmente pelo conteúdo de seus usuários, a não ser nos casos em que tenha havido uma ordem judicial determinando a remoção do conteúdo e elas não tenham obedecido. Isso foi definido no Marco Civil da Internet, aprovado em 2014.>
A divulgação não autorizada de imagens íntimas é a única exceção à regra. Nesse casos, a retirada deve ocorrer após notificação da vítima ou de seu representante legal.>
Incluído de última hora no Senado, um dos trechos do projeto determina que, após haver decisão das plataformas em moderar determinado conteúdo, o ofendido deve ter direito de resposta "na mesma medida e alcance do conteúdo considerado inadequado".>
De acordo com Maria Edelvacy Marinho, professora do Mackenzie e uma das diretoras do Instituto Liberdade Digital, a medida, além de negativa, é de difícil execução.>
"Eu não sou favorável a dar tanto poder para plataforma, que ela obrigue a colocar um conteúdo no meu perfil, sem [que haja] nenhum tipo de decisão judicial nesse sentido. Ela mesma que vai avaliar esse pedido de resposta?">
Além disso, os críticos apontam que o PL cria a figura do direito de resposta do ofendido sem determinar quem seria esse ofendido. Neste caso, caberia à plataforma definir se o conteúdo deve ou não ser removido e ainda quem seria o ofendido por aquele conteúdo. Para Rená, esse item do projeto poderia criar uma guerra de versões nas redes sociais.>
Um ponto considerado positivo é a obrigatoriedade de que as plataformas passem a ser transparentes em relação a suas práticas de moderação. Com isso, os usuários devem ser notificados com os fundamentos da medidas tomadas pelas plataformas. Além disso, está previsto também que deve ser garantida a esses usuários a possibilidade de recorrer.>
Porém, o PL abre exceção em alguns casos, permitindo a remoção desses conteúdos sem que o usuário seja notificado, devendo as plataformas apenas garantir o direito de recurso, como em postagens com risco de dano imediato de difícil reparação.>
Para Rená, todas as remoções têm que ser justificadas, principalmente considerando que há uso de automação na monitoramento, o que aumenta o risco de erro.>
Por outro lado, também foram criticadas versões que determinavam que o autor da publicação tivesse chance de defesa antes de qualquer remoção. Para Maria Marinho, isso poderia ser problemático. "Traria graves danos, imagine que alguém coloque um vídeo que incentive a violência, quanto mais pessoas virem, pior", disse.>
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta