A depender das regras de moderação que o projeto de lei sobre fake news impuser às redes sociais, especialistas consultados pela reportagem acreditam que a medida poderia dar às plataformas um papel que, na verdade, caberia ao Judiciário.
Entre os exemplos mencionados que entrariam nesta hipótese estão desde a previsão de remoção obrigatória de determinado conteúdo até a criação de um direito de resposta àqueles que se sintam ofendidos por determinada postagem.
Em tramitação na Câmara dos Deputados, o projeto de lei que ficou conhecido como PL das fake news busca instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet.
Alvo de críticas das plataformas, de acadêmicos e de diferentes organizações da sociedade civil, o projeto de lei também tem sido criticado por apoiadores do presidente Jair Bolsonaro (sem partido), que se referem à proposta como "PL da Censura".
Enquanto o presidente da Câmara, Rodrigo Maia (DEM-RJ), tem pressa em aprovar o projeto e vem se manifestando publicamente a favor da proposta, Bolsonaro disse que poderia vetá-lo.
Um dos motivos de interesse dos parlamentares no projeto neste momento é a proximidade das eleições municipais e o receio do papel que as postagens nas redes sociais podem ter no pleito.
Aprovado no Senado em 30 de junho, o projeto é extenso e traz diversas mudanças em relação a redes sociais como Facebook e Twitter e também de aplicativos de mensagem como WhatsApp e Telegram. Entre elas, regras de transparência em relação à publicidade nas redes e proibição de contas falsas ou de robôs não identificados como tal.
Entre as versões que surgiram no Senado, houve artigos que determinavam a remoção imediata de determinados conteúdos como em casos de "prática de crime de ação penal pública incondicionada". Porém, a versão aprovada não determinou a remoção de conteúdo. O PL obriga as plataformas a remover contas automatizadas e inautênticas.
No caso do artigo 12, são criadas regras de moderação. E são principalmente os itens referentes a este ponto que, na opinião dos entrevistados, podem fazer com que decisões que deveriam caber a juízes acabem ficando nas mãos das redes sociais.
Para Paulo Rená da Silva Santarém, professor da UniCeuB e integrante da Coalizão de Direitos na Rede, há uma confusão quando se fala em regras sobre moderação de conteúdo. Ele explica que neste quesito pode-se falar em três caminho: obrigatoriedade de remoção, autorização de remoção e proibição de remoção.
Segundo Rená, o ideal seria uma legislação que permitisse a remoção, mas que não a tornasse mandatória nem proibida.
Desde que foi apresentado no Senado, em maio, o projeto teve várias versões e a tendência é que ele volte a ser alterado na Câmara - neste caso, depois de aprovado, ele retorna ao Senado.
Entre as versões que surgiram no Senado, houve artigos que determinavam a remoção imediata de determinados conteúdos como em casos de "prática de crime de ação penal pública incondicionada" e de injúria racial.
Carlos Affonso de Souza, professor da Uerj e um dos diretores do ITS Rio, vê em regras do tipo o risco de que, no futuro, tenha que ensinar a seus alunos não a jurisprudência dos tribunais, mas como cada uma das plataformas interpreta determinado dispositivo legal.
Isso porque prever a remoção com base em crimes específicos faria com que a plataforma tivesse que entender não mais se determinado conteúdo fere seus termos de uso, mas determinada lei.
O projeto traz uma série de obrigações às plataformas e, em caso de descumprimento, prevê a aplicação de sanções. Para o professor da UnB Alexandre Veronese, apesar de o problema da desinformação nas redes ser real, é preciso tomar cuidado para que, ao buscar soluções, não se criem outros danos à sociedade, como o aumento do monitoramento e a censura pelas plataformas.
Segundo ele, apesar de as plataformas já removerem conteúdo com base em seus termos de uso, leis prevendo remoção obrigatória, sem ordem judicial, e sob pena de sanção podem prejudicar o direito à liberdade de expressão dos usuários. "O estabelecimento de uma sanção grave, de 10% do faturamento, pode fazer com que esses algoritmos de monitoramento se tornem mais rigorosos."
Hoje a lei brasileira determina que plataformas não podem ser responsabilizadas legalmente pelo conteúdo de seus usuários, a não ser nos casos em que tenha havido uma ordem judicial determinando a remoção do conteúdo e elas não tenham obedecido. Isso foi definido no Marco Civil da Internet, aprovado em 2014.
A divulgação não autorizada de imagens íntimas é a única exceção à regra. Nesse casos, a retirada deve ocorrer após notificação da vítima ou de seu representante legal.
Incluído de última hora no Senado, um dos trechos do projeto determina que, após haver decisão das plataformas em moderar determinado conteúdo, o ofendido deve ter direito de resposta "na mesma medida e alcance do conteúdo considerado inadequado".
De acordo com Maria Edelvacy Marinho, professora do Mackenzie e uma das diretoras do Instituto Liberdade Digital, a medida, além de negativa, é de difícil execução.
"Eu não sou favorável a dar tanto poder para plataforma, que ela obrigue a colocar um conteúdo no meu perfil, sem [que haja] nenhum tipo de decisão judicial nesse sentido. Ela mesma que vai avaliar esse pedido de resposta?"
Além disso, os críticos apontam que o PL cria a figura do direito de resposta do ofendido sem determinar quem seria esse ofendido. Neste caso, caberia à plataforma definir se o conteúdo deve ou não ser removido e ainda quem seria o ofendido por aquele conteúdo. Para Rená, esse item do projeto poderia criar uma guerra de versões nas redes sociais.
Um ponto considerado positivo é a obrigatoriedade de que as plataformas passem a ser transparentes em relação a suas práticas de moderação. Com isso, os usuários devem ser notificados com os fundamentos da medidas tomadas pelas plataformas. Além disso, está previsto também que deve ser garantida a esses usuários a possibilidade de recorrer.
Porém, o PL abre exceção em alguns casos, permitindo a remoção desses conteúdos sem que o usuário seja notificado, devendo as plataformas apenas garantir o direito de recurso, como em postagens com risco de dano imediato de difícil reparação.
Para Rená, todas as remoções têm que ser justificadas, principalmente considerando que há uso de automação na monitoramento, o que aumenta o risco de erro.
Por outro lado, também foram criticadas versões que determinavam que o autor da publicação tivesse chance de defesa antes de qualquer remoção. Para Maria Marinho, isso poderia ser problemático. "Traria graves danos, imagine que alguém coloque um vídeo que incentive a violência, quanto mais pessoas virem, pior", disse.
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rapido possível! Clique no botão ao lado e envie sua mensagem
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta