O risco de Jair Bolsonaro (PL) alegar fraude eleitoral para mobilizar suas bases e questionar uma possível derrota no pleito de 2022 se tornou alvo de preocupação em diferentes Poderes após as ameaças golpistas do presidente da República antes do último feriado de 7 de Setembro.
Nos Estados Unidos, o então presidente Donald Trump foi suspenso das principais plataformas depois que uma multidão insuflada por ele invadiu o Congresso norte-americano, após meses de uma campanha marcada por desinformação.
A suspensão do político gerou diversas críticas, tanto pelos que consideraram tardia a ação das plataformas quanto pelos que avaliaram que as plataformas ultrapassaram seu poder.
Tal episódio leva não só ao debate sobre as políticas de moderação das plataformas relacionadas à desinformação no contexto eleitoral como a regras que impliquem um tratamento diferenciado a autoridades públicas.
A moderação de conteúdos desinformativos sobre as urnas e o pleito eleitoral foi um dos focos do Programa de Enfrentamento à Desinformação do TSE (Tribunal Superior Eleitoral) em 2020, que envolveu parcerias do tribunal com as principais plataformas.
Uma das lacunas apontadas pela secretária-geral do TSE e coordenadora do programa, Aline Osorio, seria o estabelecimento de regras mais claras pelas plataformas para algumas situações como perfis que aleguem, indevidamente, fraude ou que não reconheçam o resultado eleitoral.
Para além das postagens de Bolsonaro, a desinformação sobre as urnas nas redes não é um fenômeno de agora. Um estudo divulgado em novembro do ano passado pela Diretoria de Análise de Políticas Públicas da FGV (Fundação Getulio Vargas), feito com cooperação do TSE, mostrou que há uma campanha permanente para desacreditar o processo eleitoral, não se restringindo a anos em que há eleições.
Foram mapeadas e analisadas postagens que questionam a integridade do processo eleitoral, desde 2014 a 2020, no Facebook e no YouTube.
Entre as principais plataformas mundiais, as regras sobre alegações infundadas de fraudes foi impulsionada pelo comportamento de Trump.
Há, no entanto, muitas questões em aberto. Desde regras que não necessariamente se aplicam ao Brasil até casos em que não há menção explícita quanto ao procedimento em relação a postagens sobre fraude ou questionamento do resultado.
No caso do YouTube, por exemplo, foi criada uma regra que prevê remoção de vídeos com alegações falsas de que fraudes ou erros ou problemas técnicos generalizados mudaram o resultado de eleições anteriores.
Contudo, até o primeiro semestre deste ano ela era restrita aos Estados Unidos e, até o momento foi ampliada apenas para a Alemanha.
Já entre as políticas do Facebook sobre o tema, que é parte do rebatizado Meta (que inclui Facebook, Instagram e WhatsApp) não há uma previsão clara do que seria feito em caso de postagens questionando o desfecho ou alegando fraude.
A maioria das possibilidades de remoção se refere a episódios que envolvam incitação ou intenção de violência.
Nas regras do Twitter, há um capítulo que trata de desinformação eleitoral.
Entre os casos que passariam por moderação estão informações não verificadas sobre fraude, adulteração de votos, contagem de votos ou certificação dos resultados da eleição. Não está definido, contudo, critérios de análise da gravidade para definir se o conteúdo seria marcado ou removido.
Parte das plataformas são mais permissivas com postagens de chefes de Estado, autoridades ou líderes políticos. Segundo elas, isso ocorre a depender do interesse público da publicação. No entanto críticos apontam que falta transparência sobre quando tal critério é aplicado.
O Facebook, por exemplo, informa que conteúdos considerados como de caráter noticioso ou de interesse público, ainda que violem as regras da plataforma, podem ser mantidos, independente de serem autoridades públicas ou não.
Entretanto, de acordo com reportagem do Wall Street Journal, a rede teria um grupo de usuários, incluindo celebridades e políticos, fora de suas regras de conduta. Até ser banido, Trump faria parte dos que eram poupados, de acordo com o jornal.
A reportagem é uma entre as tantas revelações que foram feitas nos últimos meses com base nos chamados Facebook Papers, documentos vazados por uma ex-funcionária da empresa e que têm mostrado que o Facebook deixou de agir para coibir problemas em sua plataforma.
Outro tratamento diferenciado da plataforma se dá na política de desinformação, já que as parcerias do Facebook com agências de checagem não incluem posts realizados por políticos.
Já o Twitter possui uma política específica sobre líderes mundiais. Nos casos em que conteúdos que violam as regras são mantidos, a plataforma diz que pode tanto colocar avisos contextualizando o tuíte quanto limitar o engajamento dos demais usuários. De acordo com a empresa, tais regras estão passando por um processo de revisão.
O fato de as políticas das plataformas serem globais é apontado por especialistas como um complicador. Entre as consequências deste modelo, está tanto a existência de regras que não fazem sentido para um determinado país quanto a falta de regras que seriam necessárias a outro.
"Processos eleitorais são diferentes em cada país, não dá para implementar a mesma regra", afirma Bia Barbosa, pesquisadora sobre liberdade de expressão e integrante do Intervozes, um coletivo que milita na área da comunicação social, incluindo direitos na internet.
Outra crítica se refere ao grau de clareza das regras, já que formulações demasiadamente genéricas acabam dando maior margem de interpretação às plataformas e dificultando o entendimento dos usuários sobre o que de fato viola as regras e sobre qual punição podem sofrer.
Yasmin Curzi, pesquisadora do Centro de Tecnologia e Sociedade (CTS) da FGV Rio, afirma que as plataformas poderiam tornar o processo de elaboração das regras mais aberto e diversificado. "São plataformas estadounidenses centradas. Não conseguem considerar ainda a esfera global, em que elas exercem esse poder público, de forma adequada."
Além disso, ela aponta que a moderação de conteúdo demanda mais investimento em estrutura por parte das grandes plataformas.
"Falta atenção pelas plataformas para debates que envolvem uma análise de contexto. Plataformas não têm uma equipe de moderação muito forte no Brasil, têm problemas sobretudo para países não anglófonos no geral", afirma.
Além de Trump ter usado as redes sociais como megafone de sua campanha para desacreditar as eleições por meses, diversos grupos de apoiadores também se organizavam por meio delas.
Ao escrever sobre a invasão, dois repórteres do New York Times disseram que um dos aspectos mais perturbadores daquele dia "foi o fato de ter sido previsível e previsto". Como eles assinalam, Trump já havia postado diversas mensagens de que a data do 6 de janeiro seria um dia de ajuste de contas.
Apenas após o episódio, o político foi banido ou suspenso. As justificativas das principais plataformas foram não pela disseminação de desinformação, mas por danos reais que seu discurso poderia causar.
O Twitter removeu o perfil permanentemente devido ao "risco de mais incitação à violência" e o Facebook considerou que Trump violou regras que proíbem a exaltação de "eventos considerados violentos" e também de "pessoas que se envolveram em atos de violência organizada".
Ao analisar a decisão da empresa, o Comitê de Supervisão do Facebook, órgão independente criado pela empresa, recomendou que ela deveria fazer uma análise abrangente sobre sua possível contribuição para a narrativa que culminou na invasão do Capitólio, que acabou resultando em cinco mortes.
Em Mianmar, em 2018, a falta de ação do Facebook em relação à disseminação de notícias falsas é apontada como um dos fatores que contribuíram para ocorresse um cenário de limpeza étnica no país contra a minoria muçulmana rohingya, conforme relatório encomendado pela própria companhia.
Sérgio Amadeu da Silveira, que é doutor em ciência política pela USP e professor associado da UFABC, avalia que as plataformas são opacas em relação a como exercem controle do alcance dos discursos com base em seus algoritmos. "Elas atuam controlando quem vai ver o quê, essa que é a questão", afirma.
De acordo com reportagem publicada pelo Wall Street Journal, também com base em documentos internos obtidos pelo jornal, o Facebook sabia que a mudança em seu algoritmo em 2018, privilegiando interações entre amigos e familiares, aumentou a circulação de desinformação e de conteúdos considerados tóxicos e violentos.
A advogada eleitoral Samara Castro considera que pessoas públicas devem ter um escrutínio maior e não menor, passando inclusive por mais checagem. No entanto, ela é mais reticente quanto ao poder de remoção das plataformas e defende a rotulagem de informações inverídicas.
"Figuras públicas, não só políticos, que têm um patrimônio digital gigantesco, quando elas falam de política e de informações que têm relevância social, elas precisam sim ser mais responsáveis e, nesse sentido, sofrerem mais consequências."
Para Caio Machado, diretor do Instituto Vero e pesquisador da Universidade Oxford, as plataformas não devem privilegiar a fala de uma pessoa por ela ocupar um cargo político ou por ser candidato. "Se é desinformação e é de um político, ela é mais grave e não menos grave. Não há interesse público aí, é interesse público que seja removido."
No entanto, ele considera fundamental que as plataformas melhorem a transparência sobre suas decisões, as formas de apelação e inclusive de reparação em caso de decisões incorretas.
A Folha de S.Paulo reuniu algumas das principais regras de moderação de conteúdo de cada uma das plataformas com ligação direta a temas eleitorais. Parte delas possui tais regras reunidas, em outras estão distribuídas em diferentes seções de suas políticas.
Os dados estão atualizados conforme versões publicadas nos sites das empresas em 7 de dezembro de 2021.
Não há regras claras envolvendo postagens que aleguem fraudes sem comprovação ou que se recusem a aceitar o resultado eleitoral. Muitas das regras envolvem situações envolvendo defesa de violência em diferentes graus.
Fonte: Regras sobre violência e incitação; Coordenação de danos e divulgação de crime, política de notícias falsas.
A empresa criou uma página, em 2021, em que reúne exemplos de conteúdos sobre eleições que violam suas regras, podendo ser removidos. A lista não é completa, deixando ampla margem para análise da empresa. A aplicação do item sobre alegações falsas de fraudes é restrito, até o momento, aos Estados Unidos e à Alemanha.
Fonte: Políticas contra desinformação em eleições
Nas políticas do Twitter sobre eleições, a empresa afirma que as listas de casos não são restritivas, ou seja, outras situações também podem ser punidas. A plataforma não detalha critérios para remoção ou marcação, diz apenas que a exclusão é para violações graves.
Fonte: Política de integridade cívica
O Tik Tok prevê que é vetado conteúdo que engane os usuários sobre eleições. Em sua página de integridade eleitoral, a empresa elenca as diferentes punições possíveis e dá exemplos de aplicação relacionados a eleições. A seguir, estão alguns deles.
Fonte: Página sobre Integridade eleitoral
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rapido possível! Clique no botão ao lado e envie sua mensagem
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta