R. Marie Santini, Universidade Federal do Rio de Janeiro (UFRJ) e Debora Salles, Universidade Federal do Rio de Janeiro (UFRJ)
Na semana passada, a Meta anunciou alterações em suas políticas de moderação de conteúdo que levantam sérias preocupações sobre os impactos na segurança e na qualidade das interações online.
Sob o pretexto de ampliar a liberdade de expressão e reduzir erros na aplicação de suas diretrizes, a empresa planeja relaxar restrições em temas delicados como imigração e identidade de gênero, além de reduzir a intervenção de sistemas automatizados para moderar conteúdos supostamente menos graves.
Embora apresentadas como uma tentativa de reduzir erros, essas medidas tendem a comprometer a qualidade da informação nas suas plataformas. Sem a verificação especializada, conteúdos falsos ou enganosos podem proliferar, confundindo os usuários e prejudicando o debate público.
Além disso, a substituição da checagem independente por sistemas automatizados ou pela moderação dos próprios usuários apresenta limitações significativas. Algoritmos podem falhar em identificar nuances contextuais, permitindo que informações enganosas permaneçam online.
A moderação pelos próprios usuários, por sua vez, está sujeita a vieses e manipulações, especialmente em temas políticos. Ou seja, a medida adotada pela Meta assume que irá ser condescendente com a desinformação e discursos de ódio em suas plataformas.
A moderação de conteúdo orgânico por conveniência e suas consequências
O fim da moderação de conteúdo orgânico nas plataformas da Meta representa uma grave ameaça à integridade informacional no Brasil, especialmente em contextos sensíveis como emergências climáticas, crises em saúde ou eleições. Relatórios do NetLab UFRJ têm destacado como as redes têm sido usadas para disseminar desinformação em larga escala, agravando crises de saúde e desastres climáticos.
Por exemplo, um estudo do laboratório revelou estratégias coordenadas para espalhar falsas alegações sobre vacinas, impactando campanhas de saúde pública e alimentando movimentos antivacina. Outra investigação identificou desinformação durante as enchentes no Rio Grande do Sul, desviando o foco das causas reais e dificultando respostas eficazes.
Conforme apontou o relatório do Netlab/UFRJ, durante as eleições de 2022, a parceria entre o Tribunal Superior Eleitoral (TSE) e a Meta visava conter a desinformação eleitoral por meio da análise de denúncias e da aplicação de medidas como remoção de conteúdos nocivos e uso de rótulos informativos. No entanto, conforme demonstrado no relatório, parcelas significativas de publicações denunciadas e classificadas como desinformação não foram rotuladas nem removidas.
Com o abandono de parcerias e a flexibilização das políticas de moderação, a tendência é que a circulação de conteúdos nocivos aumente, expondo o sistema democrático a manipulações e fragilizando o acesso dos cidadãos a informações confiáveis. A decisão de não mais utilizar fact-checking também é uma estratégia para diminuir a responsabilidade da plataforma frente a desinformação e discurso de ódio que nela circulam.
Lucro acima de tudo: a moderação de anúncios fraudulentos
A falta de moderação adequada nos anúncios veiculados nas plataformas da Meta também compromete gravemente a segurança dos usuários e a livre concorrência entre anunciantes.
De acordo com investigação do Financial Times, relatórios internos da empresa revelaram que ela adota práticas que favorecem grandes anunciantes, como a implementação de “proteções” que reduzem a detecção de irregularidades com base no valor investido em publicidade. Essa política, que prioriza ganhos financeiros em detrimento da responsabilidade ética, tem facilitado a disseminação de golpes e fraudes publicitárias, resultando em prejuízos financeiros significativos para os usuários.
Conforme alerta a Federal Trade Commission (FTC), órgão dos Estados Unidos (EUA) responsável pela proteção ao consumidor, os lucros obtidos por criminosos através de plataformas digitais dispararam de 42 milhões de dólares em 2017 para alarmantes 1,2 bilhão em 2022, um aumento de 2.757%.
No Reino Unido, dados da UK Finance mostram que mais de 75% das fraudes financeiras se originam em redes sociais, movimentando mais de 1,2 bilhão de libras anuais. No Brasil, a situação não é diferente: um levantamento da OLX em parceria com a AllowMe estima perdas de R$ 551 milhões em 2022, destacando anúncios fraudulentos como uma das práticas mais recorrentes.
Ainda mais alarmante, um relatório recente da Silverguard, empresa de proteção financeira digital, revela que, entre janeiro e junho de 2024, 8 em cada 10 golpes financeiros no Brasil tiveram início em plataformas da Meta, com os golpes de compra online liderando entre as práticas criminosas.
Retórica da censura esconde ausência de transparência, segurança e responsabilidade
Outra questão levantada pelas mudanças abrange o direito do público de acessar as informações necessárias para responsabilizar plataformas e gozar plenamente do direito à liberdade.
Sem transparência plena, a liberdade de expressão se torna uma promessa vazia, especialmente em um cenário em que as plataformas digitais controlam aquilo que é removido ou recomendado para os usuários.
Embora relatórios de transparência sejam apresentados como medidas de compliance, sua estrutura atual – frequentemente voluntária, superficial e sem possibilidade de auditoria independente – limita o acesso real a informações relevantes. As críticas a esses relatórios, que focam em dados agregados e carecem de detalhes sobre casos concretos, revelam um padrão de “transparency-washing”, em que as plataformas destacam ações específicas, como requisições governamentais, para desviar a atenção da falta de clareza sobre suas práticas diárias de moderação.
No caso da Meta, a falta de dados detalhados sobre moderação no Brasil, enquanto outros países recebem relatórios específicos, reforça a percepção de descaso com a responsabilidade local e limita a compreensão do impacto das políticas da empresa no ambiente informacional nacional.
Sem a imposição de regulamentações robustas, como o Digital Services Act na União Europeia, o cenário, que já é opaco, tende a piorar, comprometendo ainda mais a integridade da informação e a liberdade de expressão.
As mudanças anunciadas reforçam o lugar de monopólio da censura dos conteúdos pela própria empresa Meta, que passa a ser o único árbitro do que os usuários irão ver ou não em suas plataformas, porém usando a retórica da liberdade para manter sua imunidade perante as leis locais.
R. Marie Santini, Professora da Escola de Comunicação e diretora do NetLab (Internet and Social Media Research Lab), Universidade Federal do Rio de Janeiro (UFRJ) e Debora Salles, Coordenadora geral de pesquisa do NetLab (Internet and Social Media Research Lab) , Universidade Federal do Rio de Janeiro (UFRJ)
This article is republished from The Conversation under a Creative Commons license. Read the original article.