(Tempo de leitura: 5 minutos)
A Meta, empresa responsável por plataformas como Facebook e Instagram, anunciou mudanças em suas políticas de moderação de conteúdo. O fim da checagem de fatos para conter fake news, uma medida que antes era central para limitar a disseminação de desinformação, gerou intenso debate sobre os impactos dessa decisão em comunidades vulneráveis, como mulheres, negros, imigrantes e pessoas LGBTQIA+.
Embora a Meta prometa maior rigor na moderação de conteúdos e no combate a discursos de ódio, as alterações nos algoritmos de distribuição de postagens preocupam especialistas. Entre os principais questionamentos, está o risco de as mudanças contribuírem para a amplificação de conteúdos nocivos, afetando diretamente a segurança e a saúde mental de grupos historicamente mais expostos à violência online.
A mudança, por enquanto, está restrita aos Estados Unidos, de acordo com informações fornecidas pela empresa à Advocacia-Geral da União (AGU).
Para entender melhor os impactos dessas medidas, o Eufêmea conversou com Myllena Diniz, jornalista, mestre em Ciência da Informação pela Universidade Federal de Alagoas (Ufal) e doutoranda em Ciência da Informação pelo Instituto Brasileiro de Informação em Ciência e Tecnologia (Ibict) e pela Universidade Federal do Rio de Janeiro (UFRJ).

Quando questionada sobre as consequências mais visíveis da desinformação para a saúde mental das mulheres, Myllena destacou que há um consenso claro entre os pesquisadores da área: a desinformação é especialmente prejudicial para as maiorias minorizadas.
“Ansiedade, medo, fuga, desvalorização da autoimagem, busca excessiva pelos ‘padrões’ de beleza instituídos pelo modelo capitalista, depressão, transtornos alimentares, estigmatização e até mesmo conflitos interpessoais, decorrentes do estresse relacional causado pelas controvérsias da desinformação entre familiares e amigos”, explica a especialista.
Liberdade de expressão x Dignidade humana
Mark Zuckerberg, CEO da Meta, anunciou que a empresa está planejando um retorno aos seus princípios fundamentais, com foco em “dar voz às pessoas”. Em seu comunicado, Zuckerberg destacou a importância da liberdade de expressão, afirmando que ela tem sido comprometida por “diversos erros” e práticas de “censura” nos últimos tempos.
De acordo com Myllena Diniz, a liberdade de expressão deve estar intrinsecamente ligada à garantia da dignidade humana. “A remoção dessas diretrizes, ao contrário do que alega a Meta, não tem relação com a ampliação da livre manifestação do pensamento. A liberdade de expressão, por natureza, deve servir à promoção da dignidade humana, e não a narrativas que fomentam discursos de ódio, xingamentos, mentiras e ataques”, afirma.
Ainda conforme a jornalista, a falta de regulação permite que discursos nocivos continuem circulando livremente nas redes sociais, contribuindo para a desumanização de grupos vulneráveis. “Ao fazer isso, a Meta possibilita a produção de discursos que afastam esses grupos de sua condição mais básica: a humana”, ressalta.
“Desinformação é lucrativa”

No anúncio do fim do programa de checagem, Mark Zuckerberg justificou a decisão alegando que “os verificadores de fatos têm sido muito parciais politicamente e destruíram mais confiança do que construíram, especialmente nos Estados Unidos”.
Marta Alencar, doutoranda em Ciências da Comunicação e especialista em checagem de fatos, rebate a justificativa, apontando a contradição entre a alegação de polarização política dos fact-checkers e as claras posições políticas adotadas pelos líderes das plataformas.
“Elon Musk, Mark Zuckerberg e outros estão alinhados à extrema direita que, ao negar direitos e fomentar discursos de ódio, favorece o lucro dessas empresas. Desinformação é lucrativa, e o discurso de ódio também”, ressalta Marta.
Ela considera a recente decisão da Meta um retrocesso preocupante para a democracia e para os direitos das mulheres.
“Mulheres frequentemente são alvo de ataques e assédios, e boa parte das iniciativas de checagem no Brasil são lideradas por elas. Essa decisão foi autoritária e claramente movida por interesses econômicos e políticos”, disse.
Ela acrescenta que muitas dessas desinformações estão diretamente ligadas a questões de raça e xenofobia. “Por exemplo, como mulher nordestina e parda, percebo claramente a circulação de conteúdos desinformativos direcionados a atacar nossa conduta”, relata Marta Alencar.”, avalia Marta.
A especialista destaca que, em vez de fortalecer a democracia nas plataformas digitais, a decisão da Meta abre caminho para a ampliação de conteúdos que violam os direitos humanos e enfraquecem valores democráticos. “Eu mesma já sofri ataques, perseguições e ameaças no meu trabalho de checagem. Agora, com essa postura da Meta, é como se a própria plataforma desqualificasse nosso trabalho e incentivasse posicionamentos extremistas”, acrescenta.
O que diz a lei?

“O artigo 7º da Lei Maria da Penha (Lei nº 11.340/2006) determina que a violência contra a mulher deve ser enfrentada em todas as suas formas, incluindo a violência virtual. A amplificação de discursos de ódio pode criar um ambiente hostil, desencorajando mulheres a se expressarem ou denunciarem casos de violência, o que pode resultar no aumento da violência psicológica e física”, explica Nathalia Peixoto, advogada especialista em Direito Digital e consultora em Proteção de Dados.
Embora a Meta alegue que controlará apenas conteúdos explicitamente perigosos, Nathalia alerta que essa medida pode ser insuficiente. Segundo ela, o discurso de ódio frequentemente se disfarça de opinião, e a ausência de uma moderação efetiva pode agravar os casos de violência e assédio nas plataformas digitais.
A especialista também destaca as possíveis consequências legais para plataformas que falham na moderação de discursos de ódio. “O Marco Civil da Internet (Lei nº 12.965/2014) prevê, no artigo 19, que provedores de aplicações de internet podem ser responsabilizados civilmente por danos decorrentes de conteúdos gerados por terceiros, caso não removam tais conteúdos após ordem judicial”, explica Nathalia.
Ela reforça que as plataformas devem considerar as legislações específicas de cada país em suas políticas de moderação.
“A análise do artigo 19 do Marco Civil da Internet é crucial para definir como as plataformas devem agir para evitar a propagação de discursos de ódio e proteger grupos vulneráveis. O respeito às legislações nacionais é indispensável para garantir um ambiente online mais seguro e democrático”, conclui.