A Meta, empresa controladora do Facebook, Instagram, WhatsApp e Threads, anunciou uma mudança significativa em sua abordagem de moderação de conteúdo nos Estados Unidos. Mark Zuckerberg, CEO da empresa, revelou na última terça-feira (7) que o sistema de checagem de fatos realizado por terceiros será descontinuado, sendo substituído por uma abordagem baseada na comunidade.
Essa mudança representa uma transformação fundamental na forma como essas plataformas lidam com a verificação de informações, com a Meta adotando um modelo similar ao sistema de “notas da comunidade” já utilizado no X (antigo Twitter). A empresa continuará com operações de checagem apenas para casos considerados graves, marcando um afastamento de sua estratégia anterior, que era mais abrangente.
Desafios Regulatórios e Implicações Globais
Embora as mudanças estejam, por enquanto, limitadas aos Estados Unidos, há preocupações sobre a possibilidade de implementação global, o que já gerou reações de órgãos reguladores em várias partes do mundo.
Aplicativos da Meta estão entre os mais usados no Brasil
No Brasil, o Ministério Público Federal (MPF) já solicitou esclarecimentos da Meta sobre o possível encerramento do sistema de checagem de fatos no país.
O sistema anterior da empresa operava em mais de 26 idiomas, em parceria com diversas organizações especializadas para combater a desinformação, especialmente em relação a conteúdos políticos. Declarações recentes de Zuckerberg, criticando a censura governamental na Europa e na América Latina, sugerem que essas mudanças podem eventualmente ser aplicadas fora dos Estados Unidos.
Evolução na Moderação de Conteúdo
Com o novo sistema, a moderação de conteúdo da Meta passará a se concentrar principalmente em violações de alta gravidade, como terrorismo, exploração sexual infantil, drogas, fraudes e golpes. A equipe de “confiança, segurança e moderação de conteúdo” da empresa terá como foco exclusivo esses tipos de infrações graves.
Em casos de menor gravidade, as plataformas implementarão o recurso de notas da comunidade, permitindo que os próprios usuários adicionem contexto ou alertas a conteúdos potencialmente problemáticos. Essa mudança representa uma transição de um modelo profissional de checagem de fatos para uma abordagem orientada pela comunidade. Além disso, as plataformas da Meta voltarão a recomendar conteúdos