Em manifestação no STF (Supremo Tribunal Federal) em novembro do ano passado, a Meta usou tom oposto ao agora empregado por Mark Zuckerberg, CEO da empresa, para abordar suas atividades de moderação.
Ao invés de falar em "censura" ou em acusar a ocorrência de uma alta quantidade de erros e restrições excessivas —como fez agora o CEO—, no curso de ação que pode resultar em maior responsabilização das redes sociais no Brasil, a Meta defendeu sua atuação proativa.
Com afirmações como a de que a "moderação de conteúdo realizada pela Meta é efetiva" e que a aplicação de suas políticas "engloba uma abordagem coerente e abrangente", a empresa buscava rebater a ideia de que haveria inação por parte dela no combate a conteúdos nocivos.
O tom é bastante distinto do de Zuckerberg. "Construímos um monte de sistemas complexos para moderar o conteúdo. Mas o problema com sistemas complexos é que eles erram", disse ele no último dia 7, ao anunciar uma guinada na postura da empresa. "Chegamos a um ponto em que são apenas muitos erros e muita censura."
Ele também anunciou que deixaria de usar filtros automatizados para violações de baixa gravidade: "O problema é que os filtros cometem erros e removem muito conteúdo que não deveriam", disse o dono da empresa.
Já no documento protocolado no STF, apenas dois meses antes, a empresa destacava que sua atividade de moderação se dava com base na "detecção de violações baseadas em denúncias de usuários, tecnologia (com uso de inteligência artificial) e análise humana" e que "os resultados desses esforços são contundentes".
Dizia ainda que isso "demonstra que, para situações objetivas e previstas nos termos de uso, as ferramentas existem e são efetivas no combate à veiculação de conteúdos nocivos. Salienta-se que 98,30% desses conteúdos foram removidos por ação proativa".
A Folha questionou a Meta quanto a quais fatos provocaram a mudança de visão sobre a ação de moderação da própria empresa nesse curto intervalo. Também perguntou por que, nas manifestações anteriores, não era divulgada pela empresa a estimativa de erros de moderação.
A Meta respondeu que não iria comentar.
O Facebook —que faz parte da Meta, junto do Instagram, Threads e WhatsApp— é uma das partes da ação que começou a ser julgada no fim de 2024 no STF e que envolve o Marco Civil da Internet.
O seu artigo 19, ponto principal da discussão pela corte, diz que as redes só estão sujeitas a pagar indenização por um conteúdo postado por terceiro se, após uma decisão judicial ordenando a retirada, mantiverem o conteúdo no ar.
À época, a regra foi aprovada com a preocupação de assegurar a liberdade de expressão. Uma das justificativas era que as redes seriam estimuladas a remover conteúdos legítimos com o receio de serem responsabilizadas.
Críticos dizem que a regra desincentiva as empresas a combater conteúdo nocivo e querem ampliar as hipóteses de responsabilização.
A Meta defende a constitucionalidade do esquema atual, mas, ao mesmo tempo, busca se blindar das críticas de que só agiria para remover posts problemáticos após ordem judicial.
"O artigo 19 do MCI [Marco Civil da Internet] não torna a internet um ambiente anárquico. Como já dito, ele não impede a atuação proativa dos provedores com o escopo de mitigar o risco de a internet ser utilizada para fins ilícitos", diz a empresa nessa mesma manifestação.
Também o tom reservado ao Judiciário guarda diferenças relevantes. Na ação no Supremo, ao defender a importância do modelo do Marco Civil da Internet brasileiro, o Judiciário é descrito pela empresa como "órgão constitucionalmente designado para realizar esse juízo de ponderação, garantindo que direitos fundamentais em conflito sejam harmonizados de forma justa e equilibrada".
Já Zuckerberg diz que "países da América Latina têm tribunais secretos que podem ordenar que empresas removam conteúdos de forma silenciosa".
Em nota e relatório divulgados pela Meta em dezembro, a empresa voltou a defender sua atuação proativa, em meio ao julgamento do STF, marcado até aquela altura por sessões com fortes críticas às redes.
Sob o título "nosso trabalho proativo para proteger a integridade das eleições municipais no Brasil em 2024", a empresa afirmava que "não há inércia da Meta para detectar e agir sobre conteúdos nocivos, ao contrário do que tem se ouvido no debate público".
"Queremos ser claros: não toleramos violência e outros comportamentos nocivos em nossos serviços. E não agimos sobre esses tipos de conteúdos somente quando recebemos ordens judiciais, pelo contrário."
"Mais de 95% dos conteúdos com bullying foram identificados pela própria Meta e removidos antes de qualquer denúncia. Nos outros tipos de conteúdos violadores mencionados, esse percentual ficou acima de 99%", dizia ainda a nota.
Além disso, no relatório eleitoral publicado na ocasião, a empresa apresentava, como destaque de sua atuação para combater informações falsas, o programa de parceria com agências de checagem —outro alvo de Zuckerberg no anúncio recente.
Comentários
Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.