Descrição de chapéu marco civil da internet Meta

Posicionamento da Meta em ação do STF tem tom oposto ao de Zuckerberg

CEO fala em 'muitos erros' e 'censura', enquanto empresa descreveu atuação como 'efetiva', 'coerente' e 'contundente'

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Em manifestação no STF (Supremo Tribunal Federal) em novembro do ano passado, a Meta usou tom oposto ao agora empregado por Mark Zuckerberg, CEO da empresa, para abordar suas atividades de moderação.

Ao invés de falar em "censura" ou em acusar a ocorrência de uma alta quantidade de erros e restrições excessivas —como fez agora o CEO—, no curso de ação que pode resultar em maior responsabilização das redes sociais no Brasil, a Meta defendeu sua atuação proativa.

Com afirmações como a de que a "moderação de conteúdo realizada pela Meta é efetiva" e que a aplicação de suas políticas "engloba uma abordagem coerente e abrangente", a empresa buscava rebater a ideia de que haveria inação por parte dela no combate a conteúdos nocivos.

Mark Zuckerberg, CEO da Meta, discursa na sede da companhia na Califórnia, nos EUA - Manuel Orbegozo - 25.set.24/Reuters

O tom é bastante distinto do de Zuckerberg. "Construímos um monte de sistemas complexos para moderar o conteúdo. Mas o problema com sistemas complexos é que eles erram", disse ele no último dia 7, ao anunciar uma guinada na postura da empresa. "Chegamos a um ponto em que são apenas muitos erros e muita censura."

Ele também anunciou que deixaria de usar filtros automatizados para violações de baixa gravidade: "O problema é que os filtros cometem erros e removem muito conteúdo que não deveriam", disse o dono da empresa.

Já no documento protocolado no STF, apenas dois meses antes, a empresa destacava que sua atividade de moderação se dava com base na "detecção de violações baseadas em denúncias de usuários, tecnologia (com uso de inteligência artificial) e análise humana" e que "os resultados desses esforços são contundentes".

Dizia ainda que isso "demonstra que, para situações objetivas e previstas nos termos de uso, as ferramentas existem e são efetivas no combate à veiculação de conteúdos nocivos. Salienta-se que 98,30% desses conteúdos foram removidos por ação proativa".

A Folha questionou a Meta quanto a quais fatos provocaram a mudança de visão sobre a ação de moderação da própria empresa nesse curto intervalo. Também perguntou por que, nas manifestações anteriores, não era divulgada pela empresa a estimativa de erros de moderação.

A Meta respondeu que não iria comentar.

O Facebook —que faz parte da Meta, junto do Instagram, Threads e WhatsApp— é uma das partes da ação que começou a ser julgada no fim de 2024 no STF e que envolve o Marco Civil da Internet.

O seu artigo 19, ponto principal da discussão pela corte, diz que as redes só estão sujeitas a pagar indenização por um conteúdo postado por terceiro se, após uma decisão judicial ordenando a retirada, mantiverem o conteúdo no ar.

À época, a regra foi aprovada com a preocupação de assegurar a liberdade de expressão. Uma das justificativas era que as redes seriam estimuladas a remover conteúdos legítimos com o receio de serem responsabilizadas.

Críticos dizem que a regra desincentiva as empresas a combater conteúdo nocivo e querem ampliar as hipóteses de responsabilização.

A Meta defende a constitucionalidade do esquema atual, mas, ao mesmo tempo, busca se blindar das críticas de que só agiria para remover posts problemáticos após ordem judicial.

"O artigo 19 do MCI [Marco Civil da Internet] não torna a internet um ambiente anárquico. Como já dito, ele não impede a atuação proativa dos provedores com o escopo de mitigar o risco de a internet ser utilizada para fins ilícitos", diz a empresa nessa mesma manifestação.

Também o tom reservado ao Judiciário guarda diferenças relevantes. Na ação no Supremo, ao defender a importância do modelo do Marco Civil da Internet brasileiro, o Judiciário é descrito pela empresa como "órgão constitucionalmente designado para realizar esse juízo de ponderação, garantindo que direitos fundamentais em conflito sejam harmonizados de forma justa e equilibrada".

Zuckerberg diz que "países da América Latina têm tribunais secretos que podem ordenar que empresas removam conteúdos de forma silenciosa".

Em nota e relatório divulgados pela Meta em dezembro, a empresa voltou a defender sua atuação proativa, em meio ao julgamento do STF, marcado até aquela altura por sessões com fortes críticas às redes.

Sob o título "nosso trabalho proativo para proteger a integridade das eleições municipais no Brasil em 2024", a empresa afirmava que "não há inércia da Meta para detectar e agir sobre conteúdos nocivos, ao contrário do que tem se ouvido no debate público".

"Queremos ser claros: não toleramos violência e outros comportamentos nocivos em nossos serviços. E não agimos sobre esses tipos de conteúdos somente quando recebemos ordens judiciais, pelo contrário."

"Mais de 95% dos conteúdos com bullying foram identificados pela própria Meta e removidos antes de qualquer denúncia. Nos outros tipos de conteúdos violadores mencionados, esse percentual ficou acima de 99%", dizia ainda a nota.

Além disso, no relatório eleitoral publicado na ocasião, a empresa apresentava, como destaque de sua atuação para combater informações falsas, o programa de parceria com agências de checagem —outro alvo de Zuckerberg no anúncio recente.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.