Angela Pinho/Folhapress
Alvo de tentativas de regulamentação, plataformas de internet defenderam na sexta-feira (31) suas ações contra a desinformação, e parte delas pediu regras claras do poder público para a moderação de conteúdo.
As declarações foram dadas por representantes das big techs em evento sobre democracia e plataformas digitais na Faculdade de Direito da USP.
Pela manhã, o ministro do STF (Supremo Tribunal Federal) Alexandre de Moraes defendeu que as empresas sejam responsáveis por qualquer conteúdo monetizado ou impulsionado e afirmou que há irresponsabilidade atualmente na forma como o tema é tratado.
Em exposições, representantes do YouTube e da Meta, dona do Facebook e do Instagram, defenderam que o poder público estabeleça parâmetros claros.
Chefe de política pública de integridade da Meta, Monica Guise afirmou que, ao contrário do que muitas vezes se diz, a empresa é a favor de uma regulamentação e gostaria de participar dos debates sobre o tema –até para saber como deve ser feita a moderação de conteúdo.
“As balizas do que é ou não democrático [em um conteúdo] precisam ser dadas de preferência pelo Legislativo”, afirma.
Sem citar Moraes, ela também refutou a afirmação do ministro de que as plataformas atuem com irresponsabilidade.
Guise disse que é fácil falar sobre moderação de conteúdo, mas muito difícil implementar, pois muitos casos ficam no que ela chamou de zona cinzenta. “O discurso de ódio é extremamente subjetivo. Uma mesma palavra em um contexto pode estar sendo usada para atacar e, em outro, para avisar e confrontar.”
Ela também descartou a comparação entre a facilidade que as redes têm de retirar pornografia infantil com a dificuldade de vetar conteúdos de caráter antidemocrático.
Segundo Guise, as plataformas dispõem da capacidade de cotejar qualquer material audiovisual com uma grande base de dados de vídeos de pornografia infantil que deixam uma espécie de impressão digital (chamada de hash, no termo técnico).
Dessa forma, conteúdos do tipo, que muitas vezes recirculam, são muito mais facilmente identificáveis do que outros.
Em sua exposição, Alana Rizzo, gerente de políticas públicas do YouTube no Brasil, disse que os governos devem dar diretrizes muito claras sobre o que é conteúdo ilegal, além de um certo grau de autonomia para as plataformas reagirem a situações inéditas, uma vez que o tempo do legislador é mais lento.
Ela também elencou medidas que a empresa tomou para favorecer conteúdos com credibilidade nas eleições e durante a pandemia de Covid, por exemplo.