A Câmara dos Deputados deve votar, nesta quarta-feira (20), um projeto de proteção a crianças e adolescentes em ambiente digital, após as denúncias do influenciador Felca sobre exploração e sexualização infantil terem ganhado repercussão em todo o país.
Na terça (19), a Câmara aprovou a tramitação em regime de urgência do texto, o que acelera sua análise e votação pelos deputados. Bolsonaristas protestaram, apontando que o texto contém o que consideram ser censura às redes sociais. O projeto já foi aprovado pelo Senado no ano passado.
A proposta tem o apoio do governo Lula (PT) e do presidente da Câmara, Hugo Motta (Republicanos-PB), mas enfrenta oposição de bolsonaristas e das big techs.
A proposta prevê, por exemplo, que as plataformas devem prevenir e mitigar riscos de acesso por crianças e adolescentes a conteúdos de exploração e abuso sexual, violência física, assédio, práticas publicitárias predatórias, entre outros.
O texto também proíbe que as empresas monetizem ou impulsionem conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva.
Além disso, o texto estipula condições para a retirada de conteúdo que viole direitos de crianças e adolescentes e lista possíveis punições às empresas.
Veja os principais pontos do projeto de lei 2.628/22, apelidado de ECA (Estatuto da Criança e do Adolescente) digital.
OBJETIVO DA PROPOSTA
Garantir a proteção integral, especial e prioritária de crianças e adolescentes por produtos e serviços de tecnologia, o que envolve assegurar sua privacidade, dados, segurança e saúde mental e física
OBRIGAÇÕES DAS PLATAFORMAS
- Informar a todos os usuários a faixa etária indicada para o produto ou serviço
- Ter mecanismos seguros e auditáveis para aferir a idade dos usuários, respeitando a LGPD (Lei Geral de Proteção de Dados) e que não seja autodeclaração; poder público pode regular ou promover soluções técnicas de verificação de idade
- Avaliar o conteúdo disponibilizado para crianças e adolescentes para que sejam compatíveis com a classificação indicativa
- Prevenir e mitigar riscos de acesso, exposição ou recomendação de contato de crianças e adolescentes com os seguintes conteúdos: exploração e abuso sexual, violência física, intimidação, assédio, indução a práticas que levem danos à saúde física ou mental, uso de drogas, automutilação, suicídio, promoção de jogos de azar, tabaco ou bebidas alcoólicas, práticas publicitárias predatórias, pornografia, entre outros
- Adotar medidas para impedir que crianças e adolescentes acessem conteúdos, serviços ou produtos ilegais, pornográficos ou claramente inadequados à faixa etária
- Possibilitar ferramentas de supervisão dos pais ou responsáveis
- Devem assegurar que contas de crianças e adolescentes de até 16 anos estejam vinculadas, de forma verificável, à conta ou à identificação de um de seus responsáveis
- Se houver indícios de que a conta é de criança e adolescente que não tenham a idade mínima exigida, as redes devem suspender esse usuário, assegurando uma forma de recorrer e de comprovar a idade
- Adotar como padrão configurações que evitem o uso compulsivo por crianças e adolescentes
- Oferecer funcionalidades que permitam limitar e monitorar o tempo de uso
- Disponibilizar aos usuários mecanismos para notificar violações aos direitos de crianças e adolescentes
- Comunicar às autoridades conteúdos de aparente exploração, abuso sexual, sequestro e aliciamento detectados em seus produtos ou serviços
- Manter representante legal no Brasil
PROIBIÇÕES DAS PLATAFORMAS - Usar dados pessoais para direcionar publicidade a crianças e adolescentes
- Monetizar ou impulsionar conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva
RETIRADA DE CONTEÚDO E REGULAÇÃO DE REDES - Plataformas devem observar “deveres de prevenção, de proteção, de informação e de segurança”
- Plataformas devem retirar conteúdo que viole direitos de crianças e adolescentes “assim que forem comunicados do caráter ofensivo da publicação, independentemente de ordem judicial”
- Conteúdos jornalísticos ou submetidos a controle editorial não estão sujeitos à regra de retirada
- Retirada de conteúdo deve indicar motivo e se a análise foi humana ou automatizada, além de haver possibilidade de recurso do usuário
- Plataformas devem identificar uso abusivo de instrumentos de denúncia para coibir censura ou perseguição
PUNIÇÕES DAS PLATAFORMAS - Advertência com prazo de 30 dias para correção
- Multa de até 10% do faturamento do grupo econômico no Brasil ou de R$ 10 a R$ 1.000 por usuário, limitada ao total de R$ 50 milhões
- Suspensão temporária das atividades
- Proibição de exercer atividades
SUPERVISÃO DOS PAIS
Plataformas devem ter configurações e ferramentas para que os responsáveis limitem e gerenciem o tempo de uso, o conteúdo acessado e o tratamento de dados pessoais, além de poderem restringir compras e identificar perfis adultos com os quais a criança se comunica
AUTORIDADE NACIONAL - Projeto estabelece uma entidade da administração pública para “zelar, editar regulamentos e procedimentos e fiscalizar o cumprimento” desta lei, “assegurando tratamento diferenciado e proporcional a serviços de naturezas, riscos e modelos de negócio distintos”
- Autoridade nacional pode fazer recomendações e orientações
- Autoridade nacional pode editar normas complementares para regulamentar os dispositivos, como estabelecer diretrizes e padrões para mecanismos de supervisão parental
PROTEÇÃO DE DADOS
No caso de uso por crianças e adolescentes, plataforma deverá, por padrão, operar com o grau mais elevado de proteção à privacidade e dados pessoais
PORNOGRAFIA
Plataformas que tenham conteúdo pornográfico devem impedir a criação de contas ou perfis por crianças e adolescentes
JOGOS
Prevenir o uso compulsivo, com limites de compra e mecanismos de alerta e supervisão dos responsáveis