Luiza Mello
O aumento de denúncias de uso de aplicativos de Inteligência Artificial para exploração e abuso sexual gerou mais de 71 mil denúncias aos órgãos de segurança pública. A maioria pelo uso de imagens fotorrealistas criadas por meio de IA nas redes sociais. A proliferação de aplicativos de inteligência generativos é uma nova tendência para os casos de abuso sexual no mundo. E as principais vítimas são mulheres e crianças. Especialistas do setor, que trabalham por uma internet segura, defendem que a legislação é um dos passos para impedir a proliferação desse tipo de crime nas redes sociais.
O senador Jader Barbalho (MDB) apresentou o Projeto de Lei Nº 623/2024 que propõe alteração no Código Penal para tipificar o crime de manipulação de imagem de forma não autorizada. “É uma forma de contribuir com a união de esforços para barrar essa nova ameaça, que envolve indiscriminadamente a manipulação de imagens. Temos que lidar com isso de uma maneira firme para que aqueles que se sentem livres para cometer tais abusos sejam punidos na forma da lei”, disse o senador.
A proposta de Jader Barbalho prevê prisão e multa para quem efetuar manipulação de fotografia ou vídeo, sem autorização da vítima, com ou sem a utilização de recursos tecnológicos, com o intuito de produzir imagem de nudez, ato sexual ou libidinoso de caráter íntimo.
O senador ressalta que a evolução da tecnologia de inteligência artificial, exige urgência na criminalização desse tipo de prática. “Proteger a imagem, principalmente das mulheres e crianças de nosso país torna-se urgente e necessário”, defende.
DEEPFAKES
O código penal já determina pena de reclusão para a prática chamada “upskirting”, que consiste em gravar mulheres nuas em locais públicos, como banheiros.
A Sensity AI, empresa de segurança digital que trabalha com solução de detecção de deepfake, revelou em um recente relatório, que robôs digitais estavam “tirando a roupa” de fotos comuns de mulheres, que eram postadas em redes sociais, e criando nudez falsa.
As deepfakes são imagens e vídeos baseados em um modelo real e depois alterados em computador. Um de seus usos tem sido para a criação de videoclipes pornográficos falsificados envolvendo celebridades, na maioria mulheres. Foram mais de 100 mil fotos de mulheres, que tiveram suas imagens adulteradas e foram compartilhadas online, nas redes sociais, segundo identificou o relatório.
As roupas são removidas digitalmente através de ferramentas de inteligência artificial, depois as imagens falsas, as chamadas deepfakes, são espalhadas pelos aplicativos de mensagens tipo Telegram, Whatsapp, entre outros.
Com o uso da inteligência artificial generativa, um criminoso consegue utilizar um vídeo ou imagem disponível na internet e transformá-lo em um conteúdo sexual. “A proliferação de aplicativos de IA generativa permite que se pegue a foto de uma pessoa vestida e se tire a roupa daquela pessoa”, explica Thiago Tavares, fundador e diretor-presidente da SaferNet Brasil. “Isso pode ser manipulado, gerar uma mídia sintética e representar aquela pessoa em uma imagem ultrarrealista de nudez”.
Jader Barbalho lembra que o tema é amplo e envolve não só a manipulação de imagens, como também casos de abusos mais graves em salas de realidade virtual ou metaverso que estão sob investigação em alguns países. “Vamos trabalhar no Congresso Nacional pela urgência de adoção de legislação específica para esse grave tema que afeta, principalmente, mulheres, crianças e adolescentes. O Poder Legislativo precisa se unir às famílias e aos demais poderes públicos para dar uma resposta rápida a essa grave ameaça. E só poderemos agir com a tipificação desse crime em nosso Código Penal”, concluiu o senador.