RAPHAEL HERNANDES
SÃO PAULO, SP (FOLHAPRESS) – No sábado (25), as redes sociais foram inundadas com uma imagem falsa do papa Francisco vestindo um casacão branco (também chamado por aí de jaqueta puffer, ou japona para quem está abaixo do Trópico de Capricórnio).
Além do suposto estilo papal, o conteúdo chamou a atenção por se tratar de uma imagem gerada por inteligência artificial (IA) extremamente convincente, que enganou muita gente.
Não é a primeira do tipo que brotou nos últimos dias. Em aplicações mais nocivas, deepfakes (conteúdo sintético gerado por IA) mostraram uma falsa prisão do ex-presidente americano Donald Trump e uma forjada cena do presidente russo Vladmir Putin atrás das grades.
A tecnologia usada para fazer esse tipo de conteúdo é chamada de “inteligência artificial generativa”, pois gera novos conteúdos. Nesse caso, criam imagens, mas a categoria ganhou destaque no final do ano passado com o lançamento do ChatGPT, voltado a textos. Outras aplicações sintetizam áudios e vídeos.
Por mais que a versão mais atualizada do GPT (motor do ChatGPT) seja capaz de entender fotos, tratam-se de sistemas distintos, cada um especializado em uma coisa. Os que fazem imagens passaram a borbulhar no primeiro semestre de 2022 com a explosão de aplicativos fáceis de usar, por mais que esse tipo de uso de IA já existisse anos antes.
Alguns dos principais nomes nessa área são o Dall-e (da mesma criadora do GPT), Stable Diffusion e Midjourney. A imagem do papa foi publicada na comunidade oficial deste último dentro do fórum online Reddit na sexta (24).
No último dia 15, o Midjourney recebeu uma atualização, ainda em testes, para uma versão que promete resultados ainda mais realistas.
Nesses sistemas, os usuários descrevem a imagem que querem usando um texto e pronto. No exemplo abaixo, a reportagem pediu ao Dall-e que fizesse “um [cachorro] pug preto comendo uma banana em estilo Renascentista”.
Assim como outras IAs modernas, tudo passa pela análise de um monte de dados. O computador detecta padrões em imagens e usa a informação para sintetizar seus conteúdos.
A verossimilhança é possível graças a uma arquitetura denominada “rede generativa adversarial”. Essa categoria de aprendizagem de máquina surgiu em 2014 e coloca a IA em pares: um lado capaz de criar o conteúdo, outro para avaliar se o conteúdo é falso. É como se um robô ficasse repetidamente gerando imagens enquanto o segundo responde “não está bom, faça de novo” até o resultado ser convincente.
Há algumas limitações, percebidas principalmente nos detalhes. No caso da imagem do papa, as mãos distorcidas denunciam a IA –uma questão frequente nesses sistemas, mas que começa a ser solucionada. Em versões mais antigas desses geradores, uma das principais dificuldades eram os dentes.
Em 2019, o site “This Person Does Not Exist” (“esta pessoa não existe”) trouxe ao público uma das primeiras impressões desse tipo de tecnologia. Usando uma IA menos sofisticada do que a vista atualmente, gera retrato de pessoas não existentes.
Usando uma versão mais recente, rostos sintéticos foram classificados como mais confiáveis do que faces reais. A avaliação consta em artigo científico publicado pelos pesquisadores Sophie Nightingale (Universidade Lancaster, na Inglaterra) e Hany Farid (Universidade da California em Berkeley, nos EUA), em 2022. Para os testes, exibiram baterias de retratos para um grupo de pessoas classificar.
“As imagens geradas sinteticamente não são só realistas, mas inspiram mais confiança que as reais. Isso pode ser porque as sintéticas tendem a parecer mais genéricas”, diz o estudo.
Uma das preocupações vindas desses conteúdos sintéticos é justamente a aplicação nos deepfakes. A preocupação levou a a Darpa (Agência de Projetos de Pesquisa Avançada de Defesa dos EUA) a investir milhões no desenvolvimento de tecnologias para combater esses conteúdos falsos.
A difusão da inteligência artificial generativa para imagens levou a protestos de artistas, em partes pelo temor de substituição no trabalho, principalmente após uma IA ganhar um concurso de arte.
Há também a questão do uso de seus conteúdos para alimentar os robôs. A criadora da Stable Diffusion, Stability AI, foi processada pelo fornecedor de banco de imagens Getty Images pelo uso indevido de suas fotos.