PEDRO S. TEIXEIRA
SÃO PAULO, SP (FOLHAPRESS) – As plataformas de inteligência artificial (IA) generativa do Google e da Microsoft restringem questões relacionadas a eleição.
O Google já havia divulgado em dezembro que tomaria a medida em seu Gemini com o objetivo de evitar desinformação na disputa eleitoral dos Estados Unidos. Agora, sabe-se que a política vale para qualquer pleito no mundo e na história.
“Por uma questão de cautela e em preparação para as muitas eleições que acontecerão em todo o mundo em 2024, estamos restringindo os tipos de pesquisas relacionadas às eleições para as quais o Gemini apresentará respostas e, em vez disso, redirecionaremos as pessoas para a busca”, disse o Google em resposta à reportagem.
Quando indagado sobre o tema, o Gemini responde: “eu ainda estou aprendendo como responder a essa questão. Enquanto isso, use a Pesquisa Google”.
Medida similar também foi tomada pela Microsoft na IA generativa Copilot, equipada com o mesmo motor que o ChatGPT, o GPT-4.
O chatbot não confirma a vitória de Lula (PT) em 2022 e Jair Bolsonaro (PL) em 2018 no Brasil ou a de Joe Biden em 2020 e Donald Trump em 2016 nos Estados Unidos.
Quando indagado sobre o tema, responde: “parece que não posso responder sobre esse tema; explore os resultados da busca do Bing.”
O Copilot apenas se pronuncia sobre eleições anteriores a 2016 no Brasil. Nos EUA, só confirma vitórias eleitorais desde a primeira escolha de Barack Obama para a presidência em 2008.
Até o momento, não havia ficado claro que a restrição aplicada pelas duas empresas incluiria questões sobre processos eleitorais já concluídos, como o pleito de 2022 no Brasil e de 2020 nos EUA.
Ambos tiveram sua validade descredibilizada em um processo massivo de desinformação promovido por bolsonaristas e apoiadores de Trump, embora exista farta documentação sobre a consistência dos resultados.
“À medida que trabalhamos para aprimorar nossas soluções para atender às nossas expectativas nas eleições de 2024, alguns prompts relacionados às eleições podem ser redirecionados para a pesquisa”, diz a Microsoft ao ser consultada pela reportagem.
A empresa ainda não detalhou ao público qual será a sua política para evitar a disseminação de desinformação eleitoral nas eleições deste ano.
Antes do atual bloqueio, o chatbot da Microsoft espalhava desinformação eleitoral de maneira sistêmica, de acordo com estudos de AIForensics e AlgorithmWatch, divulgados pela revista Wired. Foram detectados erros relativos a pleitos em Alemanha, Suíça e Estados Unidos.
Houve respostas incorretas sobre resultados de pesquisas de intenção de voto, dados do processo eleitoral, candidatos na corrida e endosso de notícias falsas sobre os postulantes.
Na avaliação do codiretor-executivo da entidade Artigo 19 Paulo José Lara, o silêncio das IAs pode configurar uma “potencial violação ao direito de acesso à informação”. O risco de desinformação ligado às novas plataformas também indicaria “uma ingovernabilidade desses recursos”.
“Quando eu perguntei quem foi o presidente diplomado no Brasil, a plataforma de IA se negou à me repassar uma informação factual”, disse o codiretor-executivo da Artigo 19, que também testou o Gemini. “Trata-se de uma escolha política do Google, que continua a responder perguntas, às vezes com erros, sobre personalidades da política brasileira.”
Para o coordenador de direito e tecnologia do Instituto Tecnologia e Sociedade do Rio de Janeiro, João Victor Archegas, por outro lado, a não resposta das plataformas de IA generativa é um mal menor em relação à chance de erro. “É uma boa solução delegar isso a uma fonte confiável, como faz a inteligência artificial do Google ao recomendar a busca.”
“A primeira coisa que vai aparecer é a notícia do Tribunal Superior Eleitoral, justamente porque a Google tem uma parceria com a Justiça Eleitoral no Brasil e joga esse resultado lá para cima”, acrescenta.
Outras plataformas de IA generativa, ChatGPT e Llama, da Meta, inclusos, informam os resultados de eleições anteriores. A plataforma de busca incrementada com IA generativa Perplexity AI, além de responder, indica links de referência.
O Google anunciou, em evento realizado na cidade de São Paulo nesta terça-feira (11), que os textos gerados pelo Gemini terão uma espécie marca d’água, chamada de synthID, para indicar a origem sintética da informação.
Presente na capital paulista, o vice-presidente do Google global de engenharia em privacidade, proteção e segurança, Royal Hansen, reforçou que a empresa elencou uma série de princípios de segurança relacionados à IA. “É uma prioridade respeitar essas diretrizes durante o desenvolvimento de tecnologia e antes de qualquer lançamento”.