SUGERIU TROCAR SAL PRO BROMETO

Homem tem intoxicação rara após seguir orientação do ChatGPT

Caso acendeu o alerta sobre riscos de buscar orientações médicas apenas em ferramentas de inteligência artificial.

Foto: Divulgação
Foto: Divulgação

Um homem de 60 anos, nos Estados Unidos, foi hospitalizado com uma intoxicação grave e incomum depois de seguir por três meses uma recomendação alimentar obtida no ChatGPT. O caso foi descrito em um artigo publicado no periódico científico Annals of Internal Medicine e acendeu o alerta sobre riscos de buscar orientações médicas apenas em ferramentas de inteligência artificial.

De acordo com o relato médico, o paciente apresentou delírios e paranoias, chegando a acreditar que o vizinho queria envenená-lo e que a água de seu filtro estava contaminada. Inicialmente, os profissionais de saúde suspeitaram de um transtorno psiquiátrico, mas exames revelaram baixos níveis de minerais e vitaminas essenciais no organismo.

Intoxicação por uso de Inteligência Artificial

Ao recuperar a lucidez, o homem contou que procurou alternativas ao consumo de sal comum (cloreto de sódio) e consultou o ChatGPT, que sugeriu o uso de brometo como substituto. O consumo prolongado da substância provocou bromismo, uma condição rara hoje em dia, mas que no passado já foi causa frequente de internações psiquiátricas devido a sintomas como alucinações.

Após três semanas de tratamento hospitalar, os níveis de brometo no corpo voltaram ao normal e o paciente recebeu alta. Os autores do estudo — Audrey Eichenberger, Stephen Thielke e Adam Van Buskirk — reforçaram o alerta: “O caso demonstra como o uso inadequado de inteligência artificial para obter informações de saúde pode levar ao desenvolvimento de doenças evitáveis e a consequências graves.”