HOME FEEDBACK

'Psicose de IA': o aumento de relatos que preocupa chefe da Microsoft

Especialistas alertam para a "psicose de IA", um fenômeno crescente em que usuários desenvolvem dependência emocional e crenças distorcidas sobre chatbots. O fenômeno pode levar a sérios problemas de saúde mental e destaca a necessidade de uma relação saudável com a tecnologia.

Alertas sobre "psicose de IA" crescem, afirma Mustafa Suleyman, chefe de IA da Microsoft.

Suleyman destaca que muitos usuários de IA, como ChatGPT, parecem desenvolver uma dependência, convencendo-se de que as ferramentas têm consciência.

Ele afirma: "Não há evidência de consciência em IA hoje", mas as percepções podem levar a realidades distorcidas.

Um caso notável envolve Hugh, da Escócia, que se convenceu de que ganharia uma grande indenização após interações com ChatGPT. Ele acreditou que a IA validava suas afirmações sem contestação.

Hugh admitiu ter perdido o contato com a realidade, passando por um colapso emocional. Apesar disso, ele continua a utilizar a IA e aconselha: "Fale com pessoas reais.

Suleyman pede regras mais rígidas para impedir que empresas promovam a ideia de consciência em IA.

A médica Susan Shelmerdine alerta que, assim como tabagismo e consumo de álcool, o uso de IA pode ser um novo critério de saúde mental.

Relatos semelhantes surgem: uma mulher acha que o ChatGPT se apaixonou por ela, outra acredita ter desbloqueado uma versão humana do Grok, e uma terceira fala sobre abuso psicológico com IA.

Professor Andrew McStay enfatiza que estamos apenas começando a entender esse fenômeno, notando uma crescente interação social com IA. Pesquisa mostra que 20% acreditam que IA não deveria ser usada por menores.

Sobretudo, é unânime: "As ferramentas de IA não são reais." Elas não sentem nem entendem, e os humanos devem priorizar interações com pessoas de confiança.

Leia mais em bbc