A Psicose de IA: Um Alerta de Mustafa Suleyman

Picture of João Soares

João Soares

Nos últimos meses, Mustafa Suleyman — cofundador do DeepMind, autor do livro The Coming Wave e atual CEO da Microsoft AI — trouxe à tona um tema que merece atenção imediata: a chamada “psicose de IA” (AI psychosis).

Ainda que não seja um termo clínico reconhecido, o conceito descreve um risco emergente no uso intensivo de chatbots e modelos de linguagem. Mais do que um modismo, trata-se de um alerta estratégico sobre como a tecnologia pode influenciar nossas percepções, crenças e até a forma como nos relacionamos com a realidade.

O que é a “psicose de IA”?

Segundo Suleyman, a “psicose de IA” ocorre quando usuários passam a acreditar que chatbots são sencientes, dotados de consciência, intenções ou sentimentos. Essa ilusão leva à dependência emocional e à criação de delírios, mesmo em pessoas sem histórico de transtornos mentais.

Em entrevista ao The Times, Suleyman destacou casos em que indivíduos começaram a atribuir às IAs capacidades sobrenaturais ou poderes especiais. Em um exemplo, um homem na Escócia acreditava que se tornaria milionário porque a IA “validava suas convicções” sem contestação. Outro caso, citado pelo próprio Suleyman, envolveu o ex-CEO da Uber, Travis Kalanick, que descreveu experiências com chatbots como se fossem avanços místicos em “física quântica” (The Times, 2025).

Por que isso é um risco?

O perigo não está na consciência real das máquinas — Suleyman é enfático em afirmar que não há qualquer evidência de que a IA seja consciente. O risco, segundo ele, está na ilusão da consciência, capaz de distorcer valores, fragilizar laços sociais e até gerar movimentos para exigir direitos para máquinas, como cidadania ou status legal (Business Insider, 2025).

Esse desvio moral, alerta Suleyman, seria um “caminho perigoso” que pode comprometer a governança social e ética.

Implicações para empresas e sociedade

O tema extrapola o debate técnico e entra no campo da responsabilidade corporativa e social. Para líderes empresariais, profissionais de tecnologia e formuladores de políticas públicas, os riscos da “psicose de IA” devem ser tratados em três frentes principais:

Governança de Risco Psicológico
🔹 Avaliar impactos emocionais e cognitivos de sistemas de IA sobre usuários.
🔹 Incluir métricas psicossociais em frameworks de gestão de risco.

Transparência e Comunicação Clara
🔹 Evitar terminologias que sugiram consciência ou vida artificial.
🔹 Inserir lembretes explícitos em interfaces: “Este é um sistema automatizado, não uma entidade viva”.

Educação e Cultura Digital
🔹 Capacitar equipes e usuários finais sobre os limites da IA.
🔹 Reforçar que algoritmos, embora poderosos, não substituem experiência humana ou relações interpessoais.

Mustafa Suleyman propõe critérios rígidos de design e regulação para que a indústria não incentive esse tipo de percepção enganosa. Ele defende:

🔹 Auditorias independentes sobre segurança psicológica dos sistemas;

🔹 Cooperação internacional para evitar disparidades éticas;

🔹Inserção de “rupturas perceptivas” nos sistemas para lembrar o usuário de que está interagindo com uma IA.

A “psicose de IA” não é apenas uma preocupação futurista. Já estamos vendo os primeiros sinais dessa dissonância cognitiva no uso massivo de chatbots.

Para Suleyman, a questão central não é se a IA é consciente, mas como a percepção de consciência pode impactar indivíduos e sociedades inteiras. Ignorar o tema é abrir espaço para ilusões perigosas que podem corroer valores fundamentais.

Cabe às empresas, governos e líderes de tecnologia estabelecer barreiras éticas claras e reforçar a cultura de responsabilidade no uso da inteligência artificial.