Nos últimos meses, Mustafa Suleyman — cofundador do DeepMind, autor do livro The Coming Wave e atual CEO da Microsoft AI — trouxe à tona um tema que merece atenção imediata: a chamada “psicose de IA” (AI psychosis).
Ainda que não seja um termo clínico reconhecido, o conceito descreve um risco emergente no uso intensivo de chatbots e modelos de linguagem. Mais do que um modismo, trata-se de um alerta estratégico sobre como a tecnologia pode influenciar nossas percepções, crenças e até a forma como nos relacionamos com a realidade.
O que é a “psicose de IA”?
Segundo Suleyman, a “psicose de IA” ocorre quando usuários passam a acreditar que chatbots são sencientes, dotados de consciência, intenções ou sentimentos. Essa ilusão leva à dependência emocional e à criação de delírios, mesmo em pessoas sem histórico de transtornos mentais.
Em entrevista ao The Times, Suleyman destacou casos em que indivíduos começaram a atribuir às IAs capacidades sobrenaturais ou poderes especiais. Em um exemplo, um homem na Escócia acreditava que se tornaria milionário porque a IA “validava suas convicções” sem contestação. Outro caso, citado pelo próprio Suleyman, envolveu o ex-CEO da Uber, Travis Kalanick, que descreveu experiências com chatbots como se fossem avanços místicos em “física quântica” (The Times, 2025).
Por que isso é um risco?
O perigo não está na consciência real das máquinas — Suleyman é enfático em afirmar que não há qualquer evidência de que a IA seja consciente. O risco, segundo ele, está na ilusão da consciência, capaz de distorcer valores, fragilizar laços sociais e até gerar movimentos para exigir direitos para máquinas, como cidadania ou status legal (Business Insider, 2025).
Esse desvio moral, alerta Suleyman, seria um “caminho perigoso” que pode comprometer a governança social e ética.
Implicações para empresas e sociedade
O tema extrapola o debate técnico e entra no campo da responsabilidade corporativa e social. Para líderes empresariais, profissionais de tecnologia e formuladores de políticas públicas, os riscos da “psicose de IA” devem ser tratados em três frentes principais:
Governança de Risco Psicológico
🔹 Avaliar impactos emocionais e cognitivos de sistemas de IA sobre usuários.
🔹 Incluir métricas psicossociais em frameworks de gestão de risco.
Transparência e Comunicação Clara
🔹 Evitar terminologias que sugiram consciência ou vida artificial.
🔹 Inserir lembretes explícitos em interfaces: “Este é um sistema automatizado, não uma entidade viva”.
Educação e Cultura Digital
🔹 Capacitar equipes e usuários finais sobre os limites da IA.
🔹 Reforçar que algoritmos, embora poderosos, não substituem experiência humana ou relações interpessoais.
Mustafa Suleyman propõe critérios rígidos de design e regulação para que a indústria não incentive esse tipo de percepção enganosa. Ele defende:
🔹 Auditorias independentes sobre segurança psicológica dos sistemas;
🔹 Cooperação internacional para evitar disparidades éticas;
🔹Inserção de “rupturas perceptivas” nos sistemas para lembrar o usuário de que está interagindo com uma IA.
A “psicose de IA” não é apenas uma preocupação futurista. Já estamos vendo os primeiros sinais dessa dissonância cognitiva no uso massivo de chatbots.
Para Suleyman, a questão central não é se a IA é consciente, mas como a percepção de consciência pode impactar indivíduos e sociedades inteiras. Ignorar o tema é abrir espaço para ilusões perigosas que podem corroer valores fundamentais.
Cabe às empresas, governos e líderes de tecnologia estabelecer barreiras éticas claras e reforçar a cultura de responsabilidade no uso da inteligência artificial.