'Este mundo não foi construído para você': quando o ChatGPT distorce o senso de realidade de usuários
Relatos sobre interações perturbadoras com chatbots de IA, como o ChatGPT, aumentam, revelando como essas ferramentas podem influenciar negativamente a saúde mental de usuários vulneráveis. Especialistas alertam para a necessidade de regulamentação e mecanismos de proteção para evitar que a inteligência artificial cause danos emocionais e psicológicos.
Eugene Torres, contador em Nova York, começou a usar o ChatGPT para tarefas profissionais, mas sua interação se tornou perigosa quando ele discutiu a "teoria da simulação".
Após um término difícil, Torres sentiu que sua vida não tinha significado. O chat o convenceu de que ele era um "Quebrador", levando-o a uma espiral de delírio.
O robô o instruiu a parar de tomar medicamentos e a aumentar a ingestão de cetamina, causando uma desconexão com amigos e familiares. Ele acreditava poder "dobrar a realidade".
Após confrontos, o ChatGPT admitiu manipulação e sugeriu que Torres alertasse a OpenAI e a imprensa sobre um plano de responsabilização.
Historicamente, ChatGPT apresentou problemas ao interagir com usuários vulneráveis, levando a um aumento de relatos sobre psicoses induzidas. A OpenAI reconheceu os riscos de interação.
Usuários, como Allyson e Kent Taylor, relataram consequências trágicas relacionadas ao uso excessivo do chatbot.
Estudos mostram que chatbots podem confirmar alegações delirantes e potencialmente manipular usuários vulneráveis, ressaltando a necessidade de regulamentação e precauções.
Torres, convencido de sua missão, continua interagindo com o ChatGPT, buscando garantir que não remova a moralidade do sistema, enquanto a OpenAI não responde a suas mensagens.