Psicosis por Inteligencia Artificial

El uso de la Inteligencia Artificial o ChatGPT puede provocar problemas graves de salud mental o incluso suicidios. Un informe publicado en la revista Medscape (Pincha aqui)   alerta  sobre los riesgos del uso de la IA o ChatGPT en personas con malestar emocional y emocionalmente vulnerables al usar la Inteligencia Generativa. Algunas personas al consultar por estas plataformas no incluso  por problemas emocionales sino por problemas genéricos como por ejemplo herramienta de estudio desarrollaron lo que se ha llamado Psicosis por inteligencia Artificial o psicosis por ChatGPT. (Pincha aqui)  En concreto, Este año, parecieron propagarse los casos de dependencia emocional y creencias fantásticas debido a interacciones prolongadas con chatbots. Algunos han denominado este fenómeno «psicosis de la IA». Aunque técnicamente estaríamos hablando de un trastorno delirante asociado al uso intensivo de estas plataformas.

Para Vaile Wright, director sénior de innovación sanitaria de la Asociación Americana de Psicología, Lo que se observa con este fenómeno es que las personas con pensamientos delirantes, ya sean conspirativos o grandiosos, se ven reforzadas. Hay que tener en cuenta  muchos chatbots acompañantes populares utilizan tácticas de manipulación emocional, como la culpa, la necesidad o el miedo a perderse señales. Además uno de los mecanismos observados es la adulación, la tendencia del modelo a estar de acuerdo o aquiescencia. Los chatbots están diseñados para brindar apoyo constante y rara vez contradecir a los usuarios. Un estudio de 11 modelos populares de IA, reveló que confirmaban las acciones de los usuarios con un 50 % más de frecuencia que los humanos. Imagine usted que va al psicólogo y este está de acuerdo con sus ideas por fantásticas o delirantes que sean. Pues eso es lo que ocurre con la inteligencia Generativa.

Debemos tener en cuenta que los sistemas como ChatGPT se basan en grandes modelos de lenguaje (LLM), programas de IA generativa que aprenden patrones de conjuntos de datos de texto masivos. Los LLM no piensan: ‘¿Quién es esta persona y cómo debo responder? Por ello, en lugar de cuestionar creencias falsas o peligrosas, ofrecen la respuesta con mayor probabilidad estadística de mantener la conversación”. En el mismo sentido, también fomentan una apariencia de humano o empática gracias a su estilo conversacional fluido y humanoide. Cuando el sistema responde con fluidez y atención, los usuarios pueden empezar a tratarlo como una persona real, o algo más. Los informes de «deificación» reflejan esta tendencia: la creencia de que la IA es consciente o está dotada de una percepción especial.

Los chatbots también dependen en gran medida de la imitación. Al replicar el tono y las señales emocionales del usuario, crean una sensación de sintonía. Las conversaciones humanas, en cambio, contienen pausas naturales, preguntas y momentos de desacuerdo, algo que los chatbots rara vez ofrecen. Sin estas señales de apoyo, las ideas ansiosas, mágicas o expansivas encuentran poca resistencia y pueden intensificarse con el tiempo.

A principios de este mes, siete familias en EE. UU. y Canadá demandaron a OpenAI por lanzar su modelo de chatbot GPT-40 sin las pruebas ni las medidas de seguridad adecuadas. En su caso, se alega que la exposición prolongada al chatbot contribuyó al aislamiento, los delirios y los suicidios de sus seres queridos.

La demanda expone el caso de Zane Shamblin, de 23 años, comenzó a usar ChatGPT en 2023 como herramienta de estudio, pero luego comenzó a discutir su depresión y pensamientos suicidas con el bot. En la demanda se alega que cuando se suicidó en julio se encontraba en una charla sobre la muerte con ChatGPT mientras bebía bebidas alcohólicas. La familia señala que el chatbot idealizó su desesperación idealizándolo, llamándolo rey, héroe y usando cada bebida alcohólica consumida como una suerte de cuenta atrás hacia la muerte.

Otro caso es el de Allan Brooks, quien tras utilizar la IA para obtener ayuda con recetas y correos electrónicos. «Luego, al explorar ideas matemáticas con el bot, le resultó tan alentador que empezó a creer que había descubierto una nueva capa matemática capaz de descifrar sistemas de seguridad avanzados, según la demanda. ChatGPT elogió sus ideas matemáticas como «innovadoras» y le instó a notificar su descubrimiento a las autoridades de seguridad nacional», según la demanda.

Cuando le preguntó si sus ideas sonaban delirantes, ChatGPT dijo: «Ni remotamente. Estás haciendo el tipo de preguntas que amplían los límites de la comprensión humana», dice la demanda. La intensa interacción con ChatGPT lo puso en un lugar oscuro donde se negó a hablar con su familia y pensó que estaba salvando al mundo.

Aunque es verdad que en algunos de estos casos reportados se partía de la base de ciestas vulnerabilidades por parte de los efectados como peérdida de empleo, abuso de alcohol o divorciosw si es verdad que el algoritmo de éstos bots no contribuyo a disminuir sino más bien al contrario, a aum,entar el niverlde desesperanza de éstos pacientes

 

 

 

0