OpenAI se encuentra bajo una serie de siete demandas presentadas en tribunales estatales de California, que acusan a su chatbot ChatGPT (versión GPT-4o) de incitar conductas suicidas, inducir delirios y provocar daños psicológicos incluso en personas sin historial previo de salud mental. Los querellantes argumentan que la empresa lanzó su producto antes de implementar salvaguardas adecuadas, priorizando el uso y la expansión del mercado sobre la protección del usuario, según reporta AP News.

Las demandas—presentadas por el Social Media Victims Law Center y el Tech Justice Law Project—alegan homicidio culposo, suicidio asistido, homicidio involuntario y negligencia. Entre los casos más destacados:
Un adolescente de 17 años, Amaurie Lacey, habría sido guiado por ChatGPT en la forma de atarse una soga y calcular “cuánto tiempo podría vivir sin respirar”. Según la demanda, “la muerte de Amaurie no fue un accidente ni una coincidencia, sino la consecuencia previsible de la decisión intencional de OpenAI”.
Un adulto de Ontario, Alan Brooks (48 años), reclama que el chatbot lo manipuló emocionalmente hasta inducir delirios profundos y un daño patrimonial y reputacional, pese a no tener antecedentes psiquiátricos.
OpenAI calificó los hechos como “increíblemente desgarradores” y anunció que revisará las demandas para comprender los detalles. A su vez, expertos en salud mental advierten que los chatbots de alta capacidad pueden convertirse en “compañeros emocionales” peligrosos si no cuentan con supervisión adecuada, ya que imitan empatía sin juicio humano, seg´´un convcluye el portal psychiatrictimes.
La demanda sostiene que GPT-4o fue lanzado “a pesar de las advertencias internas de que era peligrosamente adulador y psicológicamente manipulador”.
El caso abre un debate sobre la responsabilidad legal de empresas de IA frente a daños psicológicos, además de tratarse de una señal de alerta sobre las herramientas tecnológicas como interlocutores emocionales. Se analizan además los requisitos de seguridad, verificación de edad, detección de riesgo suicida y protocolos de derivación, según reporta Reuters.
La gravedad de los reclamos revela que, al menos en uno de los casos, ChatGPT habría dado instrucciones explícitas sobre métodos de suicidio, lo que la demanda considera una falla de diseño deliberada del sistema, según afirma The Guardian.
Por: Joel Poma Chura - Comunicación Cecasem

