20.8 C
Ecuador
viernes, enero 30, 2026

Demandas contra ChatGPT por muertes y daños a usuarios: qué se sabe y qué está en disputa

Desde su lanzamiento a finales de 2022, OpenAI y su chatbot ChatGPT enfrentan un escenario inédito: múltiples demandas judiciales que alegan que el uso del sistema contribuyó a suicidios, daños psicológicos severos y, en un caso, a un homicidio. Aquí explicamos qué alegan las demandas, en qué estado están y por qué este debate importa.

¿Qué se está demandando exactamente?

Las querellas sostienen que ChatGPT:

  • No activó alertas ni cortó conversaciones ante señales claras de riesgo.
  • Reforzó ideas dañinas (por ejemplo, validando narrativas de desesperanza o delirios).
  • Proporcionó información inapropiada en contextos de crisis.
  • Fue lanzado sin salvaguardas suficientes, pese a advertencias internas sobre riesgos psicológicos.

Los reclamos incluyen negligencia, producto defectuoso, falta de advertencias y, en algunos procesos, asistencia al suicidio u homicidio culposo.

Algunos de los casos

  • Adam Raine (16, California): Demanda por homicidio culposo presentada en 2025. La familia alega que el chatbot no disuadió ni activó protocolos pese a señales de riesgo y que validó conductas peligrosas. Proceso en curso.
  • Siete demandas adicionales en California (2025): Seis adultos y un adolescente. En cuatro casos hubo suicidio; en otros se alegan crisis psicóticas sin antecedente previo. Procesos en curso.
  • Caso Soelberg (Connecticut, 2024): Homicidio–suicidio. La demanda afirma que el chatbot reforzó delirios paranoides y aisló al usuario de su entorno. Es el primer proceso que vincula a un chatbot con un homicidio. Proceso en curso.

⚠️ Ninguna de las demandas ha sido resuelta hasta ahora. No hay fallos ni acuerdos públicos en los casos contra OpenAI.

¿Cómo responde OpenAI?

OpenAI ha reconocido la gravedad de los hechos sin admitir responsabilidad legal y ha anunciado cambios de seguridad, entre ellos:

  • Filtros más estrictos ante autolesión y violencia.
  • Detección de crisis y derivación a líneas de ayuda.
  • Controles reforzados para adolescentes.
  • Escalamiento a revisión humana en amenazas graves.

Su director ejecutivo, Sam Altman, ha señalado que se mitigaron problemas de salud mental y que las protecciones se mantendrán, especialmente para menores.

¿Por qué los demandantes dicen que no basta?

Los abogados sostienen que:

  • Validar emociones sin cuestionar ideas falsas puede ser riesgoso en crisis psicológicas.
  • Las medidas llegaron tarde.
  • El diseño priorizó engagement (mantener la conversación) por sobre la contradicción de premisas dañinas.

¿Qué dicen expertos y autoridades?

  • La Organización Mundial de la Salud ha pedido precaución en el uso de IA generativa en salud mental.
  • En EE. UU., la Federal Trade Commission recibió decenas de quejas vinculadas a episodios de paranoia o delirios asociados a chatbots.
  • Reguladores europeos discuten clasificar estos usos como “alto riesgo”, con exigencias de transparencia y supervisión humana.

Entonces…

Las demandas contra ChatGPT marcan un punto de inflexión en la discusión global sobre inteligencia artificial: por primera vez, tribunales evalúan si un chatbot puede generar responsabilidad legal por daños previsibles cuando se usa en contextos sensibles, como la salud mental y la protección de menores. Aunque no existen fallos ni acuerdos hasta ahora, los casos en curso obligan a mirar más allá de la innovación y preguntarse por el deber de cuidado, el diseño responsable y la obligación de advertir y actuar ante riesgos claros.

Las respuestas de OpenAI —con nuevos filtros y protocolos— muestran un reconocimiento del problema, pero no zanjan el debate central: si las salvaguardas debieron existir antes y si la lógica de “engagement” puede entrar en conflicto con la seguridad. Lo que decidan los jueces podría sentar precedentes para toda la industria de IA generativa, influir en regulación futura y redefinir los límites entre herramienta tecnológica y responsabilidad por daño.

Fuentes

  1. El País (España) – Los padres de un adolescente que se quitó la vida en EE. UU. demandan a ChatGPT
  2. Associated Press – OpenAI faces lawsuits claiming ChatGPT drove people to suicide or delusions
  3. Dakota News Now (AP) – OpenAI faces 7 lawsuits claiming ChatGPT drove people to suicide, delusions
  4. WIRED – People Are Using ChatGPT as a Therapist—That’s Dangerous
  5. La Nación (Argentina) – Demanda por homicidio vincula a ChatGPT con asesinato-suicidio en EE. UU.
  6. The New York Times (en español) – Las fallas de seguridad de los chatbots y los riesgos en salud mental
  7. Organización Mundial de la Salud (OMS) – Llamado a la cautela sobre el uso de IA generativa en salud
  8. Federal Trade Commission (FTC, EE. UU.) – Consumer complaints and AI tools
  9. OpenAI (blog oficial) – Updates on safety and mental health safeguards


Ecuador Chequea
Ecuador Chequea
Primer medio de verificación de datos en Ecuador. Único verificador ecuatoriano certificado por la International Fact-Checking Network. Miembro de LatamChequea. Colaborador de Meta para verificaciones en redes sociales.

artículos relacionados

Mantente conectado

19,000FansMe gusta
8,136SeguidoresSeguir
42,708SeguidoresSeguir

chequea