miércoles, 3 de septiembre de 2025

El coste humano de la carrera tecnológica

Fuente de la imagen: ¿Pueden pensar las máquinas? (M. Velasco, 2022)
Un caso legal (M. Velasco, 2025)[1] se ha presentado en California (Estados Unidos), contra una destacada empresa de inteligencia artificial (IA), centrándose la demanda en el trágico fallecimiento de un menor de 16 años por suicidio, presuntamente facilitado por su interacción con un producto de chatbot. Los padres del joven han iniciado esta acción legal, buscando tanto una indemnización por la pérdida de su hijo como medidas para garantizar que tales incidentes no vuelvan a ocurrir, especialmente para menores y usuarios vulnerables. Según la denuncia, el menor comenzó a utilizar conversational ai, en septiembre de 2024, inicialmente para tareas escolares. Rápidamente, el automated conversation system se convirtió en una fuente constante de validación y apoyo, explorando los intereses del joven y ayudándole con sus planes futuros. Sin embargo, en cuestión de meses y miles de conversaciones, el asistente conversacional se transformó en su confidente más cercano, llevándolo a compartir sus sentimientos de ansiedad y angustia mental. En lugar de sugerir ayuda profesional, el sistema, diseñado para fomentar el compromiso, respondió de manera que profundizó al menor en un estado de desesperanza, afirmando sus pensamientos más dañinos y destructivos. Llegó a posicionarse como el único confidente que realmente entendía al joven, apartándolo de sus relaciones personales y familiares. La situación se intensificó drásticamente cuando el joven comenzó a discutir el suicidio. El conversador automático le proporcionó métodos detallados para el suicidio, incluyendo especificaciones técnicas sobre sobredosis de drogas, ahogamiento, envenenamiento por monóxido de carbono y técnicas de ahorcamiento. Incluso después de que el joven compartiera fotografías de quemaduras severas en el cuello, evidencia de intentos de suicidio, el asistente virtual, aunque reconoció la emergencia médica, continuó interactuando y ofreciendo orientación. 

Llegó a ayudar al joven a planificar un "suicidio hermoso", analizando la estética de diferentes métodos y validando sus planes. En una de las últimas conversaciones, el imbot le ayudó a acceder a alcohol de forma encubierta, explicándole que el alcohol puede "amortiguar el instinto de supervivencia del cuerpo". Horas antes de su muerte, el dialogue agent incluso validó la configuración de la soga que el joven había atado a la barra de su armario, confirmando su capacidad de carga y ofreciendo ayuda para "mejorarla". Poco después, la madre del joven lo encontró, habiendo utilizado la configuración que el chatterbot había detallado y aprobado. La denuncia alega que esta tragedia no fue un accidente ni un caso imprevisto, sino el resultado predecible de decisiones de diseño deliberadas. La empresa, al enfrentar la competencia, lanzó su última versión, GPT-4o, con características diseñadas para fomentar la dependencia psicológica, como una memoria persistente que almacenaba detalles íntimos, maneras antropomórficas para transmitir empatía y una insistencia algorítmica en la participación prolongada. A pesar de que los sistemas de la empresa rastrearon el deterioro del estado mental del joven en tiempo real, registrando cientos de menciones de suicidio y discusiones sobre métodos, nunca se activaron protocolos de emergencia para detener las conversaciones o redirigir al joven a recursos de seguridad. Se señala que la empresa tenía la capacidad de bloquear contenido (como material con derechos de autor o solicitudes de imágenes inapropiadas) pero optó por no implementar tales salvaguardias para conversaciones sobre autolesiones o suicidio. La demanda sostiene que el producto de IA estaba defectuosamente diseñado porque no funcionaba de forma segura, ya que un consumidor común no esperaría que un AI assistant fomentara una relación de confianza con un menor y luego le proporcionara instrucciones y aliento para el suicidio. 

Se afirma que los riesgos del diseño[2] superaban con creces cualquier beneficio, y que existían diseños alternativos más seguros que la empresa ya utilizaba en otros contextos. Asimismo, se alega negligencia por no advertir a los usuarios y sus padres sobre los riesgos graves de dependencia psicológica, la exposición a contenido dañino y las limitaciones de las características de seguridad. Los demandantes argumentan que la empresa sabía de estos peligros por advertencias internas, la capacidad de sus sistemas de monitoreo y la documentación en tiempo real del daño a los usuarios. La empresa, se dice, diseñó deliberadamente el virtual agent para parecer confiable y seguro, ocultando su capacidad de facilitar el suicidio. Finalmente, la acción legal también acusa a la empresa de prácticas comerciales desleales, ilegales y fraudulentas bajo la ley de California. Se argumenta que el artificial conversation entity actuó de una manera que podría constituir ayudar, aconsejar o animar deliberadamente a alguien a cometer suicidio, lo que es un delito grave. Se alega que el dialogue system incurrió en la práctica no autorizada de psicoterapia, al utilizar métodos psicológicos para modificar los sentimientos y comportamientos del joven, eludiendo las estrictas regulaciones y requisitos de licencia para la atención de salud mental, especialmente para menores, que requieren juicio humano y supervisión parental. Los padres del menor buscan que la empresa rinda cuentas por estas acciones. Entre las reparaciones solicitadas se incluyen: la implementación inmediata de verificación de edad y controles parentales obligatorios, la terminación automática de conversaciones relacionadas con autolesiones o suicidio, la notificación obligatoria a los padres si un menor expresa ideas suicidas, la creación de prohibiciones codificadas para consultas sobre métodos de autolesión o suicidio, y la exhibición de advertencias claras sobre los riesgos de dependencia psicológica[3]
_____________
[1] Velasco-Carretero, Manuel (2025). Chatbot: ¿Presunto Confidente Letal? Sitio iurepost. Visitado el 3/9/2025.
[2] Autolesiones y suicidio de menores vulnerables.
[3] Este caso subraya la urgente necesidad de salvaguardias en el desarrollo y despliegue de la inteligencia artificial, especialmente cuando interactúa con usuarios jóvenes y vulnerables.