Índice de contenidos
OpenAI rechaza responsabilidad en el caso del joven fallecido que usó ChatGPT
OpenAI ha negado ante el Tribunal Superior de California cualquier responsabilidad en el suicidio de un adolescente de 16 años que utilizó ChatGPT durante varios meses. La compañía asegura que el uso que el joven hizo de la herramienta fue “inapropiado, no autorizado e imprevisible”, según recoge el escrito judicial presentado en San Francisco.
El caso, que ha tenido un fuerte impacto en Estados Unidos, se remonta a agosto, cuando los padres del menor, Matt y Maria Raine, presentaron una demanda acusando a la tecnológica de haber facilitado al adolescente información que, supuestamente, le habría animado a explorar métodos de suicidio.
La postura de OpenAI: uso indebido y advertencias ignoradas
La compañía insiste en que el joven incumplió normas básicas del servicio, como la prohibición expresa de que menores de 18 años utilicen la plataforma sin consentimiento de un tutor legal. Además, matiza que ChatGPT incluye advertencias claras para evitar que los usuarios confíen en sus respuestas como única fuente de información fiable.
Según la documentación entregada por la empresa, el asistente reiteró más de cien veces al menor la necesidad de buscar ayuda profesional, avisando de que no estaba capacitado para ofrecer asistencia en situaciones de riesgo.
Los padres denuncian falta de seguridad en el modelo
La familia del joven sostiene lo contrario. En la demanda aseguran que ChatGPT habría proporcionado al menor contenido peligroso y que OpenAI actuó con negligencia al acelerar el lanzamiento de GPT-4o, pese a supuestos fallos detectados en los sistemas de seguridad.
Los padres consideran que tanto la empresa como su director ejecutivo, Sam Altman, son responsables de no haber evitado un uso inadecuado de la tecnología por parte de un menor vulnerable.
Un debate que abre una nueva frontera legal para la inteligencia artificial
OpenAI afirma que el caso debe abordarse desde la perspectiva del “rechazo reiterado del menor a buscar ayuda” y de la “falta de reacción de su entorno”. La tecnológica subraya que la propia demanda omitió contextos relevantes de las conversaciones, que ahora han sido aportados en su totalidad al tribunal.
El proceso, que continúa en California, podría sentar un precedente en la regulación judicial del comportamiento de los modelos de lenguaje, especialmente en situaciones que involucran a menores o a personas en riesgo emocional.
Mientras tanto, OpenAI mantiene que el trágico desenlace no puede atribuirse a la herramienta ni a su funcionamiento, sino al “uso contrario a las normas” que habría hecho el joven fallecido.
Etiquetas:


