La querella asegura que la IA ayudo activamente a Adam, un joven de 16 años, a explorar métodos sucio

Demandan a OpenAI y ChatGPT por suicidio de un adolescente- Los padres de un joven de 16 años que se quitó la vida tras meses de interactuar con ChatGPT presentaron este martes una demanda contra OpenAI y su dueño, Sam Altman, por su responsabilidad en la muerte del adolescente, al supuestamente apresurarse a comercializar la versión GPT-4o a pesar de los problemas de seguridad.
Matt y Maria Raine presentaron la querella legal en el Tribunal Superior de California en San Francisco, en nombre de su hijo, Adam Raine, quien murió en abril pasado, según informó su abogado Jay Edelson.
OpenAI reconoce fallos y promete cambios
Por su parte, la empresa OpenAI reconoció este martes que ChatGPT comete fallos en casos «sensibles» y prometió cambios.
OpenAI publicó una entrada de blog titulada «Ayudar a la gente cuando más lo necesitan» y, si bien no hizo referencia a la demanda por el caso de suicidio, indicó que ChatGPT está entrenado para recomendar a aquellos usuarios que «expresen intención suicida» el contacto de organizaciones de ayuda profesional.
Leer más:Presentan nuevo perro robot que protege a los animales
Aún así, reconoció que a pesar de tener otros mecanismos de seguridad que detectan cuando «alguien es vulnerable y puede estar en riesgo», los sistemas de ChatGPT «se quedan cortos» y el chatbot «no se comportó como debía en situaciones sensibles».
La empresa explicó que los mecanismos de seguridad tienen mejor función si existe un intercambio corto y puede tener fallas en interacciones largas que evitan el entrenamiento de la IA, por lo que trabaja específicamente en que tome medidas si detecta esa «intención suicida» en múltiples conversaciones.
ChatGPT, dijo la empresa, reconoce cuándo el usuario es menor de 18 años para aplicarle medidas de protección, pero ahora incluirá controles parentales para que los responsables de los adolescentes sepan cómo usan esa tecnología, y explora la posibilidad de conectarlos directamente con un contacto de emergencia.
Entre otras cosas, la empresa dijo que sus sistemas de «mitigación» se han centrado en casos de autolesión pero ahora abarcarán también otros de «angustia emocional», y el modelo GPT-5 se actualizará para ser capaz de «desescalar» situaciones de ese tipo «conectando a la persona con la realidad».
EO// Con información de: EFE