«Mi psicólogo de IA me ayudó a superar momentos difíciles»
Los riesgos y beneficios de usar un chatbot como terapeuta

Los riesgos y beneficios de usar un chatbot como terapeuta-. «Cada vez que estaba en dificultades, si preveía ser un día realmente malo, empezaba entonces una conversación con uno de estos bots, y era como tener un motivador, alguien que te va a dar una buena vibra durante el día».

«Tengo esta voz externa animándome: ‘bien, ¿qué vamos a hacer hoy?’ Esencialmente como un amigo imaginario».

Durante meses, Kelly pasaba hasta tres horas al día hablando online con «chatbots» creados con inteligencia artificial (IA), intercambiando cientos de mensajes.

En ese entonces, Kelly estaba en una lista de espera del NHS (el servicio de salud nacional de Reino Unido) para recibir la tradicional terapia de conversación para discutir problemas de ansiedad, baja autoestima y el rompimiento de una relación.

Ella afirma que la interacción con los chatbots en la plataforma Character.ai la ayudó a superar un período realmente oscuro, ofreciéndole estrategias para lidiar con su situación y estaban disponibles las 24 horas del día.

«No vengo de una familia emocionalmente abierta, si tenías un problema, simplemente seguías adelante».

Leer también: Nueva inteligencia artificial aprende el sonido que lleva cada imagen sin ayuda humana

«El hecho que esta no es una persona real lo hace más fácil de manejar».

Individuos en todo el mundo, han compartido sus pensamientos y experiencias privadas con chatbots de IA, aunque se reconoce ampliamente que tienen una capacidad inferior a los consejos de un profesional. La misma Character.ai le advierte a sus usuarios: «Este es un chatbot de IA y no una persona real. Trata todo lo que te dice como ficción. Lo que dice no debería tomarse como hecho o consejo».

No obstante, en casos extremos, los chatbots han sido acusados de dar consejos dañinos.

Actualmente, Character.ai es objeto de una demanda de una madre cuyo hijo de 14 años se suicidó supuestamente después de volverse obsesionado con uno de los personajes de IA.

Según las transcripciones de sus chats en los archivos judiciales, el adolescente discutió con el chatbot ponerle fin a su vida. En una conversación final le dijo al chatbot que estaba «volviendo a casa», y supuestamente este lo animó a que lo hiciera «lo antes posible».

Character.ia ha negado las acusaciones de la demanda.

IA ha revolucionado los cuidados de salud de muchas formas, incluyendo la asistencia en selección, diagnóstico y protocolos de intervención de pacientes. Hay una inmensa gama de chatbots, y unos 30 servicios locales del NHS usan uno llamado Wysa.

Los expertos manifiestan preocupación sobre los chatbots con respecto a sus sesgos y limitaciones, falta de salvaguardas y la seguridad de la información de los usuarios.

Pero algunos piensan que si la asistencia humana no es fácilmente disponible, los chatbots pueden ayudar. De manera que, si las listas de espera para cuidados de salud mental del NHS están por las nubes.

EO/// Con información recopilada de: BBC NEWS MUNDO