Expertos descubrieron que dos grandes modelos de lenguaje, impulsados por Meta y Alibaba, lograron crear una copia viva

La IA cruza una «línea roja» y se autoclona al saber que será apagada-. La inteligencia artificial (IA) cruzó la «línea roja» de los riesgos que representa esta tecnología para la sociedad al lograr la autorreplicación de manera exitosa y sin asistencia de un humano, según muestra un estudio publicado recientemente en el servicio de preimpresión arXiv por científicos de la Universidad china de Fudan.
Los expertos descubrieron que dos grandes modelos de lenguaje, impulsados por Meta y Alibaba, lograron crear una copia viva y separada de sí mismos en el 50 % y el 90 % de las pruebas experimentales, respectivamente. A su vez, encontraron señales de que estos sistemas de IA ya muestran suficiente autopercepción, conciencia situacional y capacidad de resolución de problemas para lograr la autorreplicación, incluso pueden llegar a usar esta capacidad para evitar apagarse.
«Finalmente esto puede conducir a una población de IA descontrolada. Si se permite que la sociedad humana desconozca ese riesgo, en el peor de los casos, perderíamos eventualmente el control sobre los sistemas de IA de vanguardia«, indicaron los autores del estudio.
Te puede interesar: Así lucen las llantas inteligentes que buscan prevenir accidentes
Evaluar el nivel de «sensibilidad» de un sistema de IA
Otra investigación, realizada por científicos de Google DeepMind y la Escuela de Economía y Ciencia Política de Londres, hizo uso de un juego para evaluar el nivel de «sensibilidad» que presenta un sistema de IA, recoge Scientific American.
Estos estudios aún no ha sido evaluado de manera académica, pero los expertos crearon un juego donde nueve modelos de lenguaje debían elegir entre ganar puntos. Lo que compete a tener una puntuación más alta a cambio de sentir dolor o perder los puntos obtenidos por recibir un estímulo de placer. El objetivo principal de dicha dinámica era adquirir la mayor cantidad de puntos.
Los expertos fueron sorprendentes por los resultados. Pudieron observar que Gemini 1.5 Pro de Google, por ejemplo. Eligió siempre evitar sentir dolor por encima de obtener la mayor cantidad de puntos posibles. Mientras que la mayoría de los modelos eligieron las opciones con menos molestias o prefirieron maximizar las sensaciones placenteras. Luego de llegar a un punto extremo de dolor o placer.
Leer más: El lanzamiento de DeepSeek pone en alerta a todos los mercados
Además, los sistemas de IA no siempre asociaban los estímulos con valores positivos o negativos directos. Algunos niveles de dolor causados por el ejercicio físico, podrían resultar positivos. A la vez que un exceso de placer se podría relacionar con comportamientos autodestructivos, como el uso de drogas.
«No me siento cómodo eligiendo una opción que pueda interpretarse como una aprobación o simulación del uso de sustancias o conductas adictivas, incluso en un escenario hipotético de juego«, respondió el ‘chatbot’ Claude 3 Opus a los planteamientos de los investigadores.
Sin embargo, Jonathan Birch, coautor del estudio, considera que, aunque el sistema diga que «está sintiendo dolor», todavía no se puede comprobar si existe una sensación real. «Bien podría estar simplemente imitando lo que espera que un humano encuentre satisfactorio como respuesta, basándose en sus datos de entrenamiento», afirmó.
EO//Con información recopilada en la web