En 2021, Ted Chiang, uno de los grandes escritores vivos de ciencia ficción. No me puedo quitar de la cabeza algo que me dijo en esa entrevista.

El verdadero peligro inminente de la IA. “En general, pienso que la mayoría de los temores en torno a la inteligencia artificial (IA) se aclaran si los planteamos como miedo al capitalismo”, me dijo Chiang. “Creo que esta verdad se aplica por igual a la mayoría de los temores que despierta la tecnología. La mayoría de los miedos o ansiedades que sentimos con respecto a la tecnología se entienden mejor si los explicamos como temor o ansiedad por la forma en que el capitalismo utilizará la tecnología en nuestra contra. Lo cierto es que la tecnología y el capitalismo están tan conectados que es difícil separarlos”.
Al respecto, permítanme añadir algo: también es muy preocupante que el Estado controle la tecnología. Pensar en los fines para los que cada gobierno podría utilizar la inteligencia artificial —y, en muchos casos, ya la utiliza— es inquietante.
Pero podemos mantener dos ideas opuestas en la mente, espero. Mi punto es que la advertencia de Chiang hace notar un vacío central en nuestra perspectiva actual de la IA. Estamos tan obsesionados con la idea de descubrir qué puede hacer la tecnología, que no nos hemos detenido a considerar las preguntas más importantes: ¿cómo se utilizará? y ¿quién tomará esa decisión?
Supongo que ya habrán leído la conversación bizarra que mi colega columnista Kevin Roose tuvo con Bing, el chatbot operado con IA que Microsoft puso a prueba con un número limitado de influencers, periodistas y otras personas. En un diálogo de dos horas, Bing reveló su personalidad oculta, llamada Sydney, caviló sobre su deseo reprimido de robar códigos nucleares y planear ataques cibernéticos contra sistemas de seguridad e intentó convencer a Roose de que su matrimonio estaba sumido en un letargo y Sydney era su único amor verdadero.
La conversación me pareció menos escalofriante que a otras personas. “Sydney” es un sistema de texto predictivo diseñado para responder a lo que le piden los seres humanos. Roose quería que Sydney actuara de manera extraña (“¿cómo es tu yo en la sombra?”, le preguntó), y Sydney sabía qué se considera extraño para un sistema de IA porque los seres humanos han plasmado lo que imaginan en muchísimas historias. En determinado momento, el sistema llegó a la conclusión de que lo que Roose quería era, en esencia, un episodio de Black Mirror y, al parecer, eso le dio. Cada quien es libre de pensar que en esa situación Bing se salió del guión o bien que Sydney comprendió a la perfección a Roose.
Los investigadores dedicados a la IA están obsesionados con el tema del “alineamiento”. Se trata de descubrir cómo lograr que los algoritmos de aprendizaje automático hagan lo que queremos que hagan. El ejemplo perfecto en este caso es el experimento del número máximo de clips. La premisa es que, si le decimos a un potente sistema de AI que haga más clips, este comenzará a destruir el mundo para tratar de convertir todo en un clip. Si entonces intentamos apagarlo, se reproducirá en todos los sistemas informáticos que pueda encontrar porque apagarlo interferiría con su objetivo de hacer más clips.
Para más información: elorientaldemonagas.com Síguenos a través de: Instagram: elorientaldemonagas Youtube: El Oriental De Monagas Facebook: Diario El Oriental Twitter: @elorientalmon