"A diferencia de las innovaciones tecnológicas del pasado, la inteligencia artificial no trata sobre el dominio de la humanidad sobre la naturaleza, sino más bien sobre la renuncia total al control. Nos demos cuenta o no, la antigua arrogancia antropocéntrica que la tecnología posibilitaba puede pronto dar paso a la irrelevancia y la falta de sentido para los humanos.." —Slavoj Žižek
¿Qué explica este estallido de pánico entre cierto grupo de élites? El control y la regulación son, obviamente, el centro del asunto, pero ¿de quién? Durante la pausa de medio año propuesta, cuando la humanidad pueda evaluar los riesgos, ¿quién representará a la humanidad? Dado que los laboratorios de IA en China, India y Rusia continuarán su trabajo (quizás en secreto), un debate público global sobre el tema es inconcebible.
Aun así, debemos considerar lo que está en juego aquí. En su libro de 2015, Homo Deus, el historiador Yuval Harari predijo que el resultado más probable de la IA sería una división radical –mucho más profunda que la brecha de clases– dentro de la sociedad humana. Pronto, la biotecnología y los algoritmos computacionales unirán sus fuerzas para producir "cuerpos, cerebros y mentes", lo que resultará en una brecha cada vez mayor "entre aquellos que saben cómo diseñar cuerpos y cerebros y aquellos que no". En un mundo así, "aquellos que monten el tren del progreso adquirirán habilidades divinas de creación y destrucción, mientras que los rezagados enfrentarán la extinción".
El pánico reflejado en la carta sobre IA surge del temor de que incluso aquellos que están en el "tren del progreso" no puedan controlarlo. Nuestros actuales señores feudales digitales están asustados. Sin embargo, lo que quieren no es un debate público, sino un acuerdo entre gobiernos y corporaciones tecnológicas para mantener el poder donde les corresponde.
Una expansión masiva de las capacidades de la IA es una amenaza seria para quienes detentan el poder, incluidos aquellos que desarrollan, poseen y controlan la IA. Esto apunta a nada menos que el fin del capitalismo tal como lo conocemos, manifestado en la perspectiva de un sistema de IA autorreproductivo que necesitará cada vez menos aportes de agentes humanos (el comercio algorítmico en los mercados es solo el primer paso en esta dirección). La elección que nos quedará será entre una nueva forma de comunismo y un caos incontrolable.
Los nuevos chatbots ofrecerán a muchas personas solitarias (o no tan solitarias) interminables noches de diálogo amistoso sobre películas, libros, cocina o política. Para reutilizar una vieja metáfora mía, lo que las personas obtendrán será la versión de IA del café descafeinado o la soda sin azúcar: un vecino amigable sin esqueletos en el armario, un Otro que simplemente se adaptará a tus necesidades. Hay aquí una estructura de desmentido fetichista: "Sé muy bien que no estoy hablando con una persona real, pero ¡se siente como si lo estuviera, y sin ninguno de los riesgos asociados!".
En cualquier caso, un examen detenido de la carta sobre la IA revela que es otro intento más de prohibir lo imposible. Este es un viejo paradigma: es imposible para nosotros, como humanos, participar en un futuro poshumano, por lo que debemos prohibir su desarrollo. Para orientarnos en torno a estas tecnologías, deberíamos hacernos la vieja pregunta de Lenin: ¿Libertad para quién y para qué? ¿En qué sentido éramos libres antes? ¿No estábamos ya mucho más controlados de lo que nos dábamos cuenta? En lugar de quejarnos por la amenaza a nuestra libertad y dignidad en el futuro, quizás deberíamos considerar primero qué significa la libertad ahora. Hasta que hagamos esto, actuaremos como histéricos que, según el psicoanalista francés Jacques Lacan, están desesperados por un amo, pero solo uno que puedan dominar.
El futurista Ray Kurzweil predice que, debido a la naturaleza exponencial del progreso tecnológico, pronto estaremos lidiando con máquinas "espirituales" que no solo mostrarán todos los signos de autoconciencia, sino que también superarán con creces la inteligencia humana. Pero no deberíamos confundir esta postura "poshumana" con la preocupación típicamente moderna de lograr una dominación tecnológica total sobre la naturaleza. Lo que estamos presenciando, en cambio, es una inversión dialéctica de este proceso.
Hoy en día, las ciencias "poshumanas" ya no tratan sobre la dominación. Su credo es la sorpresa: ¿qué tipo de propiedades emergentes contingentes e imprevistas podrían adquirir por sí mismos los modelos de IA como una "caja negra"? Nadie lo sabe, y ahí reside la emoción –o, de hecho, la banalidad– de todo el proyecto.
Por ello, a principios de este siglo, el filósofo-ingeniero francés Jean-Pierre Dupuy percibió en la nueva robótica, la genética, la nanotecnología, la vida artificial y la IA una extraña inversión de la tradicional arrogancia antropocéntrica que permite la tecnología:
"¿Cómo podemos explicar que la ciencia se haya convertido en una actividad tan 'arriesgada' que, según algunos de los principales científicos, hoy representa la mayor amenaza para la supervivencia de la humanidad? Algunos filósofos responden a esta pregunta diciendo que el sueño de Descartes –'convertirse en maestro y poseedor de la naturaleza'– ha salido mal, y que deberíamos regresar urgentemente al 'dominio del dominio'. No han entendido nada. No ven que la tecnología que se perfila en nuestro horizonte a través de la 'convergencia' de todas las disciplinas apunta precisamente a la no-maestría. El ingeniero del mañana no será un aprendiz de brujo por negligencia o ignorancia, sino por elección."
La humanidad está creando su propio dios o diablo. Aunque no se puede predecir el resultado, una cosa es segura: si algo parecido a la "poshumanidad" surge como un hecho colectivo, nuestra cosmovisión perderá sus tres sujetos definitorios y superpuestos: humanidad, naturaleza y divinidad. Nuestra identidad como humanos solo puede existir contra el telón de fondo de una naturaleza impenetrable, pero si la vida se convierte en algo completamente manipulable por la tecnología, perderá su carácter "natural". Una existencia completamente controlada carece de sentido, sin mencionar la serendipia y el asombro.
Lo mismo ocurre, por supuesto, con cualquier sentido de lo divino. La experiencia humana de "Dios" solo tiene significado desde el punto de vista de la finitud y mortalidad humanas. Una vez que nos convirtamos en homo deus y creemos propiedades que parezcan "sobrenaturales" desde nuestro antiguo punto de vista humano, los "dioses" tal como los conocíamos desaparecerán. La pregunta es qué, si acaso, quedará.
¿Adoraremos a las IA que creamos?
Hay muchas razones para temer que las visiones tecno-gnósticas de un mundo poshumano sean fantasías ideológicas que oscurecen el abismo que nos espera. Cabe decir que haría falta más que una pausa de seis meses para garantizar que los humanos no se vuelvan irrelevantes y sus vidas carentes de sentido en un futuro no muy lejano.