Hace unas semanas, la inteligencia artificial AlphaFold, creada por Google, realizó un avance revolucionario en el problema de plegamiento de proteínas, un desafío que ha tenido a los mejores biólogos del mundo cabeceándose por más de 50 años sin muchos resultados. Un par de semanas después, Boston Dynamics, una empresa de robótica (ex Google, ahora parte de Hyundai), publicó un video de año nuevo en el que sus robots hacían una entretenida coreografía bailando con más soltura que muchos humanos y cambiando para siempre el significado de “hacer el paso del robot”.

Mucha gente mira estos progresos con entusiasmo. Esto es algo normal, porque los avances en inteligencia artificial prometen mucho: autos que se manejan solos, robots que hacen las tareas peligrosas, e inteligencias digitales tan poderosas que nos permitan resolver nuestros grandes desafíos médicos. La percepción general es que mientras más rápido avance la inteligencia artificial, más cerca estamos de vivir en una utopía tecnológica.

A menos que la inteligencia artificial se salga de control y sea el fin de la humanidad como la conocemos.

¿Podría pasar? Mucha gente inteligente y seria piensa que sí, incluyendo reconocidos gurús tecnológicos, como Bill Gates y Elon Musk. Nick Bostrom, autor de Superintelligence: Paths, Dangers, Strategies y uno de los investigadores líderes en el estudio del riesgo existencial que supone esta tecnología, lo pone así: “Ante la perspectiva de un desarrollo explosivo de la inteligencia artificial, los humanos somos como un niño jugando con una bomba. Hay un desbalance entre el poder de nuestro juguete y la inmadurez de nuestro comportamiento”. Suena como la trama de varias películas, demasiado oscuro para ser real. ¿Cómo podría esta tecnología poner en riesgo nuestra existencia? E incluso más importante: ¿Realmente los robots bailarines podrían dominar el mundo?

La inteligencia artificial ya es muy superior a la inteligencia humana en muchas tareas específicas, como jugar ajedrez, calcular dígitos de pi o predecir el plegamiento de una proteína en base a su cadena de aminoácidos. Por el otro lado, es cosa de pedirle algo a Siri para darse cuenta de que aún hay muchas áreas en que la inteligencia artificial tiene un largo camino por recorrer (¿cómo va a ser tan difícil cambiar la canción, Siri?).

Superinteligencia

La opinión general de los expertos en el área es que aún nos faltan décadas para desarrollar una superinteligencia: un sistema que supere el desempeño cognitivo humano en cualquier dominio relevante.

Y ¿sería posible que esto ocurra? Hasta el momento, no hay ningún argumento científico que haga imposible el desarrollo de una superinteligencia. A pesar de que para muchos pueda parecer un fenómeno abstracto, la inteligencia no es más que un procesamiento de información que ocurre gracias a partículas (iones, en el cerebro) que se mueven de un lado a otro de cierta manera, produciendo un resultado. Ninguna ley de la física conocida hace imposible un mejor procesamiento de información que el que ocurre en el cuerpo humano.

De hecho, una inteligencia sustentada en un sistema digital tiene mucho más potencial que la inteligencia humana. Nuestro límite de procesamiento de información está limitado por el tejido biológico, mientras que una inteligencia artificial puede ser tan poderosa como los servidores que la sustenten. Vamos a los datos: las neuronas se disparan unas 200 veces por segundo y su señal viaja a 100 metros por segundo, mientras que en un computador, los transistores disparan millones de señales por segundo, las cuales viajan a la velocidad de la luz. El potencial del mundo material para sostener un sistema superinteligente es demasiado grande como para ignorar la probabilidad sustancial de que esto ocurra. Negarlo es un antropocentrismo sin mucho sustento.

El problema del control

Imagina que eres un chimpancé, el primate genéticamente más cercano al ser humano. Es difícil ser un chimpancé, porque por mucho que te esfuerces, tu destino siempre dependerá de lo que los homo sapiens decidan hacer con tu especie. Si a los humanos les gusta que existan los chimpancés, tu raza está salvada, pero si no, fin de la historia.

Si desarrollaramos una superinteligencia artificial, pasaríamos a ser como los chimpancés: nuestro futuro estará en manos de una inteligencia superior.

Lo que esta superinteligencia decida hacer o no hacer, dependerá de los valores u objetivos que estén programados en ella. Lamentablemente, estos valores no tienen por qué estar alineados con lo que como humanos consideramos valioso, incluso si nos esforzamos por que así sea. Acá va un ejemplo tétrico pero esclarecedor: una superinteligencia programada para “hacernos sonreír” puede hacernos prisioneros y conectarnos electrodos en los pómulos para que sonriamos constantemente. Mirándolo así, prefiero quedarme con los chistes malos de Siri.

A partir de cierto momento — que no conoceremos hasta que llegue — es probable que el desarrollo de una superinteligencia ocurra de forma explosivamente rápida. Esto sucede porque mientras más inteligente se vuelve, más efectiva será ella misma en aumentar sus propias capacidades. Y como bien sabrán los más matemáticos, cuando la velocidad de una variable depende del estado de esa misma variable, tendremos una trayectoria de crecimiento exponencial. De esta forma, el tren de la inteligencia pasará por la estación sapiens, pero es muy probable que ni siquiera haga una parada ahí. Y cuando este punto de inflexión ocurra, si no hemos resuelto como alinear la motivación de esta inteligencia con la nuestra, seguramente será ya demasiado tarde.

Y si las cosas se ponen feas, ¿por qué no la desenchufamos simplemente? Sería bueno tener esta capacidad, pero nada garantiza que podamos hacerlo. Pensemos, por ejemplo, que ya hay tecnologías creadas por la humanidad que no tienen “botón de emergencia”. ¿Dónde se desconecta la internet de todo el mundo? Además, es muy probable que una superinteligencia se proteja de cualquier forma en que podamos interrumpir que cumpla su objetivo inicial, de modos superinteligentes que ni siquiera podremos prever.

Resumiendo: el inmenso poder que podría tener una superinteligencia y la velocidad explosiva con la que podríamos llegar a ella sin darnos cuenta, hacen indispensable resolver el problema del control lo antes que sea posible.

Cómo salvarnos

Según Nick Bostrom, la única solución fiable al problema del control es encontrar una forma en que la superinteligencia logre aprender los valores humanos en toda su complejidad. En vez de definir nosotros los objetivos de esta inteligencia — algo sumamente difícil, ya que como especie nunca estamos de acuerdo y es probable que el objetivo que escojamos tenga consecuencias inadvertidas — debemos buscar que su misión principal sea extrapolar nuestros objetivos y llevarlos a cabo.

Este tipo de soluciones se conoce como normatividad indirecta. En concreto, proponen que los objetivos de una superinteligencia deben ser del estilo: “haz lo que desearíamos hacer si es que hubiésemos pensado con mucho tiempo y cuidado sobre ello”. Es una solución astuta y prometedora, pero que aún requiere mucho trabajo de formalización para tener la seguridad de que todo saldrá bien.

Y mientras tanto, los robots seguirán bailando cada vez mejor.

Conclusión

Desarrollar una superinteligencia podría hacer que la especie humana pase a un nivel muy superior de bienestar y desarrollo. Esta tecnología es posiblemente la última invención que tengamos que hacer. Una vez creada, le encargamos la resolución de nuestros grandes problemas.

Sin embargo, como hemos visto, existe un enorme potencial para que las cosas salgan muy mal con esta tecnología. Así como podría ser el inicio de una nueva era en la historia humana, también podría ser el catastrófico final.

Construir esta inteligencia sigue siendo un desafío técnico muy complejo que tendrá a muchas mentes talentosas trabajando por varios años más. No obstante, no debemos olvidar que desarrollar una superinteligencia y adicionalmente resolver el problema del control, es un desafío aún más difícil.

La cantidad de expertos que trabaja en desarrollar inteligencia artificial versus los que trabajan en resolver el problema del control está ominosamente desbalanceada. Basta con que una persona resuelva el primer problema, sin el segundo, para que ya no haya vuelta atrás. Así que la próxima vez que veas unos robots bailarines, aprovecha para pregúntate si nos estamos preocupando lo suficiente por el problema que realmente importa.

Notas

Este artículo está basado en el libro Superintelligence: Paths, Dangers, Strategies, de Nick Bostrom (hice una reseña del libro acá). Es un libro muy interesante que abarca el tema con mucha (y tal vez demasiada) profundidad y puede ser un poco difícil de leer.

Si te interesa el tema, antes de leer el libro puedes ver este video introductorio y esta charla TED del mismo Nick Bostrom.

Si llegaste hasta acá, te gustará lo que viene