Hace unas semanas, la inteligencia artificial AlphaFold, creada por Google, realizó un avance revolucionario en el problema de plegamiento de proteínas, un desafío que ha tenido a los mejores biólogos del mundo cabeceándose por más de 50 años sin muchos resultados. Un par de semanas después, Boston Dynamics, una empresa de robótica (ex Google, ahora parte de Hyundai), publicó un video de año nuevo en el que sus robots hacían una entretenida coreografía bailando con más soltura que muchos humanos y cambiando para siempre el significado de “hacer el paso del robot”.
Mucha gente mira estos progresos con entusiasmo. Esto es algo normal, porque los avances en inteligencia artificial prometen mucho: autos que se manejan solos, robots que hacen las tareas peligrosas, e inteligencias digitales tan poderosas que nos permitan resolver nuestros grandes desafíos médicos. La percepción general es que mientras más rápido avance la inteligencia artificial, más cerca estamos de vivir en una utopía tecnológica.
A menos que la inteligencia artificial se salga de control y sea el fin de la humanidad como la conocemos.
¿Podría pasar? Mucha gente inteligente y seria piensa que sí, incluyendo reconocidos gurús tecnológicos, como Bill Gates y Elon Musk. Nick Bostrom, autor de Superintelligence: Paths, Dangers, Strategies y uno de los investigadores líderes en el estudio del riesgo existencial que supone esta tecnología, lo pone así: “Ante la perspectiva de un desarrollo explosivo de la inteligencia artificial, los humanos somos como un niño jugando con una bomba. Hay un desbalance entre el poder de nuestro juguete y la inmadurez de nuestro comportamiento”. Suena como la trama de varias películas, demasiado oscuro para ser real. ¿Cómo podría esta tecnología poner en riesgo nuestra existencia? E incluso más importante: ¿Realmente los robots bailarines podrían dominar el mundo?
La inteligencia artificial ya es muy superior a la inteligencia humana en muchas tareas específicas, como jugar ajedrez, calcular dígitos de pi o predecir el plegamiento de una proteína en base a su cadena de aminoácidos. Por el otro lado, es cosa de pedirle algo a Siri para darse cuenta de que aún hay muchas áreas en que la inteligencia artificial tiene un largo camino por recorrer (¿cómo va a ser tan difícil cambiar la canción, Siri?).
Superinteligencia
La opinión general de los expertos en el área es que aún nos faltan décadas para desarrollar una superinteligencia: un sistema que supere el desempeño cognitivo humano en cualquier dominio relevante.
Y ¿sería posible que esto ocurra? Hasta el momento, no hay ningún argumento científico que haga imposible el desarrollo de una superinteligencia. A pesar de que para muchos pueda parecer un fenómeno abstracto, la inteligencia no es más que un procesamiento de información que ocurre gracias a partículas (iones, en el cerebro) que se mueven de un lado a otro de cierta manera, produciendo un resultado. Ninguna ley de la física conocida hace imposible un mejor procesamiento de información que el que ocurre en el cuerpo humano.
De hecho, una inteligencia sustentada en un sistema digital tiene mucho más potencial que la inteligencia humana. Nuestro límite de procesamiento de información está limitado por el tejido biológico, mientras que una inteligencia artificial puede ser tan poderosa como los servidores que la sustenten. Vamos a los datos: las neuronas se disparan unas 200 veces por segundo y su señal viaja a 100 metros por segundo, mientras que en un computador, los transistores disparan millones de señales por segundo, las cuales viajan a la velocidad de la luz. El potencial del mundo material para sostener un sistema superinteligente es demasiado grande como para ignorar la probabilidad sustancial de que esto ocurra. Negarlo es un antropocentrismo sin mucho sustento.
El problema del control
Imagina que eres un chimpancé, el primate genéticamente más cercano al ser humano. Es difícil ser un chimpancé, porque por mucho que te esfuerces, tu destino siempre dependerá de lo que los homo sapiens decidan hacer con tu especie. Si a los humanos les gusta que existan los chimpancés, tu raza está salvada, pero si no, fin de la historia.
Si desarrollaramos una superinteligencia artificial, pasaríamos a ser como los chimpancés: nuestro futuro estará en manos de una inteligencia superior.
Lo que esta superinteligencia decida hacer o no hacer, dependerá de los valores u objetivos que estén programados en ella. Lamentablemente, estos valores no tienen por qué estar alineados con lo que como humanos consideramos valioso, incluso si nos esforzamos por que así sea. Acá va un ejemplo tétrico pero esclarecedor: una superinteligencia programada para “hacernos sonreír” puede hacernos prisioneros y conectarnos electrodos en los pómulos para que sonriamos constantemente. Mirándolo así, prefiero quedarme con los chistes malos de Siri.
A partir de cierto momento — que no conoceremos hasta que llegue — es probable que el desarrollo de una superinteligencia ocurra de forma explosivamente rápida. Esto sucede porque mientras más inteligente se vuelve, más efectiva será ella misma en aumentar sus propias capacidades. Y como bien sabrán los más matemáticos, cuando la velocidad de una variable depende del estado de esa misma variable, tendremos una trayectoria de crecimiento exponencial. De esta forma, el tren de la inteligencia pasará por la estación sapiens, pero es muy probable que ni siquiera haga una parada ahí. Y cuando este punto de inflexión ocurra, si no hemos resuelto como alinear la motivación de esta inteligencia con la nuestra, seguramente será ya demasiado tarde.
Y si las cosas se ponen feas, ¿por qué no la desenchufamos simplemente? Sería bueno tener esta capacidad, pero nada garantiza que podamos hacerlo. Pensemos, por ejemplo, que ya hay tecnologías creadas por la humanidad que no tienen “botón de emergencia”. ¿Dónde se desconecta la internet de todo el mundo? Además, es muy probable que una superinteligencia se proteja de cualquier forma en que podamos interrumpir que cumpla su objetivo inicial, de modos superinteligentes que ni siquiera podremos prever.
Resumiendo: el inmenso poder que podría tener una superinteligencia y la velocidad explosiva con la que podríamos llegar a ella sin darnos cuenta, hacen indispensable resolver el problema del control lo antes que sea posible.
Cómo salvarnos
Según Nick Bostrom, la única solución fiable al problema del control es encontrar una forma en que la superinteligencia logre aprender los valores humanos en toda su complejidad. En vez de definir nosotros los objetivos de esta inteligencia — algo sumamente difícil, ya que como especie nunca estamos de acuerdo y es probable que el objetivo que escojamos tenga consecuencias inadvertidas — debemos buscar que su misión principal sea extrapolar nuestros objetivos y llevarlos a cabo.
Este tipo de soluciones se conoce como normatividad indirecta. En concreto, proponen que los objetivos de una superinteligencia deben ser del estilo: “haz lo que desearíamos hacer si es que hubiésemos pensado con mucho tiempo y cuidado sobre ello”. Es una solución astuta y prometedora, pero que aún requiere mucho trabajo de formalización para tener la seguridad de que todo saldrá bien.
Y mientras tanto, los robots seguirán bailando cada vez mejor.
Conclusión
Desarrollar una superinteligencia podría hacer que la especie humana pase a un nivel muy superior de bienestar y desarrollo. Esta tecnología es posiblemente la última invención que tengamos que hacer. Una vez creada, le encargamos la resolución de nuestros grandes problemas.
Sin embargo, como hemos visto, existe un enorme potencial para que las cosas salgan muy mal con esta tecnología. Así como podría ser el inicio de una nueva era en la historia humana, también podría ser el catastrófico final.
Construir esta inteligencia sigue siendo un desafío técnico muy complejo que tendrá a muchas mentes talentosas trabajando por varios años más. No obstante, no debemos olvidar que desarrollar una superinteligencia y adicionalmente resolver el problema del control, es un desafío aún más difícil.
La cantidad de expertos que trabaja en desarrollar inteligencia artificial versus los que trabajan en resolver el problema del control está ominosamente desbalanceada. Basta con que una persona resuelva el primer problema, sin el segundo, para que ya no haya vuelta atrás. Así que la próxima vez que veas unos robots bailarines, aprovecha para pregúntate si nos estamos preocupando lo suficiente por el problema que realmente importa.
Notas
Este artículo está basado en el libro Superintelligence: Paths, Dangers, Strategies, de Nick Bostrom (hice una reseña del libro acá). Es un libro muy interesante que abarca el tema con mucha (y tal vez demasiada) profundidad y puede ser un poco difícil de leer.
Si te interesa el tema, antes de leer el libro puedes ver este video introductorio y esta charla TED del mismo Nick Bostrom.
6 comentarios
Puedes dejarme un comentario en este formulario y yo lo haré aparecer acá 😉.
Muy bueno pancho,
Por mi parte creo que antes del problema de valores habrá un problema de convivencia, en el que la tecnología será capaz de hacer tanto que hoy hace el humano que simplemente traerá más problemas sociales que beneficios.
Va a empezar esa pelea por que quien dirige al robot querrá sacarle más provecho, pero a cambio de eso impedirá que otro pueda trabajar y por ende sería también injusto.
Creo que después de ese paso vendría enfrentar si efectivamente se es capaz de dirigir o no a una IA y ahí el tema de los valores va a ser indispensable.
Muy interesante, da para pensar, cuídate ^^
Efectivamente Lucas!
Acá solo abordé el problema “existencial” pero de seguro que en la transición seguirá trayéndonos desafíos sociales y económicos.
Aunque todos esos desafíos son en última instancia poco relevantes si los comparamos con la posiblidad de que la humanidad se acabe. ☠
Muchas gracias por comentar!
Buenaaaaardo
El debate de la tecnología en servicio de la humanidad es súper interesante. He leído, y en cierta parte creo lo mismo, que las cartas están al favor de la tecnología, basta con ver como cada vez le cedemos más poder a nuestro celular; nuestra agenda, nuestra libreta de contactos, cuales son nuestros amigos e incluso si nuestro corazón late de forma sana o no. A la larga nuestra especie se va a extinguir, tarde o temprano, ya sea porque unos robot bailarines nos pitean a todos o porque evolucionemos a algo diferente. El tema de añadirle valores humanos a la IA me vuela un poco la cabeza porque ¿cómo la hacemos? ¿será feminista? ¿le va a gustar el azul o el rojo? ¿cuales serán los márgenes que tendrá para decidir sobre temas delicados? ¿tomará decisiones pensando en la gran mayoría o en los datos más reales? sin duda tenemos que empezar a tomar más control sobre este tema, porque seguir la inercia no creo que nos lleve a un final deseado.
Buen articulo, y tema súper relevante. Abrazo!
PD: me acordé de “Yo Robot” y de “Rick y Morty”.
Buena, maldito madafaka, que bueno que te gustó.
Con tus preguntas diste en el clavo con varios de los temas que también se plantean en el libro. Efectivamente, ¿cómo vamos a definir los valores de una IA si no tenemos ni nuestros valores definidos? Definitivamente es un problema que va a requerir a las mejores mentes para ver si nos salvamos a tiempo.
Como contrapunto, personalmente no creo que el avance de la tecnología sea inherentemente indeseable. De hecho, no tendría problema en - si se pudiera - “traspasar” mi consciencia a un sustento digital. Pero ya ese es otro debate para otro artículo, jeje…
Un abrazo!
Tremendo artículo y tremendo problema!! Yo creo que alcanzaremos a ver bastantes cosas asombrosas en el corto plazo
Gracias Juan! Ojalá que así sea. Si todo sale espectacularmente bien, sería horrible morirse justo antes de que la superinteligencia descubra como hacernos inmortales.