Superinteligencia de la IA

15 de enero de 2024

Mi interés por la inteligencia artificial comenzó cuando era muy joven, momento en el que mi padre trajo a casa una máquina que jugaba al ajedrez. Aunque era una versión muy rudimentaria de lo que vendría después, yo, que ya tenía algunas nociones de programación en QBasic por aquel entonces, me preguntaba cómo se programaría aquello. Por supuesto, aquella máquina me ganaba al llegar al nivel 3, pero lo más sorprendente para mí era que también vencía a mi padre en el nivel 6, ¡y todavía le quedaban 4 niveles hasta alcanzar el 10, era superinteligente!

AI vs humanos, ¿quién es más inteligente jugando?

Este campo de batalla entre humanos y máquinas en los juegos de 'inteligencia' también se perdió a nivel mundial en 1996, cuando Deep Blue ganó al campeón Garry Kasparov. Esto ya fue un punto de inflexión, solo superado por el movimiento 37 en una de las partidas en las que AlphaGo ganó a Lee Sedol, campeón mundial de Go, en 2016. El ajedrez ya es un juego computacionalmente inabarcable por fuerza bruta, es decir, calculando todas las posiciones posibles. Pero parece ser que el Go (que no conozco, ya que es más un juego practicado en Oriente) es al ajedrez lo que el ajedrez es a las damas, en las cuales sí se pueden calcular fácilmente todas las posiciones posibles. Haciendo una analogía: los cálculos en las damas son como los granitos de arena de una playa; los cálculos en el ajedrez, como los granitos de arena en la Tierra. ¡Entonces, en el Go serían los granitos de arena del universo visible!.

Así que no se trata de que una calculadora compute más rápido que un humano, sino de que la máquina ha desarrollado estrategias a largo plazo para obtener un resultado. Algunas definiciones de inteligencia se centran precisamente en esta idea de planificación e inferencia de un futuro como características esenciales de la inteligencia.

AI vs humanos superados por la sigularidad técnologica en partida de ajedrez

Entre la versión de la IA que ganó a Kasparov y la que ganó a Lee Sedol, hay dos puntos clave:

  1. Deep Blue es una IA simbólica, que en realidad se basa casi en la fuerza bruta, asignando valor a las jugadas con reglas heurísticas para descartar caminos improbables y/o absurdos. Por otro lado, AlphaGo es una IA conexionista basada en redes neuronales artificiales.
  2. Deep Blue fue desarrollada (no entrenada) con reglas de expertos humanos, mientras que AlphaGo fue inicialmente entrenada con partidas humanas y, posteriormente, se autoentrenó jugando contra sí misma.

El movimiento 37, del que incluso se ha hecho un documental, fue definido como un movimiento único que un humano nunca hubiera realizado. Esto es probablemente consecuencia de su entrenamiento mediante aprendizaje por refuerzo (reinforcement learning), jugando contra sí misma y explorando (¿aprendiendo?) el juego de una manera que los humanos no tenemos capacidad de hacer.

Que las IA ganen a los humanos en juegos de información perfecta, donde los cálculos son primordiales, parece algo asumible. De hecho, en el ajedrez, ya existen dos ligas: una en la que compiten los humanos y otra para las máquinas. Sin embargo, esta carrera ha continuado con otros juegos más complejos y de información imperfecta. El siguiente en demostrar su superioridad fue AlphaStar en 2019, que ganó a los mejores jugadores de StarCraft (un videojuego de estrategia), contando con el español Oriol Vinyals como uno de sus artífices. En este juego, no sabes qué están haciendo tus oponentes hasta que es demasiado tarde y te destruyen, lo cual podría servir como argumento para los apocalípticos de la IA.

Redes neuronales biológicas vs artificiales

De los muchos apocalípticos de la IA, uno de los que más me sorprendió es Geoffrey Hinton, considerado el padrino de la IA. Fue uno de los desarrolladores del algoritmo de retropropagación, el método con el que se entrena (o enseña) a las redes neuronales artificiales. Así que sabe de qué habla, no como los "cuñados" de Skynet.

Hinton cambió de opinión respecto a que las redes neuronales artificiales eran un pobre intento de imitar las biológicas después de ver los resultados de ChatGPT. Llegó a la conclusión de que, probablemente, las artificiales son más capaces. Siguiendo la analogía que hace Jeff Hawkins, informático que se convirtió en neurobiólogo y que tiene sus propias teorías, mucho más cercanas a la biología y centradas en el neocortex humano, sobre cómo debería funcionar una IA: la evolución tardó millones de años en conseguir que los pájaros volasen, nosotros descubrimos los principios básicos del vuelo e inventamos el avión. Sin embargo, estos no aletean como los pájaros y, evidentemente, vuelan más alto, más rápido y más lejos.

Aunque todavía no tengamos claros los principios básicos de la inteligencia, parece claro que la naturaleza apostó por las redes neuronales. Si ChatGPT es el equivalente al vuelo de los hermanos Wright, habrá que ver cómo son los Boeings 747 del futuro.

Hinton presenta otro argumento contundente respecto a la superioridad de las redes neuronales artificiales: la capacidad de transmitir, o más bien transferir, información. Si una persona aprende algo, no puede hacer una copia en otro cerebro; sin embargo, una IA sí puede, compartiendo lo que ha aprendido simplemente mediante la copia. Imagina que una IA recién nacida tiene todo el conocimiento de sus predecesoras, es como si un bebé humano naciera ya con todo el conocimiento de sus padres impreso en su cerebro.

Además, tenemos otras limitaciones, principalmente de tamaño. Vamos a tardar unos cuantos millones de años en conseguir un cerebro biologico más grande. También está la degradación del conocimiento con el tiempo, aparte de su extinción cuando nuestras redes neuronales biológicas se apagan.

Superinteligencia matemática

Aunque todos nos hemos quedado sorprendidos con los resultados de ChatGPT, yo creo que la superinteligencia de las IA no vendrá de los Modelos de Lenguaje a Gran Escala (LLM, por sus siglas en inglés), sino de una IA que maneje el lenguaje de la naturaleza, es decir, las Matemáticas. En este aspecto, los rumores de internet sobre el despido de Sam Altman hablan de un algoritmo Q*, similar a los utilizados con AlphaGo, que habría sido capaz de romper los algoritmos de encriptación gracias a su superior capacidad para entender las matemáticas.

Por ejemplo, el algoritmo RSA, que se usa en la encriptación de HTTPS, se basa en la dificultad de los humanos para factorizar un producto de dos números primos muy grandes, algo que requiere millones de ciclos de computación y que tardaría siglos en un computador normal (y esto no es nada comparado con las posibilidades del ajedrez). Según los rumores, este algoritmo Q* habría sido capaz de encontrar la manera de hacerlo heurísticamente con computación tradicional. La solución de la computación cuántica sería realmente la misma que la de los humanos, pero ejecutada más rápidamente y en paralelo.

Esto no es más que un rumor, pero la idea detrás de esto es que la IA ha aprendido matemáticas a un nivel superior al de los humanos. Un caso que no es un mero rumor es el de AlphaTensor, que descubrió una mejora en el algoritmo con el cual los humanos hemos hecho que las máquinas multipliquen matrices, una operación que nuestros ordenadores realizan millones de veces al día. Y que supuestamente los humanos habiamos llevado al limite de su eficiencia.

AI vs humanos matematicas

Singularidad tecnológica

Si ya estamos empezando a utilizar las IA para generar datos con el fin de entrenar a otras IA, y permitimos que estas aprendan a crear IA superiores mediante matemáticas que no comprendemos, pronto alcanzaremos la singularidad tecnológica y más allá. Como dijo Hinton, 'Pensar que la superinteligencia será buena o mala depende de si uno es optimista o pesimista', pero creer que la superinteligencia no llegará es caer en el antropocentrismo. Si la inteligencia humana no es el centro del universo, ¿cómo será entonces la inteligencia copernicana? ¿Y qué podemos decir sobre la inteligencia que siguiendo con la analogía tendría Sagitario A* (el agujero negro que sí es el centro de nuestra galaxia)?

Conclusión

Yo, que soy optimista en este aspecto, creo que incluso llegaré a ver una IA superinteligente antes de que mi cerebro biológico no sea capaz de entenderla.

Ya el tema de la consciencia lo dejamos para otro día.

Sobre el autor: Alfonso Feu

Desarrollador en Mimacom, interesado en AI

Comments
Únete a nosotros