La IA pronto «evolucionará» como los humanos, y la civilización tal como la conocemos cambiará para siempre

El pionero del aprendizaje profundo Jürgen Schmidhuber explica por qué la IA a nivel humano está cerca

Suscríbete a DyN Noticias

Cuando era un adolescente en los años 70, mi objetivo era construir una IA más inteligente que yo y luego retirarme. Entonces estudié matemáticas e informática.

Para la portada de mi disertación de 1987, dibujé un robot que se lanza aparentemente imposible. La tesis era muy ambiciosa y describía la primera investigación concreta sobre un «metaprograma» autoreescrito que no solo aprende a mejorar su desempeño en un determinado campo limitado, sino que también aprende a mejorar el algoritmo de aprendizaje en sí, y cómo meta- aprende de la forma en que aprende.

Este fue el primero de una serie de trabajos de décadas sobre algoritmos para la superación personal recursiva con el fin de construir superinteligencia. Predije que, en retrospectiva, la superación personal final parecerá tan simple que los estudiantes podrán comprenderla e implementarla. Dije que es la última cosa significativa que un hombre puede crear, porque todo lo demás resulta de ello. Todavía lo estoy diciendo.

¿Qué tipo de dispositivo informático deberíamos usar para construir IA? La física dicta que el hardware de computación eficiente en el futuro se parecerá mucho a una red neuronal similar al cerebro (RNN) recurrente, una computadora de uso general con muchos procesadores empaquetados en un volumen cableado compacto para minimizar los costos de comunicación. Su corteza tiene más de diez mil millones de neuronas, cada una conectada a un promedio de otras diez mil neuronas. Algunas son neuronas de entrada que alimentan al resto con datos (sonido, vista, tacto, dolor, hambre). Otras son neuronas de salida que mueven los músculos. La mayoría están ocultos entre sí, donde tiene lugar el pensamiento.

Todos aprenden cambiando las fortalezas de la conexión, lo que determina la fuerza con la que las neuronas se influyen entre sí y que parecen codificar toda su experiencia a lo largo de la vida. Lo mismo ocurre con nuestros RNN artificiales.

La diferencia entre nuestras redes neuronales (NN) y otras es que hemos encontrado formas de hacer que las NN sean más profundas y fuertes, especialmente las RNN, que tienen conexiones de retroalimentación y pueden, en principio, ejecutar algoritmos o programas arbitrarios que interactúan con el entorno. En 1991, publiqué sobre “aprendices muy profundos” 1, 3, algoritmos mucho más profundos que las redes de ocho capas del matemático ucraniano Alexey Grigorevich Ivakhnenko, quien fue pionero en el aprendizaje profundo en la década de 1960. A principios de la década de 1990, nuestros RNN pudieron aprender a resolver muchos problemas que no habían aprendido previamente.

La mayoría de las NN comerciales actuales necesitan profesores. Se basan en un método llamado retropropagación, cuya forma actual fue formulada por primera vez por Seppo Linnainmaa en 19703 y aplicada a los NN supervisados ​​por el maestro en 1982 por Paul Werbos. Sin embargo, la propagación hacia atrás no funcionó bien para NN profundos.

En 1991, Sepp Hochreiter, mi primer alumno que trabajaba en mi primer proyecto de aprendizaje profundo, identificó la razón de este fracaso: el llamado problema del gradiente de desaparición. Esto luego fue superado por un RNN de aprendizaje profundo ampliamente utilizado llamado memoria a corto plazo (LSTM), desarrollado en mis laboratorios a principios de la década de 1990 2,3. En 2009, LSTM se convirtió en el primer RNN en ganar concursos internacionales de reconocimiento de modelos gracias a los esfuerzos de Alex Graves, otro ex alumno. El principio LSTM se ha convertido en la base de gran parte de lo que ahora se denomina aprendizaje profundo.

Cuando la gente me pregunta si tengo una demostración, mi respuesta es: «¿Tienes un teléfono inteligente?» Porque desde mediados de 2015, el reconocimiento de voz de Google se basa en la LSTM instruida por la «clasificación temporal conexionista». Esto ha mejorado drásticamente Google Voice no solo hasta en un diez por ciento, sino en casi un 50 por ciento, ahora disponible para miles de millones de usuarios de teléfonos inteligentes.

Leer más: La IA no viene por nuestros trabajos, sino por nuestro planeta y algún día «colonizará la galaxia»

El reciente ganador de Microsoft ImageNet 2015 también utiliza ideas relacionadas con LSTM. El gigante de las búsquedas chino Baidu confía en nuestros métodos, como CTC. Apple explicó en la reciente conferencia de desarrolladores de la WWDC de 2016 cómo usa LSTM para mejorar iOS. Google aplica el LSTM bastante universal no solo al reconocimiento de voz, sino también al procesamiento del lenguaje natural, la traducción automática, la generación de subtítulos de imágenes y otras áreas. Eventualmente, terminará como un enorme LSTM.

AlphaGo, el programa que derrotó al mejor jugador humano Go, fue creado por DeepMind, que está influenciado por nuestros antiguos alumnos: dos de los primeros cuatro miembros de DeepMind vinieron de mi laboratorio.

La verdadera IA va más allá de imitar a los profesores. Esto explica el interés por el aprendizaje no supervisado (UL). Hay dos tipos de UL: pasivo y activo. UL pasivo se trata simplemente de detectar regularidades en los flujos de observación. Esto significa aprender a codificar datos con menos recursos computacionales, como espacio, tiempo y energía, o comprimir datos mediante codificación predictiva, lo que se puede lograr hasta cierto punto mediante retropropagación y puede facilitar el aprendizaje supervisado.

El UL activo es más sofisticado que el UL pasivo: se trata de aprender a modelar el flujo de observación a través de secuencias de acción que ayudan al alumno a darse cuenta de cómo funciona el mundo y qué se puede hacer en él. Active UL explica todo tipo de comportamientos curiosos y creativos en el arte, la música y la ciencia y la comedia4 y ya hemos construido simples “científicos” artificiales basados ​​en sus aproximaciones. No hay ninguna razón por la que los automóviles no puedan ser curiosos y creativos.

Leer más: Machine learning versus AI: ¿cuál es la diferencia?

Los niños y algunos animales son incluso más inteligentes que los mejores robots de autoaprendizaje. Pero creo que en unos años seremos capaces de construir una IA basada en NN (una NNAI) que aprenda gradualmente a volverse al menos tan inteligente como un animal pequeño, aprendiendo con curiosidad y creatividad a planificar, razonar y descomponer una variedad de problemas en subproblemas que se resuelven rápidamente.

Una vez que se ha alcanzado la IA animal, el movimiento hacia la IA humana puede ser pequeño: los animales inteligentes tardaron miles de millones de años en evolucionar, pero solo unos pocos millones de años más para que los humanos evolucionaran. La evolución tecnológica es mucho más rápida que la biológica, porque los callejones sin salida se eliminan más rápido. Una vez que tengamos IA a nivel animal, unos años o décadas después, podremos tener IA a nivel humano, con aplicaciones verdaderamente ilimitadas. Todos los negocios cambiarán y la civilización entera cambiará.

  1. Schmidhuber, J. (1992). Aprendizaje de secuencias complejas y extensas utilizando el principio de compresión histórica. Cálculo neural, 4 (2): 234-242.

2. Hochreiter, S. y Schmidhuber, J. (1997). Memoria de corto plazo. Computación neuronal, 9 (8): 1735-1780. Basado en TR FKI-207-95, TUM (1995).

3. Schmidhuber, J. (2015). Aprendizaje profundo en redes neuronales: una descripción general. Redes neuronales, 61, 85-117.

4. Schmidhuber, J. (2010). La teoría formal de la creatividad, la diversión y la motivación intrínsecas (1990-2010). Transacciones de desarrollo mental autónomo de IEEE, 2 (3): 230-247, 2010.

Jürgen Schmidhuber apareció en DyN Noticias2016. Lea sobre su discusión sobre cómo la IA colonizará la galaxia.

Todas las noticias de la ciencia de la tierra en un sólo sitio. noticias de Ciencia.

Contenido relacionado