David Silver dio el mundo su primer vistazo a la superinteligencia.
En 2016, un programa de inteligencia artificial que desarrolló en Google DeepMind, AlphaGo, aprendió por sí solo a jugar el famoso y difícil juego Go con una especie de dominio que iba mucho más allá de la imitación.
Desde entonces, Silver fundó su propia empresa, Ineffable Intelligence, cuyo objetivo es construir formas más generales de superinteligencia de IA. La empresa hará esto, dice Silver, centrándose en el aprendizaje por refuerzo, que implica que los modelos de IA aprendan nuevas capacidades mediante prueba y error. La visión es crear “superaprendices” que vayan más allá de la inteligencia humana en muchos ámbitos.
Este enfoque contrasta con la forma en que la mayoría de las empresas de IA planean construir superinteligencia, explotando las capacidades de codificación e investigación de modelos de lenguaje grande.
Silver, hablando con WIRED desde su oficina en Londres, dice que cree que este enfoque fracasará. Por más sorprendentes que sean los LLM, aprenden de la inteligencia humana, en lugar de construir la suya propia.
«Los datos humanos son como una especie de combustible fósil que ha proporcionado un atajo sorprendente», dice Silver. «Se puede pensar en los sistemas que aprenden por sí mismos como un combustible renovable, algo que simplemente puede aprender y aprender y aprender para siempre, sin límites», dice.
Conocí a Silver varias veces y, a pesar de esta proclamación, siempre me pareció una de las personas más humildes en IA. A veces, cuando habla de ideas que considera tontas, muestra una sonrisa traviesa. Pero ahora mismo habla muy en serio.
«Creo que nuestra misión es establecer el primer contacto con la superinteligencia», dice. «Por superinteligencia realmente me refiero a algo increíble. Debería descubrir nuevas formas de ciencia, tecnología, gobierno o economía por sí mismo».
Hace cinco años, una misión así podría haber parecido ridícula. Pero los directores ejecutivos de tecnología ahora hablan habitualmente de que las máquinas superarán la inteligencia humana y reemplazarán a categorías enteras de trabajadores. La idea de que algún nuevo giro técnico podría desbloquear capacidades de inteligencia artificial sobrehumanas ha generado recientemente una serie de nuevas empresas de miles de millones de dólares.
Hasta ahora, Ineffable Intelligence ha recaudado 1.100 millones de dólares en financiación inicial con una valoración de 5.100 millones de dólares, una suma enorme para los estándares europeos de IA. Silver también ha reclutado a los mejores investigadores de inteligencia artificial de Google DeepMind y otros laboratorios de vanguardia para que se unan a su esfuerzo.
Silver dice que donará todo el dinero que gane con el capital de Effable Intelligence (una suma que podría ascender a miles de millones si tiene éxito) a obras de caridad.
«Es una enorme responsabilidad construir una empresa centrada en la superinteligencia», me dice. «Creo que esto es algo que debe hacerse en beneficio de la humanidad, y cualquier dinero que gane con Ineffable se destinará a organizaciones benéficas de alto impacto que salven tantas vidas como sea posible».
Enfoque total
Silver conoció a Demis Hassabis, director ejecutivo de Google DeepMind, en un torneo de ajedrez cuando eran niños, y luego ambos se convirtieron en amigos y colaboradores para toda la vida.
Se mantuvieron unidos después de que Silver dejara Google DeepMind, lo cual hizo sólo porque quería trazar un camino completamente nuevo. «Creo que es realmente importante que exista un laboratorio de inteligencia artificial de élite que realmente se centre al cien por cien en este enfoque», afirma. «Que no sea sólo un rincón de otro lugar dedicado a los LLM».
Los límites del enfoque basado en LLM se pueden ver, dice Silver, con un simple experimento mental. Imagínese retroceder en el tiempo y lanzar un modelo de lenguaje grande en un mundo que creía que era plano. Sin poder interactuar con el mundo real, el sistema, dice, seguiría siendo un ávido terraplanista, incluso si continuara mejorando su propio código.
Sin embargo, un sistema de IA que pueda aprender sobre el mundo por sí mismo podría hacer sus propios descubrimientos científicos.
