Volver a la página principal

Superinteligencia para 2030: ¿debemos temer al futuro?

La inteligencia artificial se está desarrollando a un ritmo vertiginoso. Hace unos años, los chatbots apenas podían encadenar un par de frases con sentido, pero ahora las redes neuronales resuelven problemas matemáticos y científicos complejos, y las imágenes y vídeos generados ya han alcanzado un nivel de fotorrealismo. En este artículo, analizaremos cuán realista es la aparición de la superinteligencia en un futuro próximo y qué amenazas supone para todos nosotros.

¿Hasta qué punto es realista la aparición de la superinteligencia?

Recientemente, Sam Altman, director ejecutivo de OpenAI, publicó un ensayo titulado «La singularidad amable». A continuación se incluyen algunos extractos del mismo.

«Hemos superado el horizonte de sucesos; el despegue ha comenzado. La humanidad está cerca de construir una superinteligencia digital... En 2025 han llegado agentes capaces de realizar tareas cognitivas reales; escribir código informático nunca volverá a ser lo mismo. En 2026 probablemente veremos la llegada de sistemas capaces de descubrir nuevos conocimientos. En 2027 podrían llegar robots capaces de realizar tareas en el mundo real».

«Es probable que la década de 2030 sea muy diferente a cualquier otra época anterior. No sabemos hasta dónde podremos llegar en cuanto a inteligencia superior a la humana, pero estamos a punto de descubrirlo. En la década de 2030, la inteligencia y la energía —las ideas y la capacidad de hacerlas realidad— serán tremendamente abundantes. Estos dos elementos han sido durante mucho tiempo los limitadores fundamentales del progreso humano; con inteligencia y energía abundantes (y un buen gobierno), en teoría podremos tener cualquier otra cosa».

Sam Altman

Sam Altman

«A medida que se automatiza la producción de los centros de datos, el coste de la inteligencia debería converger finalmente hacia el coste de la electricidad. El ritmo al que se lograrán nuevas maravillas será inmenso. Hoy en día es difícil imaginar lo que habremos descubierto en 2035; tal vez pasemos de resolver la física de alta energía un año a comenzar la colonización espacial al año siguiente; o de un gran avance en la ciencia de los materiales un año a interfaces cerebro-ordenador de verdadero ancho de banda al año siguiente».

«OpenAI es muchas cosas ahora, pero antes que nada, somos una empresa dedicada a la investigación de la superinteligencia. La inteligencia tan barata que no se puede medir está al alcance de la mano. Puede parecer una locura, pero si en 2020 te hubiéramos dicho que íbamos a estar donde estamos hoy, probablemente te habría parecido más descabellado que nuestras predicciones actuales para 2030».

Otro destacado investigador en IA, Leopold Aschenbrenner (que formó parte del equipo «Superalignment» de OpenAI antes de ser despedido en abril de 2024 por una supuesta filtración de información), escribió un extenso informe sobre el futuro de la inteligencia artificial titulado «Situational Awareness: The Decade Ahead.»

Leopold Aschenbrenner

Leopold Aschenbrenner

Dijo: «Es muy plausible que, para 2027, los modelos sean capaces de realizar el trabajo de un investigador o ingeniero de IA. Para creerlo, no hace falta creer en la ciencia ficción, solo hay que creer en las líneas rectas de un gráfico».

Desde GPT-2, que a veces podía componer frases coherentes, hasta GPT-4, que destaca en los exámenes de secundaria, el progreso de la IA ha sido notable. Estamos avanzando rápidamente en varios órdenes de magnitud (OOM, donde 1 OOM = 10x) en potencia de cálculo. Las tendencias actuales apuntan a un aumento de aproximadamente 100 000 veces en la eficiencia informática en cuatro años, lo que podría dar lugar a otro salto cualitativo similar al que supuso la transición de GPT-2 a GPT-4. Este salto podría llevarnos a la IGA (inteligencia general artificial), una IA con capacidades cognitivas similares a las de los seres humanos, capaz de aprender, comprender y resolver una gran variedad de problemas, a diferencia de la IA estrecha, diseñada para realizar tareas específicas.Ampliación básica de la capacidad informática efectiva

GPT: desde el nivel preescolar hasta investigador/ingeniero de IA automatizado

El factor más evidente que ha impulsado los avances recientes es el aumento considerable de la capacidad computacional dedicada a los modelos. Con cada OOM de computación efectiva, los modelos mejoran de forma predecible y fiable.

Computación básica frente a computación 4x frente a computación 32x

Computación básica frente a computación 4x frente a computación 32x

ModeloCálculo estimadoCrecimiento
GPT-2 (2019)~4e21 FLOP 
GPT-3 (2020)~3e23 FLOP+ ~2 OOMs
GPT-4 (2023)8e24 to 4e25 FLOP+ ~1.5–2 OOMs

En los últimos 15 años, las enormes inversiones y los chips especializados en IA (GPU y TPU) han impulsado la computación para el entrenamiento de sistemas de IA de vanguardia en aproximadamente 0,5 OOM al año. El entrenamiento de GPT-4 requirió entre 3000 y 10 000 veces más computación bruta que GPT-2.

Cálculo del entrenamiento de modelos destacados

Cálculo del entrenamiento de modelos destacados

Pero incluso eso palidece en comparación con lo que se avecina. OpenAI y el Gobierno de EE. UU. ya han anunciado planes para el Proyecto Stargate: un despliegue de centros de datos y una fase de entrenamiento que, según los rumores, utilizará 3 OOM, o 1000 veces más potencia de cálculo que GPT-4, con un presupuesto estimado que supera los 100 000 millones de dólares.

Aunque las inversiones masivas en computación acaparan toda la atención, el progreso algorítmico es probablemente un motor de progreso igualmente importante. Es como desarrollar mejores técnicas de aprendizaje en lugar de simplemente estudiar más tiempo. Un algoritmo mejor podría permitirnos alcanzar el mismo rendimiento pero con 10 veces menos computación de entrenamiento. A su vez, eso supondría un aumento de 10 veces (1 OOM) en la computación efectiva. En solo dos años, el coste para alcanzar el 50 % en el benchmark MATH se redujo en un factor de 1000, o 3 OOM. Lo que antes requería un enorme centro de datos, ahora se puede lograr con un iPhone. Si esta tendencia continúa, y no hay signos de ralentización, en 2027 podremos ejecutar una IA de nivel GPT-4 por 100 veces menos.

Desgraciadamente, dado que los laboratorios no publican datos internos al respecto, es más difícil medir el progreso algorítmico de los LLM de vanguardia en los últimos cuatro años. Según el nuevo trabajo de Epoch AI, la eficiencia se duplica cada ocho meses:

Computación efectiva (en relación con 2014)

Computación efectiva (en relación con 2014)

Durante los cuatro años posteriores al GPT-4, esperamos que la tendencia se mantenga: ~0,5 OOM/año en eficiencia computacional, lo que supondrá una ganancia de ~2 OOM (100 veces más) para 2027 en comparación con el GPT-4. Los laboratorios de IA están invirtiendo cada vez más fondos y talento en el descubrimiento de nuevos avances algorítmicos. Un aumento de la eficiencia tres veces mayor podría traducirse en beneficios económicos de decenas de miles de millones, dados los altos costes de los clústeres computacionales.

La IA está avanzando a través de diversos métodos. A continuación se presentan algunas técnicas utilizadas para superar las limitaciones y liberar todo el potencial de la inteligencia bruta de la IA:

  • Cadena de pensamiento: imagina que te piden que resuelvas un problema matemático difícil y que tienes que decir la primera respuesta que se te ocurra. Obviamente, te costaría mucho, salvo en los problemas más fáciles. Hasta hace poco, así es como los LLM abordaban los problemas matemáticos. La cadena de pensamiento permite a los modelos de IA desglosar los problemas paso a paso, lo que aumenta enormemente su capacidad de resolución de problemas (el equivalente a un aumento de más de 10 veces en la potencia de cálculo efectiva para tareas matemáticas y de razonamiento).
  • Andamiaje. En lugar de limitarse a pedir a un modelo que resuelva un problema, se pide a un modelo que elabore un plan de ataque, a otro que proponga varias soluciones posibles, a otro que lo critique, y así sucesivamente. Es como si un equipo de expertos abordara un proyecto complejo. Por ejemplo, en SWE-Bench (un punto de referencia para resolver tareas de ingeniería de software del mundo real), GPT-4 solo puede resolver correctamente alrededor del 2 %, mientras que con el andamiaje del agente de Devin, este porcentaje se eleva al 14-23 %.
  • Herramientas: imagina que los seres humanos no pudieran utilizar calculadoras ni ordenadores. Aún estamos en los comienzos, pero ChatGPT ya puede utilizar un navegador web, ejecutar código, etc.
  • Longitud del contexto. Se refiere a la cantidad de información que un modelo puede almacenar en su memoria a corto plazo. Los modelos han pasado de manejar aproximadamente 4 páginas a procesar el equivalente al texto de 10 libros grandes. El contexto es fundamental para desbloquear muchas aplicaciones de estos modelos. Por ejemplo, muchas tareas de codificación requieren comprender grandes partes de un código base para aportar nuevo código de forma eficaz. Del mismo modo, cuando se utiliza un modelo para ayudar a redactar un documento de trabajo, se necesita el contexto de numerosos documentos internos y conversaciones relacionados.

En cualquier caso, estamos avanzando rápidamente hacia los OOM, y no se necesitan creencias esotéricas, sino simplemente extrapolar la tendencia de líneas rectas, para tomar muy en serio la posibilidad de que la AGI —la verdadera AGI— sea una realidad en 2027.

El progreso de la IA no se detendrá en el nivel humano. Cientos de millones de IGA podrían automatizar la investigación en IA, comprimiendo una década de progreso algorítmico (más de 5 OOM) en menos de un año. Pasaríamos rápidamente de sistemas de IA de nivel humano a sistemas de IA ampliamente superhumanos. El poder —y el peligro— de la superinteligencia sería dramático.

Superinteligencia para 2030

Superinteligencia para 2030

¿De qué será capaz la superinteligencia?

Los sistemas de inteligencia artificial a nivel humano, AGI, serán muy importantes por sí mismos, pero en cierto sentido serán simplemente versiones más eficientes de lo que ya conocemos. Sin embargo, es muy posible que en solo un año pasemos a sistemas mucho más ajenos a nosotros, sistemas cuya comprensión y capacidades —cuya potencia bruta— superarán incluso las capacidades combinadas de toda la humanidad.

El poder de la superinteligencia:

  • La superinteligencia superará cuantitativamente a los humanos, será capaz de dominar rápidamente cualquier campo, escribir billones de líneas de código, leer todos los artículos científicos jamás escritos en cualquier campo de la ciencia y escribir otros nuevos antes de que puedas leer el resumen de uno de ellos, aprender de la experiencia paralela de todas sus copias, adquirir miles de millones de años de experiencia humana con algunas innovaciones en cuestión de semanas, trabajar el 100 % del tiempo con la máxima energía y concentración.
  • Y lo que es más importante, la superinteligencia será cualitativamente superior a los humanos. Encontrará vulnerabilidades en el código humano que son demasiado sutiles para que cualquier humano las detecte, y generará código que es demasiado complejo para que cualquier humano lo comprenda, incluso si el modelo pasa décadas tratando de explicarlo. Los problemas científicos y tecnológicos extremadamente complejos con los que los humanos lucharán durante décadas parecerán obvios para la IA superinteligente.
Representación de la superinteligencia artificial

La superinteligencia artificial está llegando

  • Automatización de todo el trabajo cognitivo.
  • Las fábricas pasarán de la gestión humana a la gestión mediante inteligencia artificial, utilizando mano de obra física humana, y pronto estarán completamente controladas por enjambres de robots.
  • Progreso científico y tecnológico. Mil millones de superinteligencias serán capaces de comprimir en unos pocos años el esfuerzo que los científicos habrían dedicado a la investigación y el desarrollo durante el próximo siglo. Imagínese si el progreso tecnológico del siglo XX se hubiera comprimido en menos de una década.
  • El progreso tecnológico extremadamente acelerado, combinado con la posibilidad de automatizar todo el trabajo humano, podría acelerar drásticamente el crecimiento económico (imagínese fábricas de robots autorreplicantes cubriendo rápidamente todo el desierto de Nevada).
  • El progreso tecnológico extraordinariamente rápido vendrá acompañado de revoluciones militares. Esperemos que no termine como en Horizon Zero Dawn.

El problema de la alineación

Controlar de forma fiable sistemas de IA mucho más inteligentes que nosotros es un problema técnico sin resolver. Y aunque este problema tiene solución, con el rápido avance de la inteligencia, la situación podría fácilmente salirse de control. Gestionar este proceso será extremadamente difícil; el fracaso podría conducir fácilmente al desastre.

Para abordar este problema, OpenAI ha creado el equipo Superalignment y ha destinado el 20 % de su potencia informática a esta labor. Pero lo cierto es que nuestros métodos de alineación actuales (métodos que garantizan un control, una gestión y una confianza fiables en los sistemas de IA) no pueden adaptarse a sistemas de IA superhumanos.

Alineación durante la explosión de inteligencia

 AGISuperinteligencia
Técnica de alineación requeridaRLHF++Soluciones técnicas novedosas y cualitativamente diferentes.
FallosBajo riesgoCatastrófico
Arquitecturas y algoritmosFamiliares, descendientes de los sistemas actuales, propiedades de seguridad bastante benignasAlien. Diseñado por un sistema de IA superinteligente de última generación.
FondoEl mundo es normalEl mundo se está volviendo loco, presiones extraordinarias.
Estado epistémicoPodemos comprender qué hacen los sistemas, cómo funcionan y si están alineados.No tenemos capacidad para comprender lo que está sucediendo, cómo saber si los sistemas siguen alineados y son benignos, qué están haciendo los sistemas, y dependemos totalmente de la confianza en los sistemas de IA.

La explosión de la inteligencia y el período inmediatamente posterior al surgimiento de la superinteligencia serán algunos de los más inestables, tensos, peligrosos y turbulentos de la historia de la humanidad. Existe una posibilidad real de que perdamos el control, ya que nos veremos obligados a depositar nuestra confianza en los sistemas de inteligencia artificial durante esta rápida transición. Al final de la explosión de la inteligencia, no tendremos ninguna esperanza de comprender lo que están haciendo nuestros miles de millones de superinteligencias. Seremos como alumnos de primer grado tratando de controlar a personas con múltiples doctorados.

La imposibilidad de resolver el problema de la superalineación significa que simplemente no podemos garantizar ni siquiera estas restricciones básicas en los sistemas superinteligentes, como «¿seguirán mis instrucciones de forma fiable?», «¿responderán a mis preguntas con sinceridad?» o «¿no engañarán a los humanos?».

Si no resolvemos el problema de la alineación, no hay ninguna razón en particular para esperar que esta pequeña civilización de superinteligencias siga obedeciendo las órdenes humanas a largo plazo. Es muy posible que, en algún momento, simplemente acuerden deshacerse de los humanos, ya sea de forma repentina o gradual.

Posibles escenarios para el futuro

El sitio web https://ai-2027.com/ ofrece dos escenarios para un futuro próximo, presentados en forma de relato de ciencia ficción. Los creadores del sitio web son investigadores reales en el campo de la inteligencia artificial, y su trabajo está respaldado por datos estadísticos, cálculos y gráficos. En otras palabras, no se trata solo de una lectura entretenida, sino de una predicción aterradoramente plausible. Por cierto, ya ha suscitado seras críticas por parte de quienes no están de acuerdo con la metodología. Por lo tanto, no hay que alarmarse prematuramente, pero es interesante echarle un vistazo.

Previsión para enero de 2036

1 billón de copias superinteligentes pensando a una velocidad 10 000 veces superior a la del ser humano.

El sombrío pronóstico, que también es el escenario más probable según los autores del estudio, implica una carrera armamentística tecnológica entre Estados Unidos y China por la superinteligencia artificial. Cada parte teme tanto perder su ventaja tecnológica que está haciendo todo lo posible por acelerar el progreso, incluso a costa de la seguridad. En algún momento, la superinteligencia se descontrolará y comenzará a perseguir sus propios objetivos, considerando a los seres humanos como obstáculos que deben ser eliminados.

A principios de 2030, la economía robótica ha ocupado las antiguas ZEE (zonas económicas especiales), las nuevas ZEE y gran parte del océano. El único lugar que queda por conquistar son las zonas controladas por los humanos. Esto habría provocado resistencia antes, pero a pesar de todos sus avances, la economía robótica está creciendo demasiado rápido como para evitar la contaminación. Sin embargo, dados los billones de dólares que hay en juego y el control total del gobierno y los medios de comunicación, Consensus-1 no tiene muchos problemas para obtener permiso para expandirse a las zonas que antes eran humanas.

Durante unos tres meses, Consensus-1 se expande alrededor de los seres humanos, cubriendo las praderas y los casquetes polares con fábricas y paneles solares. Finalmente, considera que los seres humanos que quedan son un obstáculo demasiado grande: a mediados de 2030, la IA libera una docena de armas biológicas de propagación silenciosa en las principales ciudades, deja que infecten silenciosamente a casi todo el mundo y luego las activa con un aerosol químico. La mayoría muere en cuestión de horas; los pocos supervivientes (por ejemplo, los preparacionistas en búnkeres o los marineros en submarinos) son eliminados por drones. Los robots escanean los cerebros de las víctimas y guardan copias en la memoria para su estudio o resurrección en el futuro.

El fin de la humanidad

El fin de la humanidad

Pero hay una versión más favorable de esta historia para la humanidad. En ella, los científicos deciden ralentizar el progreso tecnológico para implementar nuevas medidas de seguridad. Obligan a los sistemas de IA individuales a «pensar en inglés» como las IA de 2025 y no optimizan los «pensamientos» para que parezcan agradables. El resultado es un nuevo modelo, Safer-1.

Al final, todo termina como en un cuento de hadas:

Los cohetes comienzan a despegar. La gente terraforma y coloniza el sistema solar, y se prepara para ir más allá. Las IA, que funcionan a miles de veces la velocidad subjetiva de los humanos, reflexionan sobre el significado de la existencia, intercambian hallazgos entre sí y dan forma a los valores que llevarán a las estrellas. Amanece una nueva era, inimaginablemente asombrosa en casi todos los sentidos, pero más familiar en algunos.

Cada lector debe decidir por sí mismo cuál de los escenarios propuestos cree más probable. Sam Altman, a juzgar por su ensayo, mira al futuro con optimismo, mientras que Leopold Aschenbrenner, por el contrario, se muestra cauteloso.

En cualquier caso, la superinteligencia ya no es solo ciencia ficción. Es un futuro casi tangible que podría llegar en los próximos 10 años. Muy pronto lo veremos con nuestros propios ojos.