Tornar al principal

Superintel·ligència el 2030: hauríem de témer el futur?

La intel·ligència artificial s'està desenvolupant a un ritme fantàstic. Fa uns anys, els chatbots amb prou feines podien encadenar un parell de frases significatives, però ara les xarxes neuronals resolen problemes matemàtics i científics complexos, i les imatges i els vídeos generats ja han assolit un nivell de fotorealisme. En aquest article, analitzarem com de realista és l'aparició de la superintel·ligència en un futur proper i quines amenaces representa per a tots nosaltres.

Fins a quin punt és realista l'aparició de la superintel·ligència?

Recentment, Sam Altman, CEO d'OpenAI, va publicar un assaig titulat "The Gentle Singularity". Aquí teniu alguns fragments.

«Hem superat l'horitzó dels esdeveniments; l'enlairament ha començat. La humanitat és a prop de construir la superintel·ligència digital... El 2025 ha vist l'arribada d'agents que poden fer treball cognitiu real; escriure codi informàtic mai serà el mateix. El 2026 probablement veurà l'arribada de sistemes que puguin descobrir noves perspectives. El 2027 pot veure l'arribada de robots que puguin fer tasques al món real.»

«És probable que la dècada del 2030 sigui molt diferent de qualsevol altra època anterior. No sabem fins a quin punt podem anar més enllà de la intel·ligència humana, però ho descobrirem. A la dècada del 2030, la intel·ligència i l'energia (les idees i la capacitat de fer que les idees es facin realitat) esdevindran enormement abundants. Aquests dos factors han estat els limitadors fonamentals del progrés humà durant molt de temps; amb intel·ligència i energia abundants (i bon govern), teòricament podem tenir qualsevol altra cosa.»

Sam Altman

Sam Altman

«A mesura que la producció dels centres de dades s'automatitzi, el cost de la intel·ligència hauria de convergir fins a gairebé el cost de l'electricitat. La taxa de noves meravelles que s'aconseguiran serà immensa. Avui dia és difícil fins i tot imaginar què haurem descobert el 2035; potser passarem de resoldre la física d'altes energies un any a començar la colonització espacial l'any següent; o d'un gran avenç en la ciència dels materials un any a unes veritables interfícies cervell-ordinador d'ample de banda elevat l'any següent.»

«OpenAI és moltes coses ara, però abans de res, som una empresa de recerca de superintel·ligència. La intel·ligència massa barata per mesurar-la està molt a l'abast. Pot semblar una bogeria dir-ho, però si us haguéssim dit el 2020 que seríem on som avui, probablement sonaria més bogeria que les nostres prediccions actuals sobre el 2030.»

Un altre destacat investigador de la IA, Leopold Aschenbrenner (que formava part de l'equip "Superalignment" d'OpenAI abans de ser acomiadat l'abril de 2024 per una presumpta filtració d'informació), va escriure un ampli informe sobre el futur de la intel·ligència artificial titulat "Situational Awareness: The Decade Ahead".

Leopold Aschenbrenner

Leopold Aschenbrenner

Va dir: «És sorprenentment plausible que, el 2027, els models puguin fer la feina d'un investigador/enginyer d'IA. Això no requereix creure en la ciència-ficció; només requereix creure en les línies rectes d'un gràfic».

Des de la GPT-2, que de vegades podia compondre frases coherents, fins a la GPT-4, que destaca als exàmens de secundària, el progrés en IA ha estat remarcable. Estem avançant ràpidament en diversos ordres de magnitud (OOM, on 1 OOM = 10x) en potència de càlcul. Les tendències actuals apunten a un augment d'aproximadament 100.000 vegades en l'eficiència informàtica en quatre anys, cosa que podria conduir a un altre salt qualitatiu similar a la transició de la GPT-2 a la GPT-4. Aquest salt ens podria conduir a la AGI (intel·ligència artificial general), una IA amb habilitats cognitives similars a les humanes, capaç d'aprendre, comprendre i resoldre una varietat de problemes, en contraposició a la IA limitada dissenyada per realitzar tasques específiques.Escalabilitat base de la computació efectiva

GPT: des del nivell preescolar fins a investigador/enginyer d'IA automatitzada

El factor més evident del progrés recent és la necessitat de donar molta més capacitat de càlcul als models. Amb cada OOM de càlcul efectiu, els models milloren de manera predictible i fiable.

Càlcul base vs. càlcul 4x vs. càlcul 32x

Càlcul base vs. càlcul 4x vs. càlcul 32x

ModelCàlcul estimatCreixement
GPT-2 (2019)~4e21 FLOP 
GPT-3 (2020)~3e23 FLOP+ ~2 OOM
GPT-4 (2023)8e24 to 4e25 FLOP+ ~1.5–2 OOM

Durant els darrers 15 anys, els augments massius de la inversió i els xips d'IA especialitzats (GPU i TPU) han augmentat la capacitat de càlcul d'entrenament per a sistemes d'IA d'avantguarda en ~0,5 OOM per any. L'entrenament de GPT-4 requeria ~3.000x–10.000x més càlcul en brut que GPT-2.

Càlcul d'entrenament de models notables

Càlcul d'entrenament de models notables

Però fins i tot això és insignificant en comparació amb el que vindrà. OpenAI i el govern dels EUA ja han anunciat plans per al Projecte Stargate: un desplegament de centre de dades més una cursa d'entrenament que es rumoreja que utilitzarà 3 OOM, o 1.000 vegades més computació, que GPT-4, amb un pressupost estimat que supera els 100.000 milions de dòlars.

Tot i que les inversions massives en computació reben tota l'atenció, el progrés algorítmic és probablement un motor de progrés igualment important. És com desenvolupar millors tècniques d'aprenentatge en lloc de simplement estudiar més temps. Un millor algoritme ens podria permetre aconseguir el mateix rendiment però amb 10 vegades menys computació d'entrenament. Al seu torn, això actuaria com un augment de 10 vegades (1 OOM) en la computació efectiva. En només 2 anys, el cost per aconseguir el 50% en el punt de referència MATH es va desplomar per un factor de 1.000, o 3 OOM. El que abans requeria un centre de dades massiu, ara es pot aconseguir al vostre iPhone. Si aquesta tendència continua, i no hi ha signes de desacceleració, el 2027 podrem executar una IA de nivell GPT-4 per 100 vegades més barat.

Malauradament, com que els laboratoris no publiquen dades internes sobre això, és més difícil mesurar el progrés algorítmic dels LLM de frontera durant els darrers quatre anys. Segons el nou treball d'Epoch AI, l'eficiència es duplica cada 8 mesos:

Càlcul efectiu (respecte al 2014)

Càlcul efectiu (respecte al 2014)

Durant els quatre anys posteriors a la GPT-4, esperem que la tendència persisteixi: ~0,5 OOM/any en eficiència de computació, cosa que generarà uns guanys d'~2 OOM (100x) el 2027 en comparació amb la GPT-4. Els laboratoris d'IA estan invertint cada cop més fons i talent en el descobriment de nous avenços algorítmics. Un augment de l'eficiència de 3x podria traduir-se en rendiments econòmics de desenes de milers de milions, donats els elevats costos dels clústers de computació.

La IA està avançant a través de diversos mètodes. Aquí teniu algunes tècniques que s'utilitzen per superar les limitacions, desbloquejant tot el potencial de la intel·ligència bruta de la IA:

  • Cadena de pensament: Imagineu-vos que us demanin que resolgueu un problema matemàtic difícil i que hàgiu de dir la primera resposta que us vingui al cap. Evidentment, tindríeu dificultats, excepte amb els problemes més fàcils. Fins fa poc, així és com teníem els LLM abordant els problemes matemàtics. La cadena de pensament permet que els models d'IA desglossin els problemes pas a pas, augmentant enormement les seves habilitats de resolució de problemes (l'equivalent a un augment de més de 10 vegades en la potència de càlcul efectiva per a tasques matemàtiques i de raonament).
  • Bastides. En lloc de simplement demanar a un model que resolgui un problema, feu que un model faci un pla d'atac, que un altre proposi un conjunt de possibles solucions, que un altre el critiqui, etc. És com si un equip d'experts abordés un projecte complex. Per exemple, a SWE-Bench (un punt de referència per resoldre tasques d'enginyeria de programari del món real), GPT-4 només pot resoldre ~2% correctament, mentre que amb la bastida d'agents de Devin puja al 14-23%.
  • Eines: Imagineu-vos que els humans no poguessin utilitzar calculadores ni ordinadors. Només estem al principi, però ChatGPT ara pot utilitzar un navegador web, executar codi, etc.
  • Longitud del context. Això fa referència a la quantitat d'informació que un model pot contenir a la seva memòria a curt termini alhora. Els models han passat de gestionar aproximadament 4 pàgines a processar l'equivalent a 10 llibres grans de text. El context és crucial per desbloquejar moltes aplicacions d'aquests models. Per exemple, moltes tasques de codificació requereixen comprendre grans porcions d'una base de codi per contribuir amb codi nou de manera efectiva. De la mateixa manera, quan s'utilitza un model per ajudar a escriure un document de lloc de treball, necessita context de nombrosos documents i converses internes relacionades.

En qualsevol cas, estem corrent a través dels OOM, i no requereix creences esotèriques, només l'extrapolació de tendències de línies rectes, per prendre la possibilitat de l'AGI, l'autèntic AGI, per al 2027 molt seriosament.

El progrés de la IA no s'aturarà a nivell humà. Centenars de milions d'IAG podrien automatitzar la recerca en IA, comprimint una dècada de progrés algorítmic (més de 5 OOM) en ≤1 any. Passaríem ràpidament de sistemes d'IA de nivell humà a sistemes d'IA enormement sobrehumans. El poder —i el perill— de la superintel·ligència seria dramàtic.

Superintel·ligència per al 2030

Superintel·ligència per al 2030

De què serà capaç la superintel·ligència?

Els sistemes d'intel·ligència artificial a nivell humà, AGI, seran enormement importants per si mateixos, però en cert sentit simplement seran versions més eficients del que ja coneixem. Tanmateix, és completament possible que en només un any passem a sistemes que ens són molt més aliens, sistemes la comprensió i les capacitats dels quals —la potència bruta dels quals— superaran fins i tot les capacitats combinades de tota la humanitat.

El poder de la superintel·ligència:

  • La superintel·ligència superarà quantitativament els humans, serà capaç de dominar ràpidament qualsevol camp, escriure bilions de línies de codi, llegir tots els articles científics mai escrits en qualsevol camp de la ciència i escriure'n de nous abans de poder llegir el resum d'un d'ells, aprendre de l'experiència paral·lela de totes les seves còpies, adquirir milers de milions d'anys d'experiència humana amb algunes innovacions en qüestió de setmanes, treballar el 100% del temps amb la màxima energia i concentració.
  • Més important encara, la superintel·ligència serà qualitativament superior als humans. Trobarà vulnerabilitats en el codi humà que són massa subtils perquè qualsevol humà les noti, i generarà codi massa complex perquè qualsevol humà l'entengui, fins i tot si el model passa dècades intentant explicar-lo. Els problemes científics i tecnològics extremadament complexos amb els quals els humans lluitaran durant dècades semblaran obvis a la IA superintel·ligent.
Representació de la superintel·ligència artificial

Arriba la superintel·ligència artificial

  • Automatització de tot el treball cognitiu.
  • Les fàbriques passaran de la gestió humana a la gestió de la intel·ligència artificial mitjançant el treball físic humà, i aviat seran completament dirigides per eixams de robots.
  • Progrés científic i tecnològic. Mil milions de superintel·ligències podran comprimir els esforços que els investigadors científics haurien dedicat a la investigació i el desenvolupament durant el proper segle en uns pocs anys. Imagineu-vos si el progrés tecnològic del segle XX s'hagués comprimit en menys d'una dècada.
  • El progrés tecnològic extremadament accelerat combinat amb la possibilitat d'automatitzar tot el treball humà podria accelerar dràsticament el creixement econòmic (imagineu-vos fàbriques de robots autoreplicants que cobreixin ràpidament tot el desert de Nevada).
  • Amb el progrés tecnològic extraordinàriament ràpid vindran revolucions militars. Esperem que no acabi com a Horizon Zero Dawn.

El problema d'alineació

Controlar de manera fiable sistemes d'IA molt més intel·ligents que nosaltres és un problema tècnic sense resolució. I tot i que aquest problema té solució, amb la intel·ligència que avança ràpidament, la situació podria descontrolar-se molt fàcilment. Gestionar aquest procés serà extremadament difícil; un fracàs podria conduir fàcilment a un desastre.

Per abordar aquest problema, OpenAI ha creat l'equip Superalignment i ha assignat el 20% de la seva potència de càlcul a aquesta tasca. Però el fet és que els nostres mètodes d'alineació actuals (mètodes que garanteixen un control, una gestió i una confiança fiables en els sistemes d'IA) no es poden escalar a sistemes d'IA sobrehumans.

Alineació durant l'explosió d'intel·ligència

 AGISuperintel·ligència
Tècnica d'alineació requeridaRLHF++Solucions tècniques noves i qualitativament diferents
FracassosApostes baixesCatastròfic
Arquitectures i algoritmesFamiliar, descendents dels sistemes actuals, propietats de seguretat bastant benignesDissenyat per un sistema d'IA superintel·ligent de la generació anterior
Fons de pantallaEl món és normalEl món s'està tornant boig, pressions extraordinàries
Estat epistèmicPodem entendre què fan els sistemes, com funcionen i si estan alineats.No tenim la capacitat d'entendre què està passant, com saber si els sistemes encara estan alineats i són benignes, què estan fent els sistemes, i depenem completament de confiar en els sistemes d'IA.

L'explosió de la intel·ligència i el període immediatament posterior a l'aparició de la superintel·ligència seran dels períodes més inestables, tensos, perillosos i turbulents de la història de la humanitat. Hi ha una possibilitat real que perdem el control, ja que ens veurem obligats a confiar en els sistemes d'intel·ligència artificial durant aquesta ràpida transició. Al final de l'explosió de la intel·ligència, no tindrem cap esperança d'entendre què fan les nostres mil milions de superintel·ligències. Serem com alumnes de primer de primària que intenten controlar persones amb múltiples doctorats.

La insolubilitat del problema de la superalineació significa que simplement no podem garantir ni tan sols aquestes restriccions bàsiques als sistemes superintel·ligents, com ara "seguiran les meves instruccions de manera fiable?" o "respondran les meves preguntes honestament?" o "no enganyaran els humans?".

Si no resolem el problema de l'alineació, no hi ha cap raó en particular per esperar que aquesta petita civilització de superintel·ligències continuï obeint les ordres humanes a la llarga. És molt possible que en algun moment simplement acceptin desfer-se dels humans, ja sigui de sobte o gradualment.

Possibles escenaris per al futur

El lloc web https://ai-2027.com/ ofereix dos escenaris per al futur proper, presentats en forma d'història de ciència-ficció. Els creadors del lloc web són investigadors reals en el camp de la intel·ligència artificial, i el seu treball està recolzat per dades estadístiques, càlculs i gràfics. En altres paraules, no es tracta només d'una lectura entretinguda, sinó d'una predicció espantosament plausible. Per cert, ja ha rebut crítiques serioses per part d'aquells que no estan d'acord amb la metodologia. Per tant, no cal entrar en pànic prematurament, però és interessant fer-hi una ullada.

Previsió del gener de 2036

1 bilió de còpies tremendament superintel·ligents pensant a una velocitat 10.000 vegades superior a la humana

La previsió sinistra, que també és l'escenari més probable segons els autors de l'estudi, implica una cursa d'armament tecnològic entre els EUA i la Xina per la superintel·ligència artificial. Cada part té tanta por de perdre el seu avantatge tecnològic que està fent tot el possible per accelerar el progrés, fins i tot a costa de la seguretat. En algun moment, la superintel·ligència es descontrolarà i començarà a perseguir els seus propis objectius, considerant els humans com a obstacles que s'han d'eliminar.

A principis del 2030, l'economia robòtica haurà omplert les antigues ZEE (Zones Econòmiques Especials), les noves ZEE i grans parts de l'oceà. L'únic lloc on queda per anar són les zones controlades pels humans. Això hauria provocat resistència abans; malgrat tots els seus avenços, l'economia robòtica està creixent massa ràpid per evitar la contaminació. Però tenint en compte els bilions de dòlars implicats i la captura total del govern i els mitjans de comunicació, Consensus-1 té pocs problemes per obtenir permís per expandir-se a zones anteriorment humanes.

Durant uns tres mesos, Consensus-1 s'expandeix al voltant dels humans, cobrint les praderies i els casquets glacials amb fàbriques i panells solars. Finalment, descobreix que els humans restants són un impediment massa gran: a mitjans del 2030, la IA llança una dotzena d'armes biològiques de propagació silenciosa a les principals ciutats, les deixa infectar silenciosament gairebé tothom i després les activa amb un esprai químic. La majoria moren en qüestió d'hores; els pocs supervivents (per exemple, els "preppers" en búnquers, els mariners en submarins) són eliminats per drons. Els robots escanegen els cervells de les víctimes, dipositant còpies a la memòria per a futurs estudis o reactivacions.

Fi de la humanitat

Fi de la humanitat

Però hi ha una versió més favorable d'aquesta història per a la humanitat. En ella, els científics decideixen frenar el progrés tecnològic per tal d'implementar noves mesures de seguretat. Obliguen els sistemes d'IA individuals a "pensar en anglès" com les IA del 2025, i no optimitzen els "pensaments" perquè tinguin bon aspecte. El resultat és un nou model, Safer-1.

Al final, tot acaba com en un conte de fades:

Els coets comencen a llançar-se. La gent terraforma i colonitza el sistema solar, i es prepara per anar més enllà. Les IA que funcionen a una velocitat mil·lenària i subjectiva, reflexionen sobre el significat de l'existència, intercanvien descobriments entre elles i donen forma als valors que aportarà a les estrelles. Naix una nova era, una que és inimaginablement sorprenent en gairebé tots els sentits però més familiar en alguns.

Depèn de cada lector decidir en quin dels escenaris proposats creure. Sam Altman, a jutjar pel seu assaig, mira el futur amb optimisme, mentre que Leopold Aschenbrenner, al contrari, és cautelós.

En qualsevol cas, la superintel·ligència ja no és només ciència-ficció. És un futur gairebé tangible que podria arribar en els propers 10 anys. Molt aviat, ho veurem amb els nostres propis ulls.