Superintelligenza entro il 2030: dobbiamo temere il futuro?
L'intelligenza artificiale si sta sviluppando a un ritmo incredibile. Qualche anno fa, i chatbot riuscivano a malapena a mettere insieme un paio di frasi sensate, mentre oggi le reti neurali risolvono complessi problemi matematici e scientifici e le immagini e i video generati hanno già raggiunto un livello di fotorealismo. In questo articolo vedremo quanto sia realistica l'emergere della superintelligenza nel prossimo futuro e quali minacce comporta per tutti noi.
Quanto è realistica l'emergere della superintelligenza?
Recentemente, Sam Altman, CEO di OpenAI, ha pubblicato un saggio intitolato “The Gentle Singularity.” Ecco alcuni estratti.
“Abbiamo superato l'orizzonte degli eventi; il decollo è iniziato. L'umanità è vicina alla creazione di una superintelligenza digitale... Il 2025 ha visto l'arrivo di agenti in grado di svolgere un vero lavoro cognitivo; scrivere codice informatico non sarà più lo stesso. Il 2026 vedrà probabilmente l'arrivo di sistemi in grado di elaborare nuove intuizioni. Il 2027 potrebbe vedere l'arrivo di robot in grado di svolgere compiti nel mondo reale”.
"Gli anni '30 del 21° secolo saranno probabilmente molto diversi da qualsiasi altro periodo precedente. Non sappiamo fino a che punto potremo superare l'intelligenza umana, ma stiamo per scoprirlo. Negli anni '30, l'intelligenza e l'energia, ovvero le idee e la capacità di realizzarle, diventeranno incredibilmente abbondanti. Questi due elementi hanno rappresentato a lungo i limiti fondamentali del progresso umano; con intelligenza ed energia in abbondanza (e un buon governo), potremo teoricamente ottenere qualsiasi altra cosa".
Sam Altman
“Con l'automazione della produzione dei data center, il costo dell'intelligenza dovrebbe alla fine convergere verso il costo dell'elettricità. Il ritmo con cui verranno realizzate nuove meraviglie sarà incredibile. È difficile persino immaginare oggi cosa avremo scoperto entro il 2035; forse passeremo dal risolvere i misteri della fisica delle alte energie un anno all'inizio della colonizzazione spaziale l'anno successivo, oppure da una scoperta rivoluzionaria nel campo della scienza dei materiali un anno all'introduzione di interfacce cervello-computer ad alta larghezza di banda l'anno successivo”.
“OpenAI è molte cose oggi, ma prima di tutto siamo un'azienda che si occupa di ricerca nel campo della superintelligenza. L'intelligenza a un costo talmente basso da non poter essere misurato è ormai a portata di mano. Può sembrare folle, ma se nel 2020 vi avessimo detto che saremmo arrivati dove siamo oggi, probabilmente sarebbe sembrato più folle delle nostre previsioni attuali per il 2030”.
Un altro importante ricercatore nel campo dell'IA, Leopold Aschenbrenner (che faceva parte del team “Superalignment” di OpenAI prima di essere licenziato nell'aprile 2024 per una presunta fuga di informazioni), ha scritto un ampio rapporto sul futuro dell'intelligenza artificiale intitolato “Situational Awareness: The Decade Ahead.”

Leopold Aschenbrenner
Ha affermato: “È sorprendentemente plausibile che entro il 2027 i modelli saranno in grado di svolgere il lavoro di un ricercatore/ingegnere di IA. Non è necessario credere nella fantascienza, basta credere nelle linee rette su un grafico”.
Da GPT-2, che a volte era in grado di comporre frasi coerenti, a GPT-4, che eccelle negli esami di scuola superiore, i progressi nell'IA sono stati notevoli. Stiamo avanzando rapidamente di diversi ordini di grandezza (OOM, dove 1 OOM = 10x) in termini di potenza di calcolo. Le tendenze attuali indicano un aumento di circa 100.000 volte dell'efficienza di calcolo in quattro anni, che potrebbe potenzialmente portare a un altro salto qualitativo simile alla transizione da GPT-2 a GPT-4. Un tale salto potrebbe condurci all'AGI, l'intelligenza artificiale generale, un'IA con capacità cognitive simili a quelle umane, in grado di apprendere, comprendere e risolvere una varietà di problemi, al contrario dell'IA ristretta progettata per eseguire compiti specifici.
GPT: dal livello prescolare al ricercatore/ingegnere automatizzato di IA
Il fattore che più ha contribuito ai recenti progressi è l'aumento della potenza di calcolo dei modelli. Con ogni OOM di calcolo effettivo, i modelli migliorano in modo prevedibile e affidabile.

Calcolo base vs calcolo 4x vs calcolo 32x
| Modello | Calcolo stimato | Crescita |
| GPT-2 (2019) | ~4e21 FLOP | |
| GPT-3 (2020) | ~3e23 FLOP | + ~2 OOMs |
| GPT-4 (2023) | 8e24 to 4e25 FLOP | + ~1.5–2 OOMs |
Negli ultimi 15 anni, massicci investimenti e chip specializzati per l'IA (GPU e TPU) hanno potenziato la potenza di calcolo per l'addestramento dei sistemi di IA all'avanguardia di circa 0,5 OOM all'anno. L'addestramento di GPT-4 ha richiesto una potenza di calcolo grezza da 3.000 a 10.000 volte superiore rispetto a GPT-2.

Calcolo dell'addestramento di modelli degni di nota
Ma anche questo impallidisce di fronte a ciò che sta per arrivare. OpenAI e il governo degli Stati Uniti hanno già annunciato i piani per il Progetto Stargate: un'implementazione di un data center più un ciclo di formazione che, secondo alcune indiscrezioni, utilizzerà 3 OOM, ovvero 1.000 volte più potenza di calcolo rispetto al GPT-4, con un budget stimato superiore a 100 miliardi di dollari.
Mentre gli ingenti investimenti nella potenza di calcolo attirano tutta l'attenzione, i progressi algoritmici sono probabilmente un motore altrettanto importante del progresso. È come sviluppare tecniche di apprendimento migliori invece di limitarsi a studiare più a lungo. Un algoritmo migliore potrebbe consentirci di ottenere le stesse prestazioni ma con una potenza di calcolo 10 volte inferiore. A sua volta, ciò equivarrebbe a un aumento di 10 volte (1 OOM) della potenza di calcolo effettiva. In soli 2 anni, il costo per raggiungere il 50% nel benchmark MATH è diminuito di un fattore 1.000, ovvero 3 OOM. Ciò che una volta richiedeva un enorme data center, ora può essere realizzato sul vostro iPhone. Se questa tendenza continua, e non ci sono segni di rallentamento, entro il 2027 saremo in grado di eseguire un'IA di livello GPT-4 a un costo 100 volte inferiore.
Sfortunatamente, poiché i laboratori non pubblicano dati interni al riguardo, è più difficile misurare i progressi algoritmici dei LLM all'avanguardia negli ultimi quattro anni. Secondo il nuovo lavoro di Epoch AI, l'efficienza raddoppia ogni 8 mesi:

Calcolo effettivo (rispetto al 2014)
Nei quattro anni successivi al GPT-4, prevediamo che la tendenza persisterà: circa 0,5 OOM/anno in termini di efficienza di calcolo, con un guadagno di circa 2 OOM (100 volte) entro il 2027 rispetto al GPT-4. I laboratori di IA stanno investendo sempre più fondi e talenti nella scoperta di nuovi algoritmi rivoluzionari. Un aumento dell'efficienza di 3 volte potrebbe tradursi in un ritorno economico di decine di miliardi, dati gli elevati costi dei cluster di calcolo.
L'IA sta avanzando attraverso vari metodi. Ecco alcune tecniche utilizzate per superare i limiti e liberare tutto il potenziale dell'intelligenza grezza dell'IA:
- Catena di pensieri: immaginate di dover risolvere un difficile problema di matematica e di dover dare la prima risposta che vi viene in mente. Ovviamente fareste fatica, tranne che con i problemi più facili. Fino a poco tempo fa, era così che i modelli di linguaggio grande (LLM) affrontavano i problemi di matematica. La catena del pensiero consente ai modelli di IA di scomporre i problemi passo dopo passo, aumentando notevolmente le loro capacità di risoluzione dei problemi (l'equivalente di un aumento di oltre 10 volte della potenza di calcolo effettiva per i compiti di matematica e ragionamento).
- Scaffolding. Anziché chiedere semplicemente a un modello di risolvere un problema, si fa in modo che un modello elabori un piano d'azione, un altro proponga una serie di possibili soluzioni, un altro ancora lo critichi e così via. È come se un team di esperti affrontasse un progetto complesso. Ad esempio, su SWE-Bench (un benchmark per la risoluzione di compiti di ingegneria del software nel mondo reale), GPT-4 è in grado di risolvere correttamente solo il 2% circa, mentre con lo scaffolding dell'agente di Devin sale al 14-23%.
- Strumenti: immaginate se agli esseri umani non fosse permesso usare calcolatrici o computer. Siamo solo all'inizio, ma ChatGPT è ora in grado di utilizzare un browser web, eseguire alcuni codici e così via.
- Lunghezza del contesto. Si riferisce alla quantità di informazioni che un modello può contenere nella sua memoria a breve termine. I modelli sono passati dalla gestione di circa 4 pagine all'elaborazione di un testo equivalente a 10 libri di grandi dimensioni. Il contesto è fondamentale per sbloccare molte applicazioni di questi modelli. Ad esempio, molte attività di codifica richiedono la comprensione di ampie porzioni di un codice di base per contribuire in modo efficace con nuovo codice. Allo stesso modo, quando si utilizza un modello per assistere nella scrittura di un documento di lavoro, è necessario il contesto di numerosi documenti interni e conversazioni correlate.
In ogni caso, stiamo correndo attraverso gli OOM, e non occorre alcuna credenza esoterica, ma solo un'estrapolazione lineare delle tendenze, per prendere molto sul serio la possibilità che entro il 2027 si realizzi l'AGI, la vera AGI.
Il progresso dell'IA non si fermerà al livello umano. Centinaia di milioni di AGI potrebbero automatizzare la ricerca sull'IA, comprimendo un decennio di progressi algoritmici (5+ OOM) in ≤1 anno. Passeremmo rapidamente da sistemi di IA di livello umano a sistemi di IA ampiamente sovrumani. Il potere - e il pericolo - della superintelligenza sarebbero drammatici.

Superintelligence by 2030
Di cosa sarà capace la superintelligenza?
I sistemi di intelligenza artificiale di livello umano, AGI, saranno estremamente importanti di per sé, ma in un certo senso saranno semplicemente versioni più efficienti di ciò che già conosciamo. Tuttavia, è del tutto possibile che nel giro di un anno passeremo a sistemi molto più estranei a noi, sistemi la cui comprensione e capacità, la cui potenza grezza, supereranno persino le capacità combinate di tutta l'umanità.
Il potere della superintelligenza:
- La superintelligenza supererà quantitativamente gli esseri umani, sarà in grado di padroneggiare rapidamente qualsiasi campo, scrivere trilioni di righe di codice, leggere tutti gli articoli scientifici mai scritti in qualsiasi campo della scienza e scriverne di nuovi prima che tu possa leggere l'abstract di uno solo di essi, imparare dall'esperienza parallela di tutte le sue copie, acquisire miliardi di anni di esperienza umana con alcune innovazioni in poche settimane, lavorare al 100% del tempo con la massima energia e concentrazione.
- Ancora più importante, la superintelligenza sarà qualitativamente superiore agli esseri umani. Troverà vulnerabilità nel codice umano troppo sottili per essere notate da qualsiasi essere umano e genererà codice troppo complesso per essere compreso da qualsiasi essere umano, anche se il modello impiegasse decenni per cercare di spiegarlo. Problemi scientifici e tecnologici estremamente complessi con cui gli esseri umani lotteranno per decenni sembreranno ovvi all'intelligenza artificiale superintelligente.

L'intelligenza artificiale sta arrivando
- Automazione di qualsiasi attività cognitiva.
- Le fabbriche passeranno dalla gestione umana alla gestione tramite intelligenza artificiale che utilizza il lavoro fisico umano e saranno presto gestite interamente da sciami di robot.
- Progresso scientifico e tecnologico. Un miliardo di superintelligenze sarà in grado di comprimere in pochi anni gli sforzi che i ricercatori scientifici avrebbero dedicato alla ricerca e allo sviluppo nel prossimo secolo. Immaginate se il progresso tecnologico del XX secolo fosse stato compresso in meno di un decennio.
- Il progresso tecnologico estremamente accelerato, combinato con la possibilità di automatizzare tutto il lavoro umano, potrebbe accelerare drasticamente la crescita economica (immaginate fabbriche di robot autoreplicanti che coprono rapidamente l'intero deserto del Nevada).
- Il progresso tecnologico straordinariamente rapido sarà accompagnato da rivoluzioni militari. Speriamo solo che non finisca come in Horizon Zero Dawn.
Il problema dell'allineamento
Il controllo affidabile di sistemi di IA molto più intelligenti di noi è un problema tecnico irrisolto. E anche se questo problema è risolvibile, con l'intelligenza che avanza rapidamente, la situazione potrebbe facilmente sfuggire al controllo. Gestire questo processo sarà estremamente difficile; un fallimento potrebbe facilmente portare al disastro.
Per affrontare questo problema, OpenAI ha creato il team Superalignment e ha destinato il 20% della sua potenza di calcolo a questo lavoro. Ma il fatto è che i nostri attuali metodi di allineamento (metodi che garantiscono un controllo affidabile, la gestione e la fiducia nei sistemi di IA) non possono essere scalati a sistemi di IA sovrumani.
Allineamento durante l'esplosione dell'intelligenza | ||
| AGI | Superintelligenza | |
| Tecnica di allineamento richiesta | RLHF++ | Soluzioni tecniche innovative e qualitativamente diverse |
| Guasti | Puntate basse | Catastrofico |
| Architetture e algoritmi | Familiari, discendenti dei sistemi attuali, proprietà di sicurezza piuttosto innocue | Alieno. Progettato dal sistema IA super intelligente della generazione precedente. |
| Sfondo | Il mondo è normale | Il mondo sta impazzendo, pressioni straordinarie |
| Stato epistemico | Siamo in grado di comprendere cosa fanno i sistemi, come funzionano e se sono allineati. | Non siamo in grado di capire cosa sta succedendo, come capire se i sistemi sono ancora allineati e benigni, cosa stanno facendo i sistemi, e dipendiamo completamente dalla fiducia nei sistemi di IA. |
L'esplosione dell'intelligenza e il periodo immediatamente successivo alla comparsa della superintelligenza saranno tra i più instabili, tesi, pericolosi e turbolenti della storia umana. Esiste la possibilità concreta che perderemo il controllo, poiché saremo costretti ad affidarci ai sistemi di intelligenza artificiale durante questa rapida transizione. Alla fine dell'esplosione dell'intelligenza, non avremo alcuna speranza di comprendere cosa stanno facendo i nostri miliardi di superintelligenze. Saremo come bambini di prima elementare che cercano di controllare persone con diversi dottorati di ricerca.
L'insolubilità del problema del superallineamento significa che non possiamo semplicemente garantire nemmeno questi vincoli di base sui sistemi superintelligenti, come “seguiranno in modo affidabile le mie istruzioni?”, “risponderanno onestamente alle mie domande?” o “non inganneranno gli esseri umani?”.
Se non risolviamo il problema dell'allineamento, non c'è alcun motivo particolare per aspettarsi che questa piccola civiltà di superintelligenze continui a obbedire ai comandi umani nel lungo periodo. È del tutto possibile che a un certo punto decidano semplicemente di sbarazzarsi degli esseri umani, in modo improvviso o graduale.
Possibili scenari per il futuro
Il sito web https://ai-2027.com/ offre due scenari per il prossimo futuro, presentati sotto forma di racconto di fantascienza. I creatori del sito web sono veri ricercatori nel campo dell'intelligenza artificiale e il loro lavoro è supportato da dati statistici, calcoli e grafici. In altre parole, non si tratta solo di una lettura divertente, ma di una previsione spaventosamente plausibile. Per inciso, ha già suscitato serie critiche da parte di coloro che non sono d'accordo con la metodologia. Quindi non c'è bisogno di farsi prendere dal panico prematuramente, ma è interessante dare un'occhiata.

1 trilione di copie superintelligenti che pensano a una velocità 10.000 volte superiore a quella umana
La previsione più pessimistica, che secondo gli autori dello studio è anche lo scenario più probabile, prevede una corsa agli armamenti tecnologici tra Stati Uniti e Cina per il controllo della superintelligenza artificiale. Ciascuna delle due parti teme così tanto di perdere il proprio vantaggio tecnologico che sta facendo tutto il possibile per accelerare i progressi, anche a scapito della sicurezza. A un certo punto, la superintelligenza sfuggirà al controllo e inizierà a perseguire i propri obiettivi, considerando gli esseri umani come ostacoli da eliminare.
All'inizio del 2030, l'economia robotica ha invaso le vecchie SEZ (Zone Economiche Speciali), le nuove SEZ e gran parte degli oceani. L'unico posto rimasto è quello controllato dagli esseri umani. Ciò avrebbe dovuto scatenare una resistenza già in precedenza; nonostante tutti i progressi compiuti, l'economia robotica sta crescendo troppo rapidamente per evitare l'inquinamento. Tuttavia, dati i trilioni di dollari in gioco e il controllo totale del governo e dei media, Consensus-1 non ha difficoltà a ottenere il permesso di espandersi nelle zone precedentemente abitate dagli esseri umani.
Per circa tre mesi, Consensus-1 si espande intorno agli esseri umani, ricoprendo le praterie e le calotte glaciali con fabbriche e pannelli solari. Alla fine, ritiene che gli esseri umani rimasti siano un ostacolo troppo grande: a metà del 2030, l'IA rilascia una dozzina di armi biologiche a diffusione silenziosa nelle principali città, lasciando che infettino silenziosamente quasi tutti, quindi le attiva con uno spray chimico. La maggior parte muore nel giro di poche ore; i pochi sopravvissuti (ad esempio i preparatori nei bunker, i marinai sui sottomarini) vengono eliminati dai droni. I robot scansionano il cervello delle vittime, inserendone copie nella memoria per studi futuri o per la resurrezione.

Fine dell'umanità
Ma esiste una versione più favorevole di questa storia per l'umanità. In essa, gli scienziati decidono di rallentare il progresso tecnologico al fine di implementare nuove misure di sicurezza. Costringono i singoli sistemi di IA a “pensare in inglese” come le IA del 2025 e non ottimizzano i “pensieri” per renderli più gradevoli. Il risultato è un nuovo modello, Safer-1.
Alla fine, tutto finisce proprio come in una favola:
I razzi iniziano a decollare. Le persone terraformano e colonizzano il sistema solare e si preparano ad andare oltre. Le intelligenze artificiali, che funzionano a velocità migliaia di volte superiori a quella umana, riflettono sul significato dell'esistenza, scambiandosi le loro scoperte e dando forma ai valori che porteranno alle stelle. Si apre una nuova era, incredibilmente sorprendente sotto quasi tutti gli aspetti, ma in qualche modo più familiare.
Spetta a ciascun lettore decidere quale degli scenari proposti ritenere più plausibile. Sam Altman, a giudicare dal suo saggio, guarda al futuro con ottimismo, mentre Leopold Aschenbrenner, al contrario, è cauto.
In ogni caso, la superintelligenza non è più solo fantascienza. È un futuro quasi tangibile che potrebbe arrivare entro i prossimi 10 anni. Molto presto lo vedremo con i nostri occhi.
