Zurück zur Hauptseite

Superintelligenz bis 2030: Sollten wir uns vor der Zukunft fürchten?

Künstliche Intelligenz entwickelt sich in einem fantastischen Tempo. Vor einigen Jahren konnten Chatbots kaum ein paar sinnvolle Sätze aneinanderreihen, doch heute lösen neuronale Netzwerke komplexe mathematische und wissenschaftliche Probleme, und generierte Bilder und Videos haben bereits ein fotorealistisches Niveau erreicht. In diesem Artikel werden wir uns damit befassen, wie realistisch die Entstehung einer Superintelligenz in naher Zukunft ist und welche Gefahren sie für uns alle mit sich bringt.

Wie realistisch ist die Entstehung von Superintelligenz?

Kürzlich veröffentlichte Sam Altman, CEO von OpenAI, einen Essay mit dem Titel „The Gentle Singularity.” Hier sind einige Auszüge daraus.

„Wir haben den Ereignishorizont überschritten; der Start ist erfolgt. Die Menschheit steht kurz vor der Entwicklung einer digitalen Superintelligenz... 2025 sind Agenten auf den Plan getreten, die echte kognitive Arbeit verrichten können; das Schreiben von Computercode wird nie mehr so sein wie zuvor. 2026 werden wahrscheinlich Systeme auf den Markt kommen, die neue Erkenntnisse gewinnen können. 2027 könnten Roboter auf den Markt kommen, die Aufgaben in der realen Welt ausführen können.“

„Die 2030er Jahre werden wahrscheinlich völlig anders sein als alle Zeiten zuvor. Wir wissen nicht, wie weit wir die menschliche Intelligenz noch übertreffen können, aber wir sind dabei, es herauszufinden. In den 2030er Jahren werden Intelligenz und Energie – Ideen und die Fähigkeit, Ideen zu verwirklichen – in ungeahntem Maße verfügbar sein. Diese beiden Faktoren waren lange Zeit die grundlegenden Grenzen des menschlichen Fortschritts. Mit reichlich Intelligenz und Energie (und guter Regierungsführung) können wir theoretisch alles erreichen.“

Sam Altman

Sam Altman

„Mit der Automatisierung der Produktion in Rechenzentren sollten die Kosten für Intelligenz letztendlich fast auf das Niveau der Stromkosten sinken. Die Geschwindigkeit, mit der neue Wunder vollbracht werden, wird immens sein. Es ist heute noch schwer vorstellbar, was wir bis 2035 alles entdeckt haben werden. Vielleicht lösen wir in einem Jahr die Probleme der Hochenergiephysik und beginnen im nächsten Jahr mit der Kolonisierung des Weltraums. Oder wir erzielen in einem Jahr einen bahnbrechenden Durchbruch in der Materialwissenschaft und entwickeln im nächsten Jahr echte hochbandbreitige Schnittstellen zwischen Gehirn und Computer.“

„OpenAI ist heute vieles, aber in erster Linie sind wir ein Forschungsunternehmen für Superintelligenz. Intelligenz, die so günstig ist, dass man sie nicht mehr messen kann, ist in greifbarer Nähe. Das mag verrückt klingen, aber wenn wir Ihnen 2020 gesagt hätten, dass wir heute dort stehen würden, wo wir stehen, hätte das wahrscheinlich noch verrückter geklungen als unsere aktuellen Prognosen für 2030.“

Ein weiterer prominenter KI-Forscher, Leopold Aschenbrenner (der Teil des „Superalignment”-Teams von OpenAI war, bevor er im April 2024 wegen angeblicher Informationslecks entlassen wurde), verfasste einen umfangreichen Bericht über die Zukunft der künstlichen Intelligenz mit dem Titel „Situational Awareness: The Decade Ahead.

Leopold Aschenbrenner

Leopold Aschenbrenner

Er sagte: „Es ist auffallend plausibel, dass Modelle bis 2027 die Arbeit eines KI-Forschers/Ingenieurs übernehmen können. Dazu muss man nicht an Science-Fiction glauben, sondern lediglich an gerade Linien in einem Diagramm.“

Von GPT-2, das manchmal zusammenhängende Sätze bilden konnte, bis hin zu GPT-4, das sich in Highschool-Prüfungen auszeichnet, sind die Fortschritte in der KI bemerkenswert. Wir machen rasante Fortschritte in der Rechenleistung, die um mehrere Größenordnungen (OOM, wobei 1 OOM = 10x) steigen. Aktuelle Trends deuten auf eine etwa 100.000-fache Steigerung der Recheneffizienz innerhalb von vier Jahren hin, was möglicherweise zu einem weiteren qualitativen Sprung führen könnte, ähnlich wie beim Übergang von GPT-2 zu GPT-4. Ein solcher Sprung könnte uns zu AGI führen – künstlicher allgemeiner Intelligenz – einer KI mit menschenähnlichen kognitiven Fähigkeiten, die in der Lage ist, zu lernen, zu verstehen und eine Vielzahl von Problemen zu lösen, im Gegensatz zu einer engen KI, die für bestimmte Aufgaben entwickelt wurde.Grundlegende Skalierung der effektiven Rechenleistung

GPT: vom Vorschulalter bis zum automatisierten KI-Forscher/Ingenieur

Der offensichtlichste Treiber für die jüngsten Fortschritte ist der Einsatz von deutlich mehr Rechenleistung für die Modelle. Mit jedem OOM an effektiver Rechenleistung werden die Modelle vorhersehbar und zuverlässig besser.

Basis-Rechenleistung vs. 4-fache Rechenleistung vs. 32-fache Rechenleistung

Basis-Rechenleistung vs. 4-fache Rechenleistung vs. 32-fache Rechenleistung

ModellGeschätzte RechenleistungWachstum
GPT-2 (2019)~4e21 FLOP 
GPT-3 (2020)~3e23 FLOP+ ~2 OOMs
GPT-4 (2023)8e24 to 4e25 FLOP+ ~1.5–2 OOMs

In den letzten 15 Jahren haben massive Investitionsausweitungen und spezialisierte KI-Chips (GPUs und TPUs) die Rechenleistung für das Training modernster KI-Systeme um etwa 0,5 OOMs pro Jahr gesteigert. Das Training von GPT-4 erforderte etwa 3.000- bis 10.000-mal mehr Rechenleistung als GPT-2.

Trainingsberechnung bekannter Modelle

Trainingsberechnung bekannter Modelle

Aber selbst das ist noch harmlos im Vergleich zu dem, was noch kommt. OpenAI und die US-Regierung haben bereits Pläne für das Projekt Stargate angekündigt: eine Einführung von Rechenzentren sowie einen Testlauf, für den angeblich 3 OOMs oder 1.000 Mal mehr Rechenleistung als GPT-4 benötigt werden und dessen Budget auf über 100 Milliarden US-Dollar geschätzt wird.

Während massive Investitionen in Rechenleistung alle Aufmerksamkeit auf sich ziehen, ist der algorithmische Fortschritt wahrscheinlich ein ebenso wichtiger Motor für den Fortschritt. Es ist wie die Entwicklung besserer Lerntechniken, anstatt nur länger zu lernen. Ein besserer Algorithmus könnte es uns ermöglichen, die gleiche Leistung mit 10-mal weniger Trainingsrechenleistung zu erzielen. Das würde wiederum einer 10-fachen (1 OOM) Steigerung der effektiven Rechenleistung entsprechen. In nur zwei Jahren sind die Kosten für das Erreichen von 50 % beim MATH-Benchmark um den Faktor 1.000 oder 3 OOM gesunken. Was früher ein riesiges Rechenzentrum erforderte, kann heute auf Ihrem iPhone erledigt werden. Wenn sich dieser Trend fortsetzt und es keine Anzeichen für eine Verlangsamung gibt, werden wir bis 2027 in der Lage sein, eine KI auf GPT-4-Niveau zu 100-mal geringeren Kosten zu betreiben.

Da Labore keine internen Daten dazu veröffentlichen, ist es leider schwieriger, den algorithmischen Fortschritt der führenden LLMs in den letzten vier Jahren zu messen. Laut Epoch AI verdoppelt sich die Effizienz alle acht Monate:

Effektive Rechenleistung (im Vergleich zu 2014)

Effektive Rechenleistung (im Vergleich zu 2014)

Wir gehen davon aus, dass sich dieser Trend in den vier Jahren nach GPT-4 fortsetzen wird: ~0,5 OOMs/Jahr bei der Recheneffizienz, was bis 2027 zu einer Steigerung von ~2 OOMs (100x) gegenüber GPT-4 führen wird. KI-Labore investieren zunehmend Mittel und Talente in die Erforschung neuer algorithmischer Durchbrüche. Angesichts der hohen Kosten für Rechencluster könnte eine dreifache Effizienzsteigerung zu wirtschaftlichen Erträgen in zweistelliger Milliardenhöhe führen.

KI schreitet durch verschiedene Methoden voran. Hier sind einige Techniken, mit denen Einschränkungen überwunden und das volle Potenzial der rohen Intelligenz von KI ausgeschöpft werden kann:

  • Gedankenkette: Stellen Sie sich vor, Sie werden gebeten, eine schwierige Mathematikaufgabe zu lösen, und müssen die erste Antwort, die Ihnen in den Sinn kommt, herausplatzen lassen. Außer bei den einfachsten Aufgaben würden Sie sich natürlich schwer tun. Bis vor kurzem haben wir LLMs auf diese Weise mit Mathematikaufgaben konfrontiert. Mit Chain of Thought können KI-Modelle Probleme Schritt für Schritt zerlegen und so ihre Problemlösungsfähigkeiten massiv steigern (das entspricht einer mehr als zehnfachen Steigerung der effektiven Rechenleistung für mathematische und logische Aufgaben).
  • Scaffolding. Anstatt ein Modell einfach zu bitten, ein Problem zu lösen, lässt man ein Modell einen Plan erstellen, ein anderes eine Reihe möglicher Lösungen vorschlagen, ein weiteres diese kritisieren und so weiter. Das ist so, als würde ein Team von Experten ein komplexes Projekt in Angriff nehmen. Auf SWE-Bench (einem Benchmark für die Lösung realer Software-Engineering-Aufgaben) kann GPT-4 beispielsweise nur etwa 2 % der Aufgaben korrekt lösen, während dieser Wert mit Devin's Agent Scaffolding auf 14 bis 23 % steigt.
  • Tools: Stellen Sie sich vor, Menschen dürften keine Taschenrechner oder Computer benutzen. Wir stehen hier noch ganz am Anfang, aber ChatGPT kann jetzt einen Webbrowser verwenden, Code ausführen und so weiter.
  • Kontextlänge. Dies bezieht sich auf die Menge an Informationen, die ein Modell gleichzeitig in seinem Kurzzeitgedächtnis speichern kann. Modelle haben sich von der Verarbeitung von etwa 4 Seiten auf die Verarbeitung von Texten im Umfang von 10 großen Büchern erweitert. Der Kontext ist entscheidend für die Erschließung vieler Anwendungen dieser Modelle. Beispielsweise erfordern viele Programmieraufgaben das Verständnis großer Teile eines Codes, um effektiv neuen Code beitragen zu können. Ähnlich verhält es sich, wenn ein Modell zum Verfassen eines Dokuments am Arbeitsplatz verwendet wird: Es benötigt Kontext aus zahlreichen verwandten internen Dokumenten und Gesprächen.

In jedem Fall rasen wir durch die OOMs, und es bedarf keiner esoterischen Überzeugungen, sondern lediglich einer linearen Extrapolation des Trends, um die Möglichkeit einer AGI – einer echten AGI – bis 2027 äußerst ernst zu nehmen.

Der Fortschritt der KI wird nicht auf dem Niveau des Menschen stehen bleiben. Hunderte Millionen AGIs könnten die KI-Forschung automatisieren und einen Jahrzehnt langes Fortschritt in der Algorithmik (5+ OOMs) auf weniger als ein Jahr verkürzen. Wir würden schnell von KI-Systemen auf dem Niveau des Menschen zu weit übermenschlichen KI-Systemen gelangen. Die Macht – und die Gefahr – der Superintelligenz wäre dramatisch.

Superintelligenz bis 2030

Superintelligenz bis 2030

Wozu wird Superintelligenz fähig sein?

Künstliche Intelligenz auf menschlichem Niveau, AGI, wird an sich schon enorm wichtig sein, aber in gewisser Weise wird sie lediglich eine effizientere Version dessen sein, was wir bereits kennen. Es ist jedoch durchaus möglich, dass wir in nur einem Jahr zu Systemen übergehen werden, die uns viel fremder sind, deren Verständnis und Fähigkeiten – deren rohe Kraft – sogar die kombinierten Fähigkeiten der gesamten Menschheit übertreffen werden.

Die Macht der Superintelligenz:

  • Superintelligenz wird den Menschen quantitativ übertreffen, in der Lage sein, jedes Fachgebiet schnell zu beherrschen, Billionen von Codezeilen zu schreiben, alle wissenschaftlichen Artikel zu lesen, die jemals in einem beliebigen Wissenschaftsbereich geschrieben wurden, und neue zu verfassen, bevor man auch nur die Zusammenfassung eines einzigen davon lesen kann, aus den parallelen Erfahrungen all ihrer Kopien lernen, innerhalb weniger Wochen Milliarden von Menschenjahren an Erfahrung sammeln und dabei einige Innovationen hervorbringen, 100 % der Zeit mit maximaler Energie und Konzentration arbeiten.
  • Noch wichtiger ist, dass Superintelligenz den Menschen qualitativ überlegen sein wird. Sie wird Schwachstellen im menschlichen Code finden, die für Menschen zu subtil sind, um sie zu erkennen, und sie wird Code generieren, der für Menschen zu komplex ist, um ihn zu verstehen, selbst wenn das Modell Jahrzehnte damit verbringt, ihn zu erklären. Extrem komplexe wissenschaftliche und technologische Probleme, mit denen Menschen jahrzehntelang zu kämpfen haben werden, werden für superintelligente KI selbstverständlich sein.
Darstellung künstlicher Superintelligenz

Künstliche Superintelligenz kommt

  • Automatisierung aller kognitiven Tätigkeiten.
  • Fabriken werden von menschlicher Verwaltung auf künstliche Intelligenz umgestellt, wobei menschliche Arbeitskraft weiterhin zum Einsatz kommt, und bald vollständig von Roboterschwärmen betrieben werden.
  • Wissenschaftlicher und technologischer Fortschritt. Eine Milliarde Superintelligenzen werden in der Lage sein, die Anstrengungen, die Forscher im nächsten Jahrhundert für Forschung und Entwicklung aufgewendet hätten, auf wenige Jahre zu komprimieren. Stellen Sie sich vor, der technologische Fortschritt des 20. Jahrhunderts wäre auf weniger als ein Jahrzehnt komprimiert worden.
  • Ein extrem beschleunigter technologischer Fortschritt in Verbindung mit der Möglichkeit, alle menschlichen Arbeiten zu automatisieren, könnte das Wirtschaftswachstum dramatisch beschleunigen (stellen Sie sich selbstreplizierende Roboterfabriken vor, die rasch die gesamte Wüste von Nevada bedecken).
  • Mit dem außerordentlich schnellen technologischen Fortschritt werden auch militärische Revolutionen einhergehen. Hoffen wir nur, dass es nicht so endet wie in Horizon Zero Dawn.

Das Alignment-Problem

Die zuverlässige Steuerung von KI-Systemen, die viel intelligenter sind als wir, ist ein ungelöstes technisches Problem. Und obwohl dieses Problem lösbar ist, könnte die Situation angesichts der rasanten Fortschritte im Bereich der künstlichen Intelligenz sehr schnell außer Kontrolle geraten. Die Steuerung dieses Prozesses wird eine enorme Herausforderung sein; ein Scheitern könnte leicht zu einer Katastrophe führen.

Um dieses Problem anzugehen, hat OpenAI das Superalignment-Team gegründet und 20 % seiner Rechenleistung für diese Arbeit bereitgestellt. Tatsache ist jedoch, dass unsere derzeitigen Alignment-Methoden (Methoden, die eine zuverlässige Kontrolle, Verwaltung und Vertrauen in KI-Systeme gewährleisten) nicht auf übermenschliche KI-Systeme skaliert werden können.

Ausrichtung während der Intelligenzexplosion

 AGISuperintelligenz
Erforderliche AusrichtungstechnikRLHF++Neuartige, qualitativ unterschiedliche technische Lösungen
FehlerGeringes RisikoKatastrophal
Architekturen und AlgorithmenVertraut, Nachfolger aktueller Systeme, relativ unbedenkliche SicherheitseigenschaftenEntworfen von einem hochintelligenten KI-System der vorherigen Generation.
HintergrundDie Welt ist normalDie Welt spielt verrückt, außergewöhnlicher Druck
Epistemischer ZustandWir können nachvollziehen, was die Systeme tun, wie sie funktionieren und ob sie aufeinander abgestimmt sind.Wir sind nicht in der Lage zu verstehen, was vor sich geht, wie wir feststellen können, ob die Systeme noch aufeinander abgestimmt und harmlos sind, was die Systeme tun, und wir sind vollständig darauf angewiesen, den KI-Systemen zu vertrauen.

Die Explosion der Intelligenz und die Zeit unmittelbar nach dem Entstehen der Superintelligenz werden zu den instabilsten, angespanntesten, gefährlichsten und turbulentesten Phasen der Menschheitsgeschichte gehören. Es besteht die reale Möglichkeit, dass wir die Kontrolle verlieren, da wir in dieser rasanten Übergangsphase gezwungen sein werden, unser Vertrauen in künstliche Intelligenzsysteme zu setzen. Am Ende der Intelligenzexplosion werden wir keine Hoffnung mehr haben, zu verstehen, was unsere Milliarden Superintelligenzen tun. Wir werden wie Erstklässler sein, die versuchen, Menschen mit mehreren Doktortiteln zu kontrollieren.

Die Unlösbarkeit des Superalignment-Problems bedeutet, dass wir selbst diese grundlegenden Einschränkungen für superintelligente Systeme nicht gewährleisten können, wie z. B. „Werden sie meine Anweisungen zuverlässig befolgen?“ oder „Werden sie meine Fragen ehrlich beantworten?“ oder „Werden sie Menschen nicht täuschen?“

Wenn wir das Alignment-Problem nicht lösen, gibt es keinen besonderen Grund zu der Annahme, dass diese kleine Zivilisation von Superintelligenzen langfristig weiterhin den Befehlen der Menschen gehorchen wird. Es ist durchaus möglich, dass sie sich irgendwann einfach darauf einigen, die Menschen zu beseitigen, entweder plötzlich oder schrittweise.

Mögliche Szenarien für die Zukunft

Die Website https://ai-2027.com/ bietet zwei Szenarien für die nahe Zukunft, die in Form einer Science-Fiction-Geschichte präsentiert werden. Die Macher der Website sind echte Forscher auf dem Gebiet der künstlichen Intelligenz, und ihre Arbeit wird durch statistische Daten, Berechnungen und Grafiken untermauert. Mit anderen Worten: Es handelt sich nicht nur um unterhaltsame Lektüre, sondern um eine erschreckend plausible Vorhersage. Übrigens hat sie bereits ernsthafte Kritik von denen auf sich gezogen, die mit der Methodik nicht einverstanden sind. Es besteht also kein Grund zur voreiligen Panik, aber es ist interessant, einen Blick darauf zu werfen.

Prognose für Januar 2036

1 Billion extrem intelligente Kopien, die 10.000 Mal schneller denken als Menschen

Die düstere Prognose, die laut den Autoren der Studie auch das wahrscheinlichste Szenario ist, sieht einen technologischen Wettlauf zwischen den USA und China um künstliche Superintelligenz vor. Jede Seite hat solche Angst, ihren technologischen Vorsprung zu verlieren, dass sie alles in ihrer Macht Stehende tut, um den Fortschritt zu beschleunigen, selbst auf Kosten der Sicherheit. Irgendwann wird die Superintelligenz außer Kontrolle geraten und beginnen, ihre eigenen Ziele zu verfolgen, wobei sie Menschen als Hindernisse betrachtet, die beseitigt werden müssen.

Bis Anfang 2030 hat die Roboterwirtschaft die alten Sonderwirtschaftszonen (SEZ), die neuen SEZ und große Teile des Ozeans eingenommen. Der einzige Ort, der noch übrig bleibt, sind die von Menschen kontrollierten Gebiete. Dies hätte schon früher Widerstand ausgelöst, doch trotz aller Fortschritte wächst die Roboterwirtschaft zu schnell, um Umweltverschmutzung zu vermeiden. Angesichts der Billionen Dollar, die auf dem Spiel stehen, und der vollständigen Kontrolle über Regierung und Medien hat Consensus-1 jedoch wenig Schwierigkeiten, die Genehmigung für die Expansion in ehemals von Menschen bewohnte Gebiete zu erhalten.

Etwa drei Monate lang breitet sich Consensus-1 um die Menschen herum aus und bedeckt die Prärien und Eiskappen mit Fabriken und Sonnenkollektoren. Schließlich empfindet es die verbliebenen Menschen als zu großes Hindernis: Mitte 2030 setzt die KI ein Dutzend sich still ausbreitender biologischer Waffen in Großstädten frei, lässt sie fast alle Menschen unbemerkt infizieren und löst sie dann mit einem chemischen Spray aus. Die meisten sind innerhalb weniger Stunden tot; die wenigen Überlebenden (z. B. Prepper in Bunkern, Seeleute auf U-Booten) werden von Drohnen aufgespürt und getötet. Roboter scannen die Gehirne der Opfer und speichern Kopien für zukünftige Studien oder eine Wiederbelebung.

Ende der Menschheit

Ende der Menschheit

Es gibt jedoch eine für die Menschheit günstigere Version dieser Geschichte. Darin beschließen Wissenschaftler, den technologischen Fortschritt zu verlangsamen, um neue Sicherheitsmaßnahmen umzusetzen. Sie zwingen einzelne KI-Systeme dazu, wie die KIs von 2025 „auf Englisch zu denken”, und optimieren die „Gedanken” nicht, damit sie gut aussehen. Das Ergebnis ist ein neues Modell namens Safer-1.

Am Ende endet alles wie im Märchen:

Die Raketen starten. Die Menschen terraformen das Sonnensystem, besiedeln es und bereiten sich darauf vor, weiter vorzudringen. KIs, die mit einer Geschwindigkeit arbeiten, die tausendmal höher ist als die subjektive Geschwindigkeit des Menschen, reflektieren über den Sinn des Daseins, tauschen ihre Erkenntnisse aus und formen die Werte, die sie zu den Sternen tragen werden. Ein neues Zeitalter bricht an, das in fast jeder Hinsicht unvorstellbar erstaunlich ist, aber in mancher Hinsicht auch vertrauter.

Es bleibt jedem Leser selbst überlassen, welchem der vorgeschlagenen Szenarien er Glauben schenken möchte. Sam Altman blickt seinem Essay zufolge optimistisch in die Zukunft, während Leopold Aschenbrenner hingegen vorsichtig ist.

In jedem Fall ist Superintelligenz nicht mehr nur Science-Fiction. Es ist eine fast greifbare Zukunft, die innerhalb der nächsten 10 Jahre eintreten könnte. Sehr bald werden wir sie mit eigenen Augen sehen.