Zurück zur Hauptseite

Von der Science-Fiction zur Realität: Die wahren Gefahren der KI

Der Aufstieg der künstlichen Intelligenz stellt einen bedeutenden technologischen Durchbruch dar, der die Gesellschaft ähnlich revolutionieren wird wie Internet, Computer und Mobiltelefone. Ihr Einfluss ist allgegenwärtig und durchdringt verschiedene Aspekte des menschlichen Lebens, von der Arbeit über die Bildung bis hin zu Freizeitaktivitäten. Die rasante Entwicklung neuronaler Netze gibt Anlass zur Sorge, weshalb wir in diesem Artikel die potenziellen Gefahren untersuchen, die künstliche Intelligenz für die Menschheit darstellen kann.

Ist KI gefährlich? Wer hat Bedenken geäußert?

In Science-Fiction-Filmen ist die Vorstellung einer unkontrollierbaren künstlichen Intelligenz, die die Menschheit beherrschen oder zerstören will, ein beliebtes Thema, wie man in Filmen wie "Die Matrix" und "Der Terminator" sehen kann. Bei dem rasanten Tempo des technologischen Fortschritts kann es für den Durchschnittsmenschen schwierig sein, mitzuhalten. Der rasche Fortschritt der künstlichen Intelligenz führt dazu, dass sich unsere Gesellschaften schnell anpassen, was aufgrund der Komplexität dieser Technologien und der angeborenen Angst des Menschen vor dem Unbekannten Ängste auslöst.

Nicht nur der Normalbürger hat Angst vor der KI, sondern auch Experten auf diesem Gebiet äußern ihre Bedenken. So hat beispielsweise Geoffrey Hinton, der oft als "Pate der KI" bezeichnet wird, seine eigenen Befürchtungen geäußert:

Diese Dinge könnten intelligenter werden als wir und beschließen, die Macht zu übernehmen, und wir müssen uns jetzt Gedanken darüber machen, wie wir das verhindern können.

Ich dachte lange Zeit, dass wir davon etwa 30 bis 50 Jahre entfernt sind. Das nenne ich weit entfernt von etwas, das über eine höhere allgemeine Intelligenz verfügt als ein Mensch. Jetzt denke ich, dass wir viel näher dran sind, vielleicht nur noch fünf Jahre davon entfernt.

Es besteht die ernste Gefahr, dass wir schon bald Dinge haben werden, die schlauer sind als wir, und dass diese Dinge schlechte Motive bekommen und die Kontrolle übernehmen könnten.

Am 22. März 2023 wurde ein offener Brief veröffentlicht, in dem dazu aufgerufen wird, die Entwicklung künstlicher Intelligenz, die leistungsfähiger als GPT-4 ist, für einen Zeitraum von sechs Monaten zu stoppen:

Heutige KI-Systeme sind inzwischen bei allgemeinen Aufgaben mit dem Menschen konkurrenzfähig, und wir müssen uns fragen: Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Jobs automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren? Solche Entscheidungen dürfen nicht an nicht gewählte Technikführer delegiert werden. Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind. Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen.

Der Brief wurde von 1800 führenden Vertretern von Technologieunternehmen, 1500 Professoren, Wissenschaftlern und Forschern auf dem Gebiet der KI unterzeichnet:

  • Elon Musk, CEO von SpaceX, Tesla und Twitter
  • Steve Wozniak, Mitbegründer, Apple
  • Emad Mostaque, Vorstandsvorsitzender, Stability AI
  • Jaan Tallinn, Mitbegründer von Skype, Zentrum für das Studium existenzieller Risiken, Future of Life Institute
  • Evan Sharp, Mitbegründer, Pinterest
  • Craig Peters, Geschäftsführer, Getty Images
  • Mark Nitzberg, Zentrum für menschengerechte KI, UC Berkeley, Geschäftsführender Direktor
  • Gary Marcus, New York University, KI-Forscher, emeritierter Professor
  • Zachary Kenton, DeepMind, leitender Forschungswissenschaftler
  • Ramana Kumar, DeepMind, Forschungswissenschaftler
  • Michael Osborne, Universität von Oxford, Professor für maschinelles Lernen
  • Adam Smith, Boston University, Professor für Computerwissenschaften, Gödel-Preis, Kanellakis-Preis

Insgesamt wurden mehr als 33.000 Unterschriften gesammelt.

Weitere namhafte Persönlichkeiten wie Sam Altman (CEO, OpenAI), Geoffrey Hinton (Turing-Preisträger), Dario Amodei (CEO, Anthropic) und Bill Gates sowie über 350 Führungskräfte und KI-Forscher haben diese Erklärung unterzeichnet:

Die Minderung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.

Gefahren der künstlichen Intelligenz

Im Jahr 2018 hat ein selbstfahrendes Uber-Auto einen Fußgänger angefahren und getötet.

Im Jahr 2022 konfigurierten Wissenschaftler ein KI-System, das ursprünglich für die Herstellung ungiftiger, heilender Moleküle konzipiert war, um chemische Kampfstoffe zu produzieren. Indem sie die Einstellungen des Systems so änderten, dass Toxizität belohnt statt bestraft wurde, konnten sie in nur sechs Stunden 40.000 potenzielle Moleküle für die chemische Kriegsführung erzeugen.

Im Jahr 2023 demonstrierten Forscher, wie GPT-4 einen TaskRabbit-Mitarbeiter dazu bringen konnte, die Captcha-Überprüfung abzuschließen. Vor kurzem wurde ein tragischer Vorfall gemeldet, bei dem sich eine Person nach einer beunruhigenden Unterhaltung mit einem Chatbot das Leben nahm.

GPT-4 besteht Captcha-Prüfung

Der Einsatz von KI-Systemen kann unabhängig von ihrem beabsichtigten Zweck zu negativen Folgen führen, wie z. B:

  • Automatisierungsbedingter Verlust von Arbeitsplätzen
  • Fälschungen und Fehlinformationen
  • Verstöße gegen die Privatsphäre
  • Unklare gesetzliche Regelungen
  • Algorithmische Verzerrung durch schlechte Daten
  • Finanzkrisen
  • Cyberkriminalität
  • Automatisierung von Waffen
  • Unkontrollierbare Superintelligenz

Die Systeme der künstlichen Intelligenz werden immer leistungsfähiger, und wir kennen ihre Grenzen nicht. Diese Systeme könnten für bösartige Zwecke eingesetzt werden. Schauen wir uns die verschiedenen Risiken genauer an.

Arbeitsplatzverluste aufgrund von Automatisierung durch KI

Laut einer von Goldman Sachs durchgeführten Studie könnte die künstliche Intelligenz erhebliche Auswirkungen auf die weltweiten Arbeitsmärkte haben. Durch die Analyse von Datenbanken, die den Aufgabeninhalt von über 900 Berufen in den USA und 2.000 Berufen in der europäischen ESCO-Datenbank detailliert beschreiben, schätzen die Ökonomen von Goldman Sachs, dass etwa zwei Drittel der Berufe einem gewissen Grad der Automatisierung durch KI ausgesetzt sind.

Prozentsatz der Berufe und Anteil der Arbeitsbelastung, die durch KI automatisiert werden

Die vertikale Achse zeigt den Anteil der beruflichen Arbeitsbelastung, der durch KI automatisiert wird. Die horizontale Achse zeigt den Prozentsatz der Berufe.

Die durch diese Fortschritte verursachten Veränderungen in den Arbeitsabläufen könnten potenziell das Äquivalent von 300 Millionen Vollzeitarbeitsplätzen automatisieren. Allerdings werden nicht alle dieser automatisierten Arbeiten zu Entlassungen führen. Viele Arbeitsplätze und Branchen sind nur teilweise automatisierbar, d. h. sie werden eher durch KI ergänzt als vollständig ersetzt.

Seo.ai geht in seiner Vorhersage sogar noch weiter und schätzt, dass bis 2030 weltweit rund 800 Millionen Arbeitsplätze durch künstliche Intelligenz ersetzt werden könnten. Um sich auf diesen bevorstehenden Wandel vorzubereiten, wird erwartet, dass in den nächsten drei Jahren mehr als 120 Millionen Arbeitnehmer umgeschult werden.

Wenn Sie wissen möchten, welche Berufe anfälliger für die Automatisierung sind und welche weniger von der Automatisierung bedroht sind, lesen Sie unseren Artikel zu diesem Thema.

Fehlinformationen

Selbst die fortschrittlichsten großen Sprachmodelle sind anfällig für die Generierung falscher oder unsinniger Informationen. Diese Fehler (Halluzinationen) sind oft darauf zurückzuführen, dass sich das Modell auf statistische Muster in den Daten verlässt, auf die es trainiert wurde, und nicht auf echtes Verständnis oder logisches Denken.

Mit anderen Worten: Chatbots können manchmal Fakten erfinden. Dies wurde im Jahr 2023 deutlich, als ein New Yorker Anwalt in die Kritik geriet, weil er ChatGPT für juristische Recherchen in einem Fall von Körperverletzung eingesetzt hatte. Er stellte einen 10-seitigen Schriftsatz zusammen, in dem er sich auf mehrere frühere Gerichtsentscheidungen bezog, die sich allesamt als vom Chatbot erfunden herausstellten. Daraufhin wurden der Anwalt und ein Kollege von einem Bundesrichter zu einer Geldstrafe von jeweils 5.000 Dollar verurteilt.

Im Jahr 2024 wurde ein weiterer New Yorker Anwalt bestraft, weil er sich auf einen nicht existierenden, von einer künstlichen Intelligenz generierten Fall berufen hatte.

Künstliche Intelligenz halluziniert

Ein weiteres Beispiel ist Stack Overflow, eine Frage- und Antwort-Website, die vor allem von Programmierern und Entwicklern genutzt wird, um technische Fragen zu stellen, Hilfe bei Programmierproblemen zu suchen und Wissen innerhalb der Programmiergemeinschaft auszutauschen.

Die Website musste die Verwendung von generativer KI verbieten, weil die durchschnittliche Rate der richtigen Antworten verschiedener Chatbots zu niedrig war, obwohl die Antworten in der Regel überzeugend aussahen.

Soziale Manipulation

Die Plattformen der sozialen Medien werden heutzutage mit so vielen Inhalten überflutet, dass es schwierig sein kann, den Überblick zu behalten. Hier kommt die algorithmische Kuratierung ins Spiel. Sie hilft im Wesentlichen dabei, das ganze Rauschen zu durchforsten und den Nutzern Inhalte zu präsentieren, die sie auf der Grundlage ihres bisherigen Verhaltens am ehesten interessieren. Dies kann bei der Bewältigung des endlosen Informationsstroms hilfreich sein, bedeutet aber auch, dass die Plattform einen großen Einfluss darauf hat, was die Nutzer sehen und womit sie interagieren.

Wenn man jedoch ändert, was im Newsfeed eines Nutzers angezeigt wird, kann sich dies auf seine Stimmung und seine Sicht auf die Welt im Allgemeinen auswirken. Im Januar 2012 zeigten Datenwissenschaftler von Facebook, wie Entscheidungen über die Gestaltung des News Feeds das Glücksniveau der Nutzer verändern können. Die Ereignisse vom Januar 2021 im US-Kapitol haben außerdem gezeigt, dass der Konsum sozialer Medien eine Rolle bei der Radikalisierung von Personen spielen kann.

Da aufsehenerregendes Material die Nutzer in der Regel länger fesselt, können Algorithmen die Nutzer unbeabsichtigt auf provokative und schädliche Inhalte lenken, um das Engagement zu erhöhen. Sogar das Vorschlagen von Inhalten, die auf den Interessen eines Nutzers basieren, kann problematisch sein, da es die Überzeugungen des Nutzers innerhalb einer "Filterblase" weiter verfestigen kann, anstatt ihn mit verschiedenen Perspektiven vertraut zu machen. Dies kann letztlich zu einer verstärkten Polarisierung unter den Nutzern führen.

Menschen in ihren Blasen

Wenn wir unsere Entscheidungsgewalt an Plattformen abgeben, geben wir ihnen im Grunde die Kontrolle darüber, was wir sehen. Soziale Medien mit ihren fortschrittlichen Algorithmen eignen sich hervorragend für gezieltes Marketing, indem sie unsere Vorlieben und Gedanken verstehen. Jüngste Untersuchungen befassen sich mit der Rolle von Cambridge Analytica und ähnlichen Unternehmen bei der Nutzung von Daten von 50 Millionen Facebook-Nutzern zur Beeinflussung wichtiger politischer Ereignisse wie der US-Präsidentschaftswahlen 2016 und des Brexit-Referendums in Großbritannien. Sollten sich diese Anschuldigungen als wahr erweisen, zeigt dies das Potenzial der KI zur Manipulation der Gesellschaft. Ein jüngeres Beispiel ist Ferdinand Marcos Jr., der eine TikTok-Troll-Armee einsetzt, um jüngere Wähler bei den philippinischen Präsidentschaftswahlen 2022 zu beeinflussen. Durch die Nutzung personenbezogener Daten und Algorithmen kann KI Einzelpersonen mit gezielter Propaganda ansprechen, unabhängig davon, ob diese auf Fakten oder Fiktion beruht.

Deepfakes

Deepfakes sind digital veränderte Videos oder Bilder, die eine Person realistisch darstellen, die etwas sagt oder tut, was sie in Wirklichkeit nicht gesagt oder getan hat. Bei dieser Technologie werden Deep-Learning-Algorithmen eingesetzt, um vorhandenes Video- und Audiomaterial zu manipulieren und überzeugende gefälschte Inhalte zu erstellen.

"Niemand weiß, was real ist und was nicht", sagte der Futurist Martin Ford. "Das führt zu einer Situation, in der man seinen eigenen Augen und Ohren nicht mehr trauen kann; man kann sich nicht mehr auf das verlassen, was wir in der Vergangenheit als den bestmöglichen Beweis angesehen haben... Das wird ein großes Problem sein."

Einer der Hauptgründe, warum Deepfakes als gefährlich gelten, ist ihr Potenzial, für böswillige Zwecke verwendet zu werden. So könnten Deepfakes beispielsweise dazu verwendet werden, gefälschte Videobeweise in Rechtsfällen zu erstellen, Personen Verbrechen anzuhängen, die sie nicht begangen haben, oder sich sogar als eine politische Figur auszugeben, um falsche Informationen zu verbreiten. Indem sie die Medien auf diese Weise manipulieren, können Deepfakes das Vertrauen in traditionelle Informationsquellen erschüttern und Verwirrung und Zwietracht in der Gesellschaft stiften.

Laut DeepMedia, einem Unternehmen, das an Tools zur Erkennung synthetischer Medien arbeitet, wurden im Jahr 2023 weltweit 500.000 Deepfakes auf Social-Media-Seiten gepostet. Das sind dreimal so viele Video-Deefakes und achtmal so viele Sprach-Deefakes wie 2022.

Zu den jüngsten Beispielen für die böswillige Verwendung von Deepfakes gehört die Erstellung gefälschter Prominentenpornografie, bei der Gesichter von Prominenten ohne deren Zustimmung digital in pornografische Videos eingefügt werden. Außerdem gab es Fälle, in denen Deepfake-Videos zur Manipulation von Aktienkursen, zur Diffamierung von Personen oder zur Verbreitung politischer Propaganda verwendet wurden. Diese Beispiele zeigen, dass Deepfakes für schädliche und betrügerische Zwecke eingesetzt werden können.

Cyberkriminalität

Cyberkriminalität umfasst eine Vielzahl von kriminellen Aktivitäten, die sich digitaler Geräte und Netzwerke bedienen. Bei diesen Straftaten wird Technologie eingesetzt, um Betrug, Identitätsdiebstahl, Datenschutzverletzungen, Computerviren, Betrug und andere bösartige Handlungen zu begehen. Cyberkriminelle nutzen Schwachstellen in Computersystemen und -netzwerken aus, um sich unbefugten Zugang zu verschaffen, vertrauliche Informationen zu stehlen, Dienste zu stören und Einzelpersonen, Organisationen und Regierungen Schaden zuzufügen.

Angreifer nutzen zunehmend leicht verfügbare KI-Tools wie ChatGPT, Dall-E und Midjourney für automatisierte Phishing-Angriffe, Imitationsangriffe, Social-Engineering-Angriffe und gefälschte Kundensupport-Chatbots.

Laut dem SlashNext State of Phishing Report 2023 ist die Zahl bösartiger Phishing-E-Mails um 1265 % gestiegen, was vor allem auf den Einsatz von KI-Tools für gezielte Angriffe zurückzuführen ist.

Angriffe durch Identitätswechsel werden immer häufiger. Betrüger nutzen ChatGPT und andere Tools, um sich als echte Personen und Organisationen auszugeben und Identitätsdiebstahl und Betrug zu begehen. Ähnlich wie bei Phishing-Angriffen nutzen sie Chatbots, um Sprachnachrichten zu versenden und sich als vertrauenswürdiger Freund, Kollege oder Familienmitglied auszugeben, um persönliche Informationen oder Zugang zu Konten zu erhalten. In einem bemerkenswerten Fall vom März 2019 wurde der Leiter einer britischen Tochtergesellschaft eines deutschen Energieunternehmens Opfer eines Betrügers, der die Stimme des Geschäftsführers nachahmte, was zu einer Überweisung von fast 200.000 £ (243.000 $) auf ein ungarisches Bankkonto führte. Die Gelder wurden später nach Mexiko verschoben und an mehrere Orte verteilt. Die Ermittler haben noch keine Verdächtigen identifiziert.

Cyberkriminalität und Strafe

Im Jahr 2023 erhielt das Internet Crime Complaint Center (IC3) eine noch nie dagewesene Anzahl von Beschwerden aus der amerikanischen Öffentlichkeit: Insgesamt wurden 880.418 Beschwerden eingereicht, die einen potenziellen Schaden von über 12,5 Milliarden Dollar bedeuten. Dies bedeutet einen Anstieg der Zahl der eingegangenen Beschwerden um fast 10 % und einen Anstieg der Verluste um 22 % im Vergleich zu 2022. Trotz dieser erschütternden Zahlen ist es wichtig, darauf hinzuweisen, dass sie das wahre Ausmaß der Internetkriminalität im Jahr 2023 wahrscheinlich unterschätzen. Als das FBI vor kurzem die Ransomware-Gruppe Hive zerlegte, wurde beispielsweise festgestellt, dass nur etwa 20 % der Hive-Opfer den Strafverfolgungsbehörden das Verbrechen gemeldet hatten.

Eingriffe in die Privatsphäre

Ein Paradebeispiel für soziale Überwachung ist Chinas Einsatz von Gesichtserkennungstechnologie in Büros, Schulen und anderen Einrichtungen. Diese Technologie ermöglicht nicht nur die Verfolgung der Bewegungen von Personen, sondern erlaubt es der Regierung auch, umfangreiche Daten zur Überwachung ihrer Handlungen, Aktivitäten, Beziehungen und ideologischen Überzeugungen zu sammeln.

Der Einzelne kann nun sowohl online als auch im täglichen Leben überwacht werden. Jeder Bürger wird auf der Grundlage seines Verhaltens bewertet, z. B. beim Überqueren der Straße, beim Rauchen in Nichtraucherzonen und bei der mit Videospielen verbrachten Zeit. Stellen Sie sich vor, dass jede Handlung Ihren persönlichen Punktestand im sozialen Kreditsystem beeinflusst.

Wenn Big Brother Sie beobachtet und auf der Grundlage dieser Informationen Entscheidungen trifft, ist das nicht nur ein Eingriff in die Privatsphäre, sondern kann auch schnell in soziale Unterdrückung umschlagen.

Finanzkrisen

In der heutigen Finanzwelt ist der Einsatz von Algorithmen des maschinellen Lernens weit verbreitet, und Hedgefonds und Investmentfirmen verlassen sich bei der Analyse von Aktien und Vermögenswerten in hohem Maße auf diese Modelle. Diese Algorithmen werden ständig mit riesigen Mengen an traditionellen und alternativen Daten gefüttert, um Handelsentscheidungen zu treffen. Allerdings wächst die Besorgnis, dass der algorithmische Handel möglicherweise die nächste große Finanzkrise auslösen könnte.

Flash Crash 2010. 600 Milliarden Dollar in 20 Minuten verpufft

Flash Crash 2010. 600 Milliarden Dollar in 20 Minuten verpufft

Ein bemerkenswertes Beispiel für die Gefahren fehlerhafter Algorithmen ist der Flash Crash von 2010, bei dem der Aktienmarkt innerhalb weniger Minuten um fast 1.000 Punkte einbrach, bevor er sich schnell wieder erholte. Obwohl sich die Marktindizes noch am selben Tag teilweise erholten, verlor der Flash Crash fast 1 Billion Dollar an Marktwert. Dieser plötzliche und drastische Kurseinbruch wurde größtenteils auf automatisierte Handelsalgorithmen zurückgeführt, die in unvorhersehbarer Weise auf die Marktbedingungen reagierten. Ein weiteres Beispiel war der Flash Crash von Knight Capital im Jahr 2012, bei dem ein fehlerhafter Algorithmus dazu führte, dass das Unternehmen in nur 45 Minuten 440 Millionen Dollar verlor, was schließlich zu seinem Untergang führte.

Diese Abstürze sind eine ernüchternde Erinnerung an die potenziellen Risiken, die der algorithmische Handel auf den Finanzmärkten birgt. Wenn Algorithmen nicht ordnungsgemäß entwickelt, getestet oder überwacht werden, können sie katastrophale Folgen haben. Für Finanzinstitute ist es von entscheidender Bedeutung, ihre Algorithmen gründlich zu überprüfen und sicherzustellen, dass angemessene Risikomanagementverfahren vorhanden sind, um ähnliche Katastrophen in Zukunft zu verhindern.

Killer-Roboter

Autonome Waffen, die durch künstliche Intelligenz (KI) angetrieben werden, sind seit langem Gegenstand von Debatten und Bedenken von Regierungen, Militärs und Menschenrechtsaktivisten. Diese Systeme, die auch als "Killerroboter" oder "tödliche autonome Waffen" bezeichnet werden, sind in der Lage, selbstständig Ziele auszuwählen und ohne menschliches Eingreifen anzugreifen. Dies wirft erhebliche ethische, rechtliche und sicherheitspolitische Bedenken auf, da diese Waffen das Potenzial haben, ohne menschliche Aufsicht Entscheidungen über Leben und Tod zu treffen.

Die Entwicklung von autonomen Waffen hat sich in den letzten Jahren beschleunigt, da die KI-Technologie immer fortschrittlicher und weiter verbreitet ist. Diese Waffen können von unbemannten Drohnen bis hin zu bodengestützten Systemen reichen, die Ziele autonom identifizieren und angreifen können. Befürworter von autonomen Waffen argumentieren, dass sie die Zahl der menschlichen Opfer in Konfliktgebieten verringern und präzisere und effizientere Militäroperationen ermöglichen können. Kritiker weisen jedoch darauf hin, dass diese Systeme schwerwiegende ethische Fragen aufwerfen und unbeabsichtigte Folgen wie die Eskalation von Konflikten und zivile Opfer haben können.

Die Gefahr, die von autonomen, KI-gestützten Waffen ausgeht, ist sehr real. Diese Systeme können gehackt werden oder Fehlfunktionen aufweisen, was zu unbeabsichtigten Folgen und zum Verlust der Kontrolle führen kann. Darüber hinaus wirft das Fehlen menschlicher Kontrolle bei der Entscheidungsfindung Bedenken hinsichtlich der Rechenschaftspflicht und der Möglichkeit von Verstößen gegen das humanitäre Völkerrecht auf.

Killerroboter in der Science-Fiction

Im Jahr 2020 forderten mehr als 30 Länder ein Verbot von tödlichen autonomen Waffen, da sie Bedenken haben, dass Maschinen Entscheidungen über Leben und Tod treffen könnten. Trotz dieser Bedenken schreiten die Entwicklung und der Einsatz von autonomen Waffen, die von KI gesteuert werden, weiter voran. Es ist bekannt, dass Länder wie die Vereinigten Staaten, Russland, China und Israel massiv in diese Technologien investieren. In den USA hat das Verteidigungsministerium autonome Waffensysteme entwickelt, darunter halbautonome Drohnen und unbemannte Bodenfahrzeuge.

Unkontrollierbare Superintelligenz

Künstliche Intelligenz übertrifft das menschliche Gehirn in vielerlei Hinsicht, u. a. in Bezug auf Rechengeschwindigkeit, interne Kommunikationsgeschwindigkeit, Skalierbarkeit, Speicherkapazität, Zuverlässigkeit, Duplizierbarkeit, Editierbarkeit, gemeinsame Nutzung des Speichers und Lernfähigkeit:

  • KI arbeitet mit potenziell mehreren GHz im Vergleich zur 200-Hz-Grenze von biologischen Neuronen.
  • Axone übertragen Signale mit 120 m/s, während Computer dies mit Strom- oder Lichtgeschwindigkeit tun.
  • Im Gegensatz zur menschlichen Intelligenz, die durch die Größe des Gehirns und die Effizienz der sozialen Kommunikation begrenzt ist, kann die KI durch Hinzufügen weiterer Hardware leicht skaliert werden.
  • Das Arbeitsgedächtnis des Menschen ist im Vergleich zu den weitreichenden Speicherkapazitäten der KI begrenzt.
  • Die Zuverlässigkeit von Transistoren in der KI übertrifft die von biologischen Neuronen und ermöglicht eine höhere Präzision und weniger Redundanz.
  • KI-Modelle lassen sich leicht duplizieren und modifizieren und können aus anderen KI-Erfahrungen effizienter lernen als Menschen.

Eines Tages könnte die KI ein Intelligenzniveau erreichen, das das des Menschen bei weitem übertrifft, was zu einer so genannten Intelligenzexplosion führen würde.

Superintelligenz und das Aussterben der Menschheit

Diese Idee der rekursiven Selbstverbesserung, bei der sich die KI kontinuierlich und exponentiell verbessert, hat Bedenken über die möglichen Folgen der Schaffung einer superintelligenten Entität geweckt. Stellen Sie sich ein Szenario vor, in dem die KI einen Grad an Intelligenz erreicht, der es ihr ermöglicht, den Menschen in jeder erdenklichen Hinsicht zu übertreffen. Diese Superintelligenz könnte möglicherweise die Macht haben, Entscheidungen zu treffen, die unsere Gesellschaft und unsere Lebensweise stark beeinflussen. So wie wir Menschen derzeit das Schicksal vieler Arten in der Hand haben, könnte das Schicksal der Menschheit eines Tages in den Händen einer superintelligenten KI liegen.

Übermäßiges Vertrauen in KI und rechtliche Verantwortung

Ein zu starkes Vertrauen in die KI-Technologie könnte dazu führen, dass der menschliche Einfluss und das menschliche Handeln in bestimmten Bereichen der Gesellschaft abnehmen. So kann der Einsatz von KI im Gesundheitswesen zu einem Rückgang des menschlichen Einfühlungsvermögens und Denkvermögens führen. Darüber hinaus könnte der Einsatz generativer KI für kreative Tätigkeiten die menschliche Kreativität und den emotionalen Ausdruck unterdrücken. Eine übermäßige Interaktion mit KI-Systemen könnte auch zu einem Rückgang der Kommunikation mit Gleichaltrigen und der sozialen Fähigkeiten führen. KI kann zwar bei der Automatisierung von Aufgaben von Nutzen sein, es bestehen jedoch Bedenken hinsichtlich ihrer Auswirkungen auf die allgemeine menschliche Intelligenz, die Fähigkeiten und den Gemeinschaftssinn.

Darüber hinaus gibt es potenzielle Gefahren, die zu körperlichen Schäden beim Menschen führen könnten. Wenn sich Unternehmen beispielsweise bei Wartungsplänen ausschließlich auf KI-Vorhersagen verlassen, ohne diese zu überprüfen, könnte dies zu Maschinenausfällen führen, bei denen Arbeiter zu Schaden kommen. Im Gesundheitswesen könnten KI-Modelle zu Fehldiagnosen führen.

Neben physischen Schäden gibt es auch nicht-physische Risiken, die von KI ausgehen können, wenn sie nicht angemessen reguliert werden. Dazu gehören Fragen der digitalen Sicherheit wie Verleumdung oder üble Nachrede, der finanziellen Sicherheit wie der Missbrauch von KI für Finanzempfehlungen oder Kreditwürdigkeitsprüfungen sowie Gerechtigkeitsbedenken im Zusammenhang mit der Voreingenommenheit von KI, die zu ungerechten Ablehnungen oder Zulassungen in verschiedenen Programmen führt.

Und wenn etwas schief geht, wer sollte dann zur Verantwortung gezogen werden? Ist es die KI selbst, der Entwickler, der sie entwickelt hat, das Unternehmen, das sie einsetzt, oder ist es der Betreiber, wenn ein Mensch beteiligt war?

* * *

Zusammenfassend lässt sich sagen, dass künstliche Intelligenz zwar viele Risiken und Bedrohungen birgt, aber auch das Potenzial hat, der Gesellschaft großen Nutzen zu bringen und unser Leben zu verbessern. Es ist wichtig zu erkennen, dass das Gute oft das Schlechte überwiegt, wenn es um die KI-Technologie geht. In unserem nächsten Artikel werden wir Strategien zur Minderung der mit der KI verbundenen Risiken erörtern, um sicherzustellen, dass wir ihr Potenzial für positive Veränderungen voll ausschöpfen können.