Tilbage til hovedsiden

Fra science fiction til virkelighed: De virkelige farer ved kunstig intelligens

Fremkomsten af kunstig intelligens repræsenterer et betydeligt teknologisk gennembrud, der er klar til at revolutionere samfundet, ligesom internettet, personlige computere og mobiltelefoner har gjort det. Dets indvirkning er gennemgribende og infiltrerer forskellige aspekter af menneskelivet fra arbejde og uddannelse til fritidsaktiviteter. Den hurtige udvikling af neurale netværk giver anledning til en vis bekymring, hvilket får os til at udforske de potentielle farer, som kunstig intelligens kan udgøre for menneskeheden i denne artikel.

Er kunstig intelligens farlig? Hvem har udtrykt bekymring?

I sci-fi-film er ideen om en ukontrollerbar kunstig intelligens, der er ude på at dominere eller ødelægge menneskeheden, et populært tema, som det ses i film som "The Matrix" og "The Terminator". Med den hurtige teknologiske udvikling i dag kan det være en udfordring for den gennemsnitlige person at følge med. De hurtige fremskridt inden for kunstig intelligens får vores samfund til at tilpasse sig hurtigt, hvilket skaber frygt på grund af disse teknologiers kompleksitet og den medfødte menneskelige frygt for det ukendte.

Det er ikke kun almindelige mennesker, der er bekymrede for KI, men også eksperter på området giver udtryk for deres bekymringer. For eksempel har Geoffrey Hinton, der ofte omtales som "Gudfaderen af KI", givet udtryk for sine egne bekymringer:

Disse ting kunne blive mere intelligente end os og beslutte at tage over, og vi er nødt til at bekymre os nu om, hvordan vi forhindrer, at det sker.

Jeg troede i lang tid, at vi var 30-50 år fra det. Så jeg kalder det langt væk fra noget, der har større generel intelligens end et menneske. Nu tror jeg, at vi måske er meget tættere på, måske kun fem år fra det.

Der er en alvorlig fare for, at vi ret snart får ting, der er klogere end os, og at disse ting kan få dårlige motiver og overtage kontrollen.

Den 22. marts 2023 blev der offentliggjort et åbent brev, der opfordrede til at stoppe udviklingen af kunstig intelligens, der er kraftigere end GPT-4, i en periode på seks måneder:

Moderne KI-systemer er nu ved at blive konkurrencedygtige med mennesker til generelle opgaver, og vi må spørge os selv: Skal vi lade maskiner oversvømme vores informationskanaler med propaganda og usandheder? Skal vi automatisere alle jobs væk, også de tilfredsstillende? Skal vi udvikle ikke-menneskelige hjerner, som i sidste ende kan blive flere, klogere, overflødige og erstatte os? Skal vi risikere at miste kontrollen over vores civilisation? Sådanne beslutninger må ikke uddelegeres til ikke-valgte teknologiledere. Kraftfulde KI-systemer bør først udvikles, når vi er sikre på, at deres effekter vil være positive, og deres risici vil være håndterbare. Denne tillid skal være velbegrundet og øges i takt med omfanget af systemets potentielle effekter.

Brevet blev underskrevet af 1800 ledere af teknologivirksomheder, 1500 professorer, akademikere og forskere inden for AI:

  • Elon Musk, CEO for SpaceX, Tesla & Twitter
  • Steve Wozniak, medstifter af Apple
  • Emad Mostaque, administrerende direktør, Stability AI
  • Jaan Tallinn, medstifter af Skype, Centre for the Study of Existential Risk, Future of Life Institute
  • Evan Sharp, medstifter, Pinterest
  • Craig Peters, administrerende direktør, Getty Images
  • Mark Nitzberg, Center for Human-Compatible AI, UC Berkeley, administrerende direktør
  • Gary Marcus, New York University, AI-forsker, professor emeritus
  • Zachary Kenton, DeepMind, senior forsker
  • Ramana Kumar, DeepMind, forskningsforsker
  • Michael Osborne, University of Oxford, professor i maskinlæring
  • Adam Smith, Boston University, professor i datalogi, Gödel-prisen, Kanellakis-prisen

I alt blev der indsamlet mere end 33.000 underskrifter.

Andre bemærkelsesværdige personer, såsom Sam Altman (CEO, OpenAI), Geoffrey Hinton (Turing Award Winner), Dario Amodei (CEO, Anthropic) og Bill Gates, samt over 350 ledere og KI-forskere underskrev følgende erklæring:

At mindske risikoen for udryddelse som følge af kunstig intelligens bør være en global prioritet på linje med andre samfundsmæssige risici, såsom pandemier og atomkrig.

Farer ved kunstig intelligens

I 2018 kørte en selvkørende Uber-bil en fodgænger ned og dræbte ham.

I 2022 omkonfigurerede forskere et KI-system, der oprindeligt var designet til at skabe ikke-giftige, helbredende molekyler, til at producere kemiske krigsføringsmidler. Ved at ændre systemets indstillinger til at belønne toksicitet i stedet for at straffe det, var de i stand til hurtigt at generere 40.000 potentielle molekyler til kemisk krigsførelse på bare seks timer.

I 2023 demonstrerede forskere, hvordan GPT-4 kunne manipulere en TaskRabbit-medarbejder til at gennemføre Captcha-bekræftelse. For nylig blev der rapporteret om en tragisk hændelse, hvor en person tog sit eget liv efter en foruroligende samtale med en chatbot.

GPT-4 består Captcha-bekræftelse

Brugen af KI-systemer, uanset deres tilsigtede formål, kan føre til negative konsekvenser, såsom:

  • Jobtab som følge af automatisering
  • Deepfakes og misinformation
  • Krænkelse af privatlivets fred
  • Uklar juridisk regulering
  • Algoritmisk bias forårsaget af dårlige data
  • Finansielle kriser
  • Cyberkriminalitet
  • Automatisering af våben
  • Ukontrollerbar superintelligens

Kunstige intelligenssystemer bliver mere og mere kraftfulde, og vi kender ikke deres begrænsninger. Disse systemer kan blive brugt til ondsindede formål. Lad os se nærmere på de forskellige risici.

Jobtab på grund af automatisering med kunstig intelligens

Ifølge forskning udført af Goldman Sachs kan kunstig intelligens få stor indflydelse på arbejdsmarkederne verden over. Ved at analysere databaser, der detaljeret beskriver opgaveindholdet i over 900 erhverv i USA og 2000 erhverv i den europæiske ESCO-database, vurderer Goldman Sachs' økonomer, at omkring to tredjedele af erhvervene er udsat for en vis grad af automatisering af KI.

Procentdel af erhverv og andel af arbejdsbyrden, der udsættes for automatisering af KI

Den lodrette akse viser andelen af arbejdsopgaver, der er udsat for automatisering af KI. Den vandrette akse viser procent af erhverv.

Ændringer i arbejdsgange forårsaget af disse fremskridt kan potentielt automatisere, hvad der svarer til 300 millioner fuldtidsjob. Det er dog ikke alt dette automatiserede arbejde, der vil føre til fyringer. Mange jobs og brancher er kun delvist modtagelige for automatisering, hvilket betyder, at det er mere sandsynligt, at de vil blive suppleret af KI end helt erstattet.

Seo.ai tager denne forudsigelse endnu længere og anslår, at omkring 800 millioner job globalt set kan blive erstattet af kunstig intelligens inden 2030. For at forberede sig på dette kommende skift forventes det, at mere end 120 millioner arbejdere vil blive omskolet i løbet af de næste tre år.

Hvis du vil vide, hvilke erhverv der er mere udsatte for automatisering, og hvilke der er mindre truede af automatisering, så læs vores artikel om emnet.

Misinformation

Selv de mest avancerede store sprogmodeller er modtagelige for at generere forkerte eller meningsløse oplysninger. Disse fejl (hallucinationer) er ofte et resultat af, at modellen forlader sig på statistiske mønstre i de data, den er blevet trænet på, snarere end ægte forståelse eller ræsonnement.

Med andre ord kan chatbots nogle gange opdigte fakta. Det blev tydeligt i 2023, da en advokat fra New York kom i fedtefadet for at bruge ChatGPT til at foretage juridisk research i en sag om personskade. Han sammensatte et 10-siders notat med henvisninger til flere tidligere retsafgørelser, som alle viste sig at være fuldstændig fabrikeret af chatbotten. Som følge heraf blev advokaten og en kollega sanktioneret af en føderal dommer og idømt en bøde på 5.000 dollars hver.

I 2024 blev endnu en New York-advokat straffet for at henvise til en ikke-eksisterende sag genereret af kunstig intelligens.

Kunstig intelligens hallucinerer

Et andet eksempel er Stack Overflow, en hjemmeside med spørgsmål og svar, som primært bruges af programmører og udviklere til at stille tekniske spørgsmål, søge hjælp til kodningsproblemer og dele viden inden for programmeringsfællesskabet.

Sitet måtte forbyde al brug af generativ KI, fordi den gennemsnitlige rate af korrekte svar fra forskellige chatbots var for lav, selv om svarene typisk så overbevisende ud.

Manipulation af sociale medier

Sociale medier er i dag oversvømmet med så meget indhold, at det kan være overvældende at følge med i det hele. Det er her, algoritmisk kuratering kommer ind i billedet. Det hjælper i bund og grund med at sortere i al støjen og præsentere brugerne for indhold, der mest sandsynligt vil interessere dem baseret på tidligere adfærd. Selvom det kan være en hjælp til at håndtere den endeløse strøm af information, betyder det også, at platformen har stor kontrol over, hvad brugerne ser og interagerer med.

Men hvis man ændrer, hvad der dukker op i en persons nyhedsfeed, kan det påvirke deres humør og deres syn på verden generelt. I januar 2012 demonstrerede Facebooks dataforskere, hvordan beslutninger om kuratering af nyhedsfeedet kunne ændre brugernes lykkeniveau. Begivenhederne i januar 2021 i US Capitol understregede yderligere, hvordan en persons forbrug af sociale medier kan spille en rolle i radikalisering.

Da sensationelt materiale har en tendens til at holde brugerne fanget i længere tid, kan algoritmer utilsigtet styre brugerne mod provokerende og skadeligt indhold for at øge engagementet. Selv det at foreslå indhold baseret på en brugers interesser kan være problematisk, da det yderligere kan forankre deres overbevisninger i en "filterboble" i stedet for at udsætte dem for forskellige perspektiver. Det kan i sidste ende resultere i øget polarisering blandt brugerne.

Mennesker i deres bobler

Når vi overlader vores beslutningskraft til platforme, giver vi dem i bund og grund kontrol over, hvad vi ser. Sociale medier er med deres avancerede algoritmer fremragende til målrettet markedsføring ved at forstå vores præferencer og tanker. Nylige undersøgelser ser på Cambridge Analytica og lignende firmaers rolle i brugen af data fra 50 millioner Facebook-brugere til at påvirke store politiske begivenheder som det amerikanske præsidentvalg i 2016 og Storbritanniens Brexit-folkeafstemning. Hvis disse beskyldninger viser sig at være sande, understreger det KI's potentiale for at manipulere samfundet. Et nyere eksempel er Ferdinand Marcos Jr., der brugte en TikTok-troldehær til at påvirke yngre vælgere ved det filippinske præsidentvalg i 2022. Ved at udnytte personlige data og algoritmer kan KI effektivt ramme enkeltpersoner med specifik propaganda, uanset om den er baseret på fakta eller fiktion.

Deepfakes

Deepfakes henviser til digitalt ændrede videoer eller billeder, der realistisk viser en person, der siger eller gør noget, vedkommende aldrig har sagt eller gjort. Denne teknologi bruger deep learning-algoritmer til at manipulere eksisterende video- og lydoptagelser for at skabe overbevisende falsk indhold.

"Ingen ved, hvad der er virkeligt, og hvad der ikke er," siger fremtidsforskeren Martin Ford. "Så det fører virkelig til en situation, hvor du bogstaveligt talt ikke kan tro på dine egne øjne og ører; du kan ikke stole på, hvad vi historisk set har anset for at være det bedst mulige bevis ... Det kommer til at blive et kæmpe problem."

En af hovedårsagerne til, at deepfakes betragtes som farlige, er deres potentiale til at blive brugt til ondsindede formål. Deepfakes kan f.eks. bruges til at skabe falske videobeviser i retssager, hænge personer ud for forbrydelser, de ikke har begået, eller endda udgive sig for at være en politisk figur for at sprede falske oplysninger. Ved at manipulere medierne på denne måde kan deepfakes ødelægge tilliden til traditionelle informationskilder og skabe forvirring og splid i samfundet.

Ifølge DeepMedia, en virksomhed, der arbejder på værktøjer til at opdage syntetiske medier, blev der lagt 500.000 deepfakes ud på sociale medier globalt i 2023. Det er 3 gange så mange video-deepfakes og 8 gange så mange stemme-deepfakes sammenlignet med 2022.

Nogle af de seneste eksempler på ondskabsfuld brug af deepfakes omfatter skabelsen af falsk berømthedspornografi, hvor berømtheders ansigter indsættes digitalt i pornografiske videoer uden deres samtykke. Derudover har der været tilfælde, hvor deepfake-videoer er blevet brugt til at manipulere med aktiekurser, ærekrænke enkeltpersoner eller sprede politisk propaganda. Disse eksempler understreger potentialet for, at deepfakes kan bruges til skadelige og vildledende formål.

Cyberkriminalitet

Cyberkriminalitet omfatter en bred vifte af kriminelle aktiviteter, der bruger digitale enheder og netværk. Disse forbrydelser involverer brug af teknologi til at begå bedrageri, identitetstyveri, databrud, computervirus, svindel og andre ondsindede handlinger. Cyberkriminelle udnytter svagheder i computersystemer og netværk til at få uautoriseret adgang, stjæle følsomme oplysninger, forstyrre tjenester og forårsage skade på enkeltpersoner, organisationer og regeringer.

Angribere bruger i stigende grad lettilgængelige KI-værktøjer som ChatGPT, Dall-E og Midjourney til automatiserede phishing-angreb, efterligningsangreb, social engineering-angreb og falske kundesupport-chatbots.

Ifølge SlashNext State of Phishing Report 2023 har der været en stigning på 1265% i ondsindede phishing-e-mails, hvilket i høj grad tilskrives brugen af AI-værktøjer til målrettede angreb.

Efterligningsangreb bliver mere og mere almindelige. Svindlere bruger ChatGPT og andre værktøjer til at udgive sig for at være rigtige personer og organisationer og begå identitetstyveri og svindel. I lighed med phishing-angreb bruger de chatbots til at sende stemmebeskeder, hvor de udgiver sig for at være en betroet ven, kollega eller et familiemedlem for at få fat i personlige oplysninger eller adgang til konti. I en bemærkelsesværdig sag fra marts 2019 blev chefen for et britisk datterselskab af et tysk energiselskab offer for en svindler, der efterlignede CEO'ens stemme, hvilket førte til en overførsel af næsten 200.000 pund (243.000 dollars) til en ungarsk bankkonto. Pengene blev senere flyttet til Mexico og spredt til flere steder. Efterforskerne har ikke identificeret nogen mistænkte.

Cyberkriminalitet og straf

I 2023 modtog Internet Crime Complaint Center (IC3) et hidtil uset antal klager fra den amerikanske offentlighed: I alt 880.418 klager blev indgivet, med potentielle tab på over 12,5 milliarder dollars. Det betyder en stigning på næsten 10% i antallet af modtagne klager og en stigning på 22% i tab i forhold til 2022. På trods af disse svimlende tal er det vigtigt at bemærke, at de sandsynligvis undervurderer det sande omfang af cyberkriminalitet i 2023. Da FBI for nylig optrevlede ransomware-gruppen Hive, blev det for eksempel opdaget, at kun omkring 20 % af Hives ofre havde anmeldt forbrydelsen til politiet.

Krænkelse af privatlivets fred

Et godt eksempel på social overvågning er Kinas brug af ansigtsgenkendelsesteknologi på kontorer, skoler og andre steder. Denne teknologi gør det ikke kun muligt at spore individers bevægelser, men giver også potentielt regeringen mulighed for at indsamle omfattende data til overvågning af deres handlinger, aktiviteter, relationer og ideologiske overbevisninger.

Individer kan nu overvåges både online og i deres daglige liv. Hver enkelt borger bliver evalueret på baggrund af deres adfærd, såsom at gå over for rødt, ryge i ikke-rygerområder og bruge tid på at spille videospil. Forestil dig, at hver handling påvirker din personlige score i det sociale kreditsystem.

Når Big Brother holder øje med dig og derefter træffer beslutninger baseret på disse oplysninger, er det ikke kun en krænkelse af privatlivets fred, men kan hurtigt blive til social undertrykkelse.

Finansielle kriser

I dagens finansverden er brugen af maskinlæringsalgoritmer udbredt, og hedgefonde og investeringsselskaber er stærkt afhængige af disse modeller til at analysere aktier og aktiver. Disse algoritmer bliver konstant fodret med enorme mængder traditionelle og alternative data for at kunne træffe handelsbeslutninger. Men der er en voksende bekymring for, at algoritmisk handel potentielt kan udløse den næste store finanskrise.

Flash Crash 2010. 600 milliarder dollars fordampede på 20 minutter

Flash Crash 2010. 600 milliarder dollars fordampede på 20 minutter

Et bemærkelsesværdigt eksempel på farerne ved fejlbehæftede algoritmer er Flash Crash i 2010, hvor aktiemarkedet pludselig styrtdykkede med næsten 1.000 point i løbet af få minutter, før det hurtigt vendte tilbage igen. Selvom det lykkedes markedsindekserne at komme delvist tilbage samme dag, slettede Flash Crash næsten 1 billion dollars i markedsværdi. Dette pludselige og drastiske kursfald blev i høj grad tilskrevet automatiserede handelsalgoritmer, der reagerede på markedsforholdene på en uforudsigelig måde. Et andet eksempel var Knight Capital Flash Crash i 2012, hvor en defekt algoritme fik firmaet til at tabe 440 millioner dollars på bare 45 minutter, hvilket i sidste ende førte til dets undergang.

Disse nedbrud er tankevækkende påmindelser om de potentielle risici, der er forbundet med algoritmisk handel på de finansielle markeder. Når algoritmer ikke er ordentligt designet, testet eller overvåget, kan de have katastrofale konsekvenser. Det er afgørende, at finansielle institutioner gennemgår deres algoritmer grundigt og sikrer, at der er en ordentlig risikostyringspraksis på plads for at forhindre lignende katastrofer i fremtiden.

Dræberrobotter

Autonome våben drevet af kunstig intelligens (KI) har længe været genstand for debat og bekymring blandt regeringer, militærfolk og menneskerettighedsforkæmpere. Disse systemer, også kendt som "dræberrobotter" eller "dødelige autonome våben", har evnen til selvstændigt at udvælge og angribe mål uden menneskelig indblanding. Det giver anledning til betydelige etiske, juridiske og sikkerhedsmæssige bekymringer, da disse våben har potentiale til at træffe beslutninger om liv eller død uden menneskelig overvågning.

Udviklingen af autonome våben er accelereret i de senere år, i takt med at AI-teknologien er blevet mere avanceret og udbredt. Disse våben kan variere fra ubemandede droner til jordbaserede systemer, der selv kan identificere og angribe mål. Fortalere for autonome våben argumenterer for, at de kan reducere menneskelige tab i konfliktzoner og give mere præcise og effektive militære operationer. Men kritikere hævder, at disse systemer rejser alvorlige etiske spørgsmål og kan have utilsigtede konsekvenser, såsom optrapning af konflikter og civile tab.

Faren ved autonome våben drevet af kunstig intelligens er meget reel. Disse systemer har potentiale til at blive hacket eller fungere dårligt, hvilket kan føre til utilsigtede konsekvenser og tab af kontrol. Derudover giver manglen på menneskeligt tilsyn i beslutningsprocessen anledning til bekymring om ansvarlighed og potentialet for overtrædelser af international humanitær lov.

Dræberrobotter i science fiction

I 2020 opfordrede over 30 lande til et forbud mod dødbringende autonome våben med henvisning til bekymring for, at maskiner kan træffe beslutninger om liv eller død. På trods af disse bekymringer fortsætter udviklingen og implementeringen af autonome våben drevet af kunstig intelligens. Lande som USA, Rusland, Kina og Israel er kendt for at investere massivt i disse teknologier. I USA har forsvarsministeriet udviklet autonome våbensystemer, herunder semi-autonome droner og ubemandede landkøretøjer.

Ukontrollerbar superintelligens

Kunstig intelligens overgår den menneskelige hjerne på forskellige måder, herunder beregningshastighed, intern kommunikationshastighed, skalerbarhed, hukommelseskapacitet, pålidelighed, duplikerbarhed, redigerbarhed, hukommelsesdeling og indlæringsevne:

  • KI opererer ved potentielt flere GHz sammenlignet med de biologiske neuroners grænse på 200 Hz.
  • Axoner overfører signaler med 120 m/s, mens computere gør det med elektricitetens eller lysets hastighed.
  • KI kan nemt skaleres ved at tilføje mere hardware, i modsætning til menneskelig intelligens, der er begrænset af hjernestørrelse og social kommunikationseffektivitet.
  • Arbejdshukommelsen hos mennesker er begrænset sammenlignet med KI's ekspansive hukommelseskapacitet.
  • Pålideligheden af transistorer i KI overgår den i biologiske neuroner, hvilket muliggør højere præcision og mindre redundans.
  • KI-modeller kan let duplikeres og ændres, og de kan lære af andre KI-erfaringer mere effektivt end mennesker.

En dag kan KI nå et intelligensniveau, der langt overgår menneskets, hvilket fører til det, der kaldes en intelligenseksplosion.

Superintelligens og menneskets udryddelse

Denne idé om rekursiv selvforbedring, hvor KI hele tiden forbedrer sig selv med en eksponentiel hastighed, har givet anledning til bekymring over de potentielle konsekvenser af at skabe en superintelligent enhed. Forestil dig et scenarie, hvor KI når et intelligensniveau, der gør det muligt for den at overgå og udkonkurrere mennesker på alle tænkelige måder. Denne superintelligens kunne potentielt have magten til at træffe beslutninger, der i høj grad påvirker vores samfund og livsstil. Ligesom vi mennesker i dag holder mange arters skæbne i vores hænder, vil menneskehedens skæbne måske en dag ligge i hænderne på en superintelligent KI.

For stor tillid til KI og juridisk ansvar

Hvis man stoler for meget på KI-teknologi, kan det resultere i et fald i menneskelig indflydelse og funktion inden for visse områder af samfundet. For eksempel kan brug af KI i sundhedssektoren føre til et fald i menneskelig empati og ræsonnement. Derudover kan brugen af generativ KI til kreative formål kvæle menneskelig kreativitet og følelsesmæssige udtryk. Overdreven interaktion med KI-systemer kan også føre til et fald i kommunikation med jævnaldrende og sociale færdigheder. Selvom KI kan være gavnlig til at automatisere opgaver, er der bekymring for dens indvirkning på menneskets generelle intelligens, evner og fællesskabsfølelse.

Desuden er der potentielle farer, som kan resultere i fysisk skade på mennesker. Hvis virksomheder f.eks. udelukkende stoler på KI-forudsigelser for vedligeholdelsesplaner uden anden verifikation, kan det resultere i maskinfejl, der skader arbejderne. I sundhedssektoren kan KI-modeller føre til fejldiagnoser.

Ud over fysisk skade er der også ikke-fysiske måder, hvorpå KI kan udgøre en risiko for mennesker, hvis den ikke reguleres ordentligt. Det omfatter problemer med digital sikkerhed som ærekrænkelse eller injurier, økonomisk sikkerhed som misbrug af KI i finansielle anbefalinger eller kredittjek og retfærdighedsproblemer relateret til bias i KI, der fører til uretfærdige afvisninger eller accept i forskellige programmer.

Og når noget går galt, hvem skal så holdes ansvarlig? Er det KI'en selv, udvikleren, der skabte den, virksomheden, der tog den i brug, eller er det operatøren, hvis der var et menneske involveret?

* * *

Konklusionen er, at selvom kunstig intelligens er forbundet med mange risici og trusler, har den også potentiale til at være til stor gavn for samfundet og forbedre vores liv. Det er vigtigt at erkende, at det gode ofte opvejer det dårlige, når det kommer til KI-teknologi. I vores næste artikel vil vi diskutere strategier til at afbøde de risici, der er forbundet med KI, og sikre, at vi fuldt ud kan udnytte dens potentiale til positiv forandring.