Tilbake til hovedsiden

Fra science fiction til virkelighet: De virkelige farene ved kunstig intelligens

Fremveksten av kunstig intelligens representerer et betydelig teknologisk gjennombrudd som er i ferd med å revolusjonere samfunnet på samme måte som Internett, PC-er og mobiltelefoner har gjort. Innvirkningen av kunstig intelligens er gjennomgripende og infiltrerer ulike aspekter av menneskelivet, fra arbeid og utdanning til fritidsaktiviteter. Den raske utviklingen av nevrale nettverk vekker bekymring, og i denne artikkelen ser vi nærmere på hvilke potensielle farer kunstig intelligens kan utgjøre for menneskeheten.

Er kunstig intelligens farlig? Hvem har uttrykt bekymring?

I sci-fi-filmer er ideen om en ukontrollerbar kunstig intelligens som er ute etter å dominere eller ødelegge menneskeheten, et populært tema, som i filmer som "The Matrix" og "The Terminator". Den raske teknologiske utviklingen i dag gjør at det kan være vanskelig for et gjennomsnittsmenneske å henge med i svingene. Den raske utviklingen av kunstig intelligens fører til at samfunnet tilpasser seg raskt, noe som skaper frykt på grunn av teknologiens kompleksitet og menneskets medfødte frykt for det ukjente.

Det er ikke bare vanlige mennesker som er engstelige for kunstig intelligens, men også eksperter på området uttrykker bekymring. Geoffrey Hinton, som ofte omtales som "gudfaren til kunstig intelligens", har for eksempel gitt uttrykk for sine egne bekymringer:

Disse tingene kan bli mer intelligente enn oss og bestemme seg for å ta over, og vi må nå bekymre oss for hvordan vi kan forhindre at det skjer.

Jeg trodde lenge at vi var 30 til 50 år unna noe slikt. Så jeg kaller det langt unna noe som har større generell intelligens enn et menneske. Nå tror jeg vi er mye nærmere, kanskje bare fem år unna.

Det er en alvorlig fare for at vi ganske snart får ting som er smartere enn oss, og at disse tingene kan få dårlige motiver og ta kontroll.

Den 22. mars 2023 ble det publisert et åpent brev med oppfordring om å stanse utviklingen av kunstig intelligens som er kraftigere enn GPT-4 i en periode på seks måneder:

Dagens AI-systemer er nå i ferd med å bli konkurransedyktige med mennesker på generelle oppgaver, og vi må spørre oss selv: Skal vi la maskiner oversvømme informasjonskanalene våre med propaganda og usannheter? Skal vi automatisere bort alle jobber, også de meningsfylte? Skal vi utvikle ikke-menneskelige hjerner som etter hvert kan bli flere, smartere, overflødige og erstatte oss? Bør vi risikere å miste kontrollen over sivilisasjonen vår? Slike beslutninger må ikke delegeres til ikke-valgte teknologiledere. Kraftige KI-systemer bør først utvikles når vi er sikre på at de vil ha positive effekter og at risikoen er håndterbar. Denne tilliten må være velbegrunnet og øke i takt med størrelsen på systemets potensielle effekter.

Brevet er signert av 1800 ledere av teknologiselskaper, 1500 professorer, akademikere og forskere innen kunstig intelligens:

  • Elon Musk, administrerende direktør i SpaceX, Tesla og Twitter
  • Steve Wozniak, medgrunnlegger av Apple
  • Emad Mostaque, administrerende direktør, Stability AI
  • Jaan Tallinn, medgrunnlegger av Skype, Senter for studier av eksistensiell risiko, Future of Life Institute
  • Evan Sharp, medgrunnlegger av Pinterest
  • Craig Peters, administrerende direktør, Getty Images
  • Mark Nitzberg, Center for Human-Compatible AI, UC Berkeley, administrerende direktør
  • Gary Marcus, New York University, forsker i kunstig intelligens, professor emeritus
  • Zachary Kenton, DeepMind, seniorforsker, seniorforsker
  • Ramana Kumar, DeepMind, forsker, forskningsleder
  • Michael Osborne, University of Oxford, professor i maskinlæring
  • Adam Smith, Boston University, professor i datavitenskap, Gödel-prisen, Kanellakis-prisen

Totalt ble det samlet inn mer enn 33 000 underskrifter.

Andre fremtredende personer, som Sam Altman (CEO, OpenAI), Geoffrey Hinton (Turing-prisvinner), Dario Amodei (CEO, Anthropic) og Bill Gates, samt over 350 ledere og AI-forskere, signerte følgende uttalelse:

Å redusere risikoen for utryddelse som følge av kunstig intelligens bør være en global prioritet på linje med andre samfunnsrisikoer, som pandemier og atomkrig.

Farene ved kunstig intelligens

I 2018 kjørte en selvkjørende Uber-bil på og drepte en fotgjenger.

I 2022 omkonfigurerte forskere et AI-system som opprinnelig var utviklet for å lage ugiftige, helbredende molekyler, til å produsere kjemiske stridsmidler. Ved å endre systemets innstillinger til å belønne giftighet i stedet for å straffe den, klarte de raskt å generere 40 000 potensielle molekyler for kjemisk krigføring på bare seks timer.

I 2023 demonstrerte forskere hvordan GPT-4 kunne manipulere en TaskRabbit-arbeider til å fullføre Captcha-bekreftelsen. Nylig ble det rapportert om en tragisk hendelse der en person tok sitt eget liv etter en urovekkende samtale med en chatbot.

GPT-4 består Captcha-bekreftelse

Bruken av KI-systemer, uavhengig av formålet, kan føre til negative konsekvenser, for eksempel:

  • Tap av arbeidsplasser som følge av automatisering
  • Deepfakes og feilinformasjon
  • Brudd på personvernet
  • Uklar juridisk regulering
  • Algoritmisk skjevhet forårsaket av dårlige data
  • Finansielle kriser
  • Cyberkriminalitet
  • Automatisering av våpen
  • Ukontrollerbar superintelligens

Systemer med kunstig intelligens blir stadig kraftigere, og vi kjenner ikke begrensningene deres. Disse systemene kan brukes til ondsinnede formål. La oss se nærmere på de ulike risikoene.

Tap av arbeidsplasser på grunn av automatisering med kunstig intelligens

Ifølge en undersøkelse utført av Goldman Sachs kan kunstig intelligens få store konsekvenser for arbeidsmarkedet verden over. Ved å analysere databaser som beskriver arbeidsoppgavene i over 900 yrker i USA og 2000 yrker i den europeiske ESCO-databasen, anslår Goldman Sachs' økonomer at rundt to tredjedeler av yrkene er utsatt for en viss grad av automatisering som følge av kunstig intelligens.

Prosentandel av yrker og andel av arbeidsmengden som er utsatt for automatisering ved hjelp av KI

Den loddrette aksen viser andel av arbeidsmengden i yrket som er utsatt for automatisering av kunstig intelligens. Den horisontale aksen viser prosent av yrkene.

Endringer i arbeidsflyten som følge av disse fremskrittene kan potensielt automatisere tilsvarende 300 millioner heltidsjobber. Det er imidlertid ikke alt dette automatiserte arbeidet som vil føre til oppsigelser. Mange jobber og bransjer er bare delvis utsatt for automatisering, noe som betyr at det er mer sannsynlig at de vil bli supplert av kunstig intelligens enn at de blir helt erstattet.

Seo.ai går enda lenger og anslår at rundt 800 millioner jobber globalt kan bli erstattet av kunstig intelligens innen 2030. For å forberede seg på dette kommende skiftet forventes det at mer enn 120 millioner arbeidstakere vil gjennomgå omskolering i løpet av de neste tre årene.

Hvis du vil vite hvilke yrker som er mer utsatt for automatisering og hvilke som er mindre truet av automatisering, kan du lese artikkelen vår om temaet.

Feilinformasjon

Selv de mest avanserte store språkmodellene er utsatt for å generere feilaktig eller meningsløs informasjon. Disse feilene (hallusinasjoner) skyldes ofte at modellen baserer seg på statistiske mønstre i dataene den er trent på, og ikke på ekte forståelse eller resonnement.

Med andre ord kan chatboter noen ganger finne på fakta. Dette ble tydeliggjort i 2023, da en advokat i New York havnet i hardt vær fordi han brukte ChatGPT til å gjøre juridiske undersøkelser i en personskadesak. Advokaten satte sammen et 10-siders notat med henvisninger til flere tidligere rettsavgjørelser, som alle viste seg å være fullstendig fabrikkert av chatboten. Som følge av dette ble advokaten og en kollega sanksjonert av en føderal dommer og ilagt en bot på 5000 dollar hver.

I 2024 ble enda en advokat i New York straffet for å ha henvist til en ikke-eksisterende sak generert av kunstig intelligens.

Kunstig intelligens som hallusinerer

Et annet eksempel er Stack Overflow, et spørsmål og svar-nettsted som primært brukes av programmerere og utviklere til å stille tekniske spørsmål, få hjelp med kodingsproblemer og dele kunnskap i programmeringsmiljøet.

Nettstedet måtte forby all bruk av generativ AI, fordi den gjennomsnittlige andelen riktige svar fra ulike chatboter var for lav, selv om svarene vanligvis så overbevisende ut.

Sosial manipulering

Sosiale medier oversvømmes i dag av så mye innhold at det kan være overveldende å holde tritt med alt. Det er her algoritmisk kuratering kommer inn i bildet. Algoritmisk kuratering går ut på å sile gjennom all støyen og presentere brukere for innhold som mest sannsynlig vil interessere dem basert på tidligere atferd. Selv om dette kan være nyttig for å håndtere den endeløse informasjonsstrømmen, betyr det også at plattformen har stor kontroll over hva brukerne ser og samhandler med.

Hvis man endrer hva som vises i nyhetsfeeden, kan det imidlertid påvirke humøret og synet på verden generelt. I januar 2012 demonstrerte Facebooks dataforskere hvordan beslutninger om kuratering av nyhetsfeeden kunne endre brukernes lykkenivå. Hendelsene i Capitol i USA i januar 2021 satte ytterligere fokus på hvordan folks bruk av sosiale medier kan spille en rolle i radikalisering.

Siden sensasjonsstoff har en tendens til å holde på brukerne over lengre tid, kan algoritmer utilsiktet styre brukerne mot provoserende og skadelig innhold for å øke engasjementet. Det kan til og med være problematisk å foreslå innhold basert på brukernes interesser, ettersom det kan bidra til å fastholde brukernes holdninger i en "filterboble" i stedet for å eksponere dem for ulike perspektiver. Dette kan i ytterste konsekvens føre til økt polarisering blant brukerne.

Mennesker i sine egne bobler

Når vi overlater beslutningsmakten vår til plattformene, gir vi dem i realiteten kontroll over hva vi ser. Sosiale medier, med sine avanserte algoritmer, utmerker seg når det gjelder målrettet markedsføring ved å forstå våre preferanser og tanker. I den senere tid har det blitt etterforsket om Cambridge Analytica og lignende selskaper har brukt data fra 50 millioner Facebook-brukere til å påvirke store politiske hendelser som presidentvalget i USA i 2016 og folkeavstemningen om Brexit i Storbritannia. Hvis disse anklagene viser seg å være sanne, understreker det potensialet som ligger i kunstig intelligens når det gjelder å manipulere samfunnet. Et nyere eksempel er Ferdinand Marcos jr. som brukte en TikTok-trollhær for å påvirke yngre velgere i det filippinske presidentvalget i 2022. Ved å utnytte personopplysninger og algoritmer kan kunstig intelligens effektivt målrette propaganda mot enkeltpersoner, enten den er basert på fakta eller fiksjon.

Deepfakes

Deepfakes er digitalt bearbeidede videoer eller bilder som på en realistisk måte viser en person som sier eller gjør noe vedkommende aldri har sagt eller gjort. Denne teknologien bruker dyplæringsalgoritmer til å manipulere eksisterende video- og lydopptak for å skape overbevisende falskt innhold.

"Ingen vet hva som er virkelig og hva som ikke er det", sier fremtidsforskeren Martin Ford. "Så det fører til en situasjon der du bokstavelig talt ikke kan tro på dine egne øyne og ører; du kan ikke stole på det vi historisk sett har ansett som det best mulige beviset... Det kommer til å bli et stort problem."

En av hovedgrunnene til at deepfakes anses som farlige, er at de kan brukes til ondsinnede formål. Deepfakes kan for eksempel brukes til å lage falske videobevis i rettssaker, beskylde personer for forbrytelser de ikke har begått, eller til og med utgi seg for å være en politisk person for å spre falsk informasjon. Ved å manipulere mediene på denne måten kan deepfakes svekke tilliten til tradisjonelle informasjonskilder og skape forvirring og splid i samfunnet.

Ifølge DeepMedia, et selskap som arbeider med verktøy for å oppdage syntetiske medier, ble det lagt ut 500 000 deepfakes på sosiale medier globalt i 2023. Det er 3 ganger så mange video deepfakes og 8 ganger så mange stemme deepfakes sammenlignet med 2022.

Blant nyere eksempler på bruk av deepfakes med onde hensikter kan nevnes produksjon av falsk kjendispornografi, der ansikter av kjendiser settes inn digitalt i pornografiske videoer uten deres samtykke. I tillegg har det vært eksempler på at deepfake-videoer har blitt brukt til å manipulere aksjekurser, sverte enkeltpersoner eller spre politisk propaganda. Disse eksemplene viser at deepfakes kan brukes til skadelige og villedende formål.

Datakriminalitet

Datakriminalitet omfatter et bredt spekter av kriminelle aktiviteter som bruker digitale enheter og nettverk. Det dreier seg om bruk av teknologi for å begå svindel, identitetstyveri, datainnbrudd, datavirus, svindel og andre ondsinnede handlinger. Cyberkriminelle utnytter svakheter i datasystemer og nettverk for å skaffe seg uautorisert tilgang, stjele sensitiv informasjon, forstyrre tjenester og skade enkeltpersoner, organisasjoner og myndigheter.

Angripere bruker i økende grad lett tilgjengelige KI-verktøy som ChatGPT, Dall-E og Midjourney til automatiserte phishing-angrep, imitasjonsangrep, sosial manipulering og falske chatboter for kundestøtte.

Ifølge SlashNext State of Phishing Report 2023 har det vært en økning på 1265 % i antallet ondsinnede phishing-e-poster, noe som i stor grad tilskrives bruken av KI-verktøy for målrettede angrep.

Etterligningsangrep blir stadig vanligere. Svindlere bruker ChatGPT og andre verktøy for å utgi seg for å være ekte personer og organisasjoner, og begår identitetstyveri og svindel. I likhet med phishing-angrep bruker de chatboter til å sende talemeldinger der de utgir seg for å være en venn, kollega eller et familiemedlem de stoler på, for å få tak i personlig informasjon eller tilgang til kontoer. I et oppsiktsvekkende tilfelle fra mars 2019 ble sjefen for et britisk datterselskap av et tysk energiselskap offer for en svindler som etterlignet konsernsjefens stemme, noe som førte til at nesten 200 000 pund (243 000 dollar) ble overført til en ungarsk bankkonto. Pengene ble senere flyttet til Mexico og spredt til flere steder. Etterforskerne har ikke identifisert noen mistenkte.

Nettkriminalitet og straff

I 2023 mottok Internet Crime Complaint Center (IC3) et rekordhøyt antall klager fra det amerikanske publikummet: totalt 880 418 klager, med et potensielt tap på over 12,5 milliarder dollar. Dette innebærer en økning på nesten 10 % i antall mottatte klager og en økning i tap på 22 % sammenlignet med 2022. Til tross for disse svimlende tallene er det viktig å merke seg at de sannsynligvis undervurderer det reelle omfanget av nettkriminalitet i 2023. Da FBI nylig avslørte løsepengevirusgruppen Hive, ble det for eksempel oppdaget at bare rundt 20 % av Hives ofre hadde anmeldt forbrytelsen til politiet.

Krenkelse av personvernet

Et godt eksempel på sosial overvåking er Kinas bruk av ansiktsgjenkjenningsteknologi på kontorer, skoler og andre steder. Denne teknologien gjør det ikke bare mulig å spore enkeltpersoners bevegelser, men gir også myndighetene mulighet til å samle inn omfattende data for å overvåke deres handlinger, aktiviteter, relasjoner og ideologiske overbevisning.

Enkeltpersoner kan nå overvåkes både på nettet og i dagliglivet. Hver enkelt innbygger blir evaluert ut fra sin atferd, for eksempel om de går over for rødt, røyker i røykfrie områder eller bruker tid på dataspill. Forestill deg at hver handling påvirker din personlige poengsum i det sosiale kredittsystemet.

Når Storebror overvåker deg og tar avgjørelser basert på denne informasjonen, er det ikke bare en krenkelse av privatlivet, det kan også fort utvikle seg til sosial undertrykkelse.

Finansielle kriser

I dagens finansverden er bruken av maskinlæringsalgoritmer utbredt, og hedgefond og investeringsselskaper benytter seg i stor grad av disse modellene for å analysere aksjer og aktiva. Algoritmene mates kontinuerlig med enorme mengder tradisjonelle og alternative data for å kunne ta handelsbeslutninger. Det er imidlertid en økende bekymring for at algoritmisk handel potensielt kan utløse den neste store finanskrisen.

Lynkrakket i 2010. 600 milliarder dollar forsvant på 20 minutter

Lynkrakket i 2010. 600 milliarder dollar forsvant på 20 minutter

Et kjent eksempel på farene ved feilaktige algoritmer er Flash Crash i 2010, da aksjemarkedet plutselig stupte med nesten 1000 poeng i løpet av få minutter, før det raskt steg igjen. Selv om børsindeksene delvis hentet seg inn igjen samme dag, slettet Flash Crash nesten 1 000 milliarder dollar i markedsverdi. Det plutselige og drastiske kursfallet skyldtes i stor grad automatiserte handelsalgoritmer som reagerte uforutsigbart på markedsforholdene. Et annet eksempel var Knight Capital Flash Crash i 2012, der en algoritmefeil førte til at selskapet tapte 440 millioner dollar på bare 45 minutter, noe som til slutt førte til selskapets undergang.

Disse krasjene er en tankevekkende påminnelse om den potensielle risikoen som algoritmisk handel i finansmarkedene utgjør. Når algoritmer ikke er utformet, testet eller overvåket på riktig måte, kan de få katastrofale konsekvenser. Det er avgjørende at finansinstitusjonene går grundig gjennom algoritmene sine og sørger for at de har gode rutiner for risikostyring for å forhindre at lignende katastrofer inntreffer i fremtiden.

Morderiske roboter

Autonome våpen basert på kunstig intelligens (KI) har lenge vært gjenstand for debatt og bekymring blant regjeringer, militære tjenestemenn og menneskerettighetsforkjempere. Disse systemene, også kjent som "drapsroboter" eller "dødelige autonome våpen", har evnen til å velge ut og angripe mål uten menneskelig inngripen. Dette reiser betydelige etiske, juridiske og sikkerhetsmessige spørsmål, ettersom disse våpnene har potensial til å ta avgjørelser om liv eller død uten menneskelig tilsyn.

Utviklingen av autonome våpen har skutt fart de siste årene, i takt med at AI-teknologien har blitt mer avansert og utbredt. Disse våpnene kan være alt fra ubemannede droner til bakkebaserte systemer som selv kan identifisere og angripe mål. Tilhengerne av autonome våpen hevder at de kan redusere antall tap av menneskeliv i konfliktområder og gjøre militære operasjoner mer presise og effektive. Kritikerne mener imidlertid at disse systemene reiser alvorlige etiske spørsmål og kan ha utilsiktede konsekvenser, som opptrapping av konflikter og sivile tap.

Faren ved autonome våpen drevet av kunstig intelligens er høyst reell. Disse systemene kan potensielt bli hacket eller fungere dårlig, noe som kan føre til utilsiktede konsekvenser og tap av kontroll. I tillegg gir mangelen på menneskelig kontroll i beslutningsprosessen grunn til bekymring når det gjelder ansvarlighet og potensialet for brudd på internasjonal humanitær rett.

Drapsroboter i science fiction

I 2020 tok over 30 land til orde for et forbud mot dødelige autonome våpen, med henvisning til at de er bekymret for at maskiner kan ta avgjørelser om liv eller død. Til tross for disse bekymringene fortsetter utviklingen og utplasseringen av autonome våpen drevet av kunstig intelligens. Land som USA, Russland, Kina og Israel er kjent for å investere tungt i denne teknologien. I USA har forsvarsdepartementet utviklet autonome våpensystemer, inkludert halvautonome droner og ubemannede bakkekjøretøy.

Ukontrollerbar superintelligens

Kunstig intelligens overgår menneskehjernen på en rekke områder, blant annet når det gjelder beregningshastighet, intern kommunikasjonshastighet, skalerbarhet, minnekapasitet, pålitelighet, dupliserbarhet, redigerbarhet, minnedeling og læringsevne:

  • Kunstig intelligens opererer ved potensielt flere GHz sammenlignet med 200 Hz som er grensen for biologiske nevroner.
  • Aksoner overfører signaler med 120 m/s, mens datamaskiner gjør det med elektrisitetens eller lysets hastighet.
  • KI kan enkelt skaleres ved å legge til mer maskinvare, i motsetning til menneskelig intelligens som er begrenset av hjernestørrelse og sosial kommunikasjonseffektivitet.
  • Menneskets arbeidsminne er begrenset sammenlignet med KI's enorme minnekapasitet.
  • Påliteligheten til transistorer i KI er høyere enn i biologiske nevroner, noe som gir høyere presisjon og mindre redundans.
  • KI-modeller kan enkelt kopieres, endres og lære av andre KI-erfaringer på en mer effektiv måte enn mennesker.

En dag kan kunstig intelligens nå et intelligensnivå som langt overgår menneskets, noe som kan føre til en såkalt intelligenseksplosjon.

Superintelligens og menneskets utryddelse

Denne ideen om rekursiv selvforbedring, der kunstig intelligens kontinuerlig forbedrer seg selv i eksponentiell hastighet, har skapt bekymring for de potensielle konsekvensene av å skape en superintelligent enhet. Tenk deg et scenario der kunstig intelligens når et intelligensnivå som gjør det mulig for den å overgå og utkonkurrere mennesker på alle tenkelige måter. En slik superintelligens kan potensielt ha makt til å ta beslutninger som har stor innvirkning på samfunnet og levemåten vår. Akkurat som vi mennesker i dag holder mange arters skjebne i våre hender, kan menneskehetens skjebne en dag ligge i hendene på en superintelligent KI.

Overdreven tillit til kunstig intelligens og juridisk ansvar

Hvis man stoler for mye på KI-teknologi, kan det føre til at menneskelig innflytelse og funksjon reduseres på visse samfunnsområder. Bruk av kunstig intelligens i helsevesenet kan for eksempel føre til at menneskelig empati og fornuft svekkes. I tillegg kan bruk av generativ KI til kreative aktiviteter føre til at menneskelig kreativitet og emosjonelle uttrykk blir kvalt. Overdreven interaksjon med KI-systemer kan også føre til dårligere kommunikasjon og sosiale ferdigheter. Selv om kunstig intelligens kan være nyttig for å automatisere oppgaver, er det grunn til bekymring for hvordan den vil påvirke menneskets generelle intelligens, evner og fellesskapsfølelse.

I tillegg finnes det potensielle farer som kan føre til fysiske skader på mennesker. Hvis bedrifter for eksempel utelukkende baserer seg på KI-forutsigelser for vedlikeholdsplaner uten annen verifisering, kan det føre til maskinfeil som kan skade de ansatte. I helsevesenet kan KI-modeller føre til feildiagnoser.

I tillegg til fysiske skader finnes det også ikke-fysiske måter KI kan utgjøre en risiko for mennesker hvis den ikke reguleres på riktig måte. Det kan dreie seg om digital sikkerhet, for eksempel ærekrenkelser og injurier, økonomisk sikkerhet, for eksempel misbruk av KI i forbindelse med økonomiske anbefalinger eller kredittsjekker, og rettferdighetsproblemer knyttet til skjevheter i KI som fører til urettferdige avslag eller opptak i ulike programmer.

Og hvem skal holdes ansvarlig når noe går galt? Er det selve den kunstige intelligensen, utvikleren som skapte den, selskapet som tok den i bruk, eller er det operatøren hvis et menneske var involvert?

* * *

Konklusjonen er at selv om kunstig intelligens innebærer mange risikoer og trusler, har den også potensial til å være til stor nytte for samfunnet og forbedre livene våre. Det er viktig å erkjenne at de gode sidene ofte oppveier de dårlige når det gjelder KI-teknologi. I neste artikkel vil vi diskutere strategier for å redusere risikoene forbundet med kunstig intelligens, slik at vi kan utnytte potensialet for positiv endring fullt ut.