Tillbaka till huvud

Från science fiction till verklighet: De verkliga farorna med AI

Utvecklingen av artificiell intelligens innebär ett betydande tekniskt genombrott som är på väg att revolutionera samhället på samma sätt som Internet, persondatorer och mobiltelefoner har gjort. Dess inverkan är genomgripande och infiltrerar olika aspekter av människans liv, från arbete och utbildning till fritidsaktiviteter. Den snabba utvecklingen av neurala nätverk väcker viss oro, vilket har fått oss att i den här artikeln utforska de potentiella faror som artificiell intelligens kan innebära för mänskligheten.

Är AI farligt? Vem har uttryckt oro?

I sci-fi-filmer är idén om en okontrollerbar artificiell intelligens som vill dominera eller förgöra mänskligheten ett populärt tema, vilket framgår av filmer som "The Matrix" och "The Terminator". Med dagens snabba tekniska utveckling kan det vara svårt för en vanlig människa att hänga med. Den snabba utvecklingen av AI gör att våra samhällen måste anpassa sig snabbt, vilket skapar rädsla på grund av teknikens komplexitet och människans medfödda rädsla för det okända.

Det är inte bara vanliga människor som känner oro för AI, utan även experter på området uttrycker sin oro. Geoffrey Hinton, som ofta kallas "AI:s gudfader", har till exempel uttryckt sina egna farhågor:

Dessa saker kan bli intelligentare än vi och bestämma sig för att ta över, och vi måste nu oroa oss för hur vi ska förhindra att det händer.

Jag trodde länge att vi befann oss 30-50 år bort från detta. Så jag kallar det långt ifrån något som har större allmän intelligens än en människa. Nu tror jag att vi kan vara mycket närmare, kanske bara fem år från det.

Det finns en allvarlig risk att vi ganska snart kommer att få saker som är smartare än vi och att dessa saker kan få dåliga motiv och ta över kontrollen.

Den 22 mars 2023 publicerades ett öppet brev som krävde ett stopp för utvecklingen av artificiell intelligens som är kraftfullare än GPT-4 under en period på sex månader:

Dagens AI-system börjar nu bli konkurrenskraftiga för människor när det gäller allmänna uppgifter, och vi måste fråga oss själva: Ska vi låta maskinerna översvämma våra informationskanaler med propaganda och osanningar? Ska vi automatisera bort alla jobb, inklusive de meningsfulla? Ska vi utveckla icke-mänskliga sinnen som så småningom kan bli fler, smartare, föråldrade och ersätta oss? Ska vi riskera att förlora kontrollen över vår civilisation? Sådana beslut får inte delegeras till icke valda tekniska ledare. Kraftfulla AI-system bör utvecklas först när vi är övertygade om att deras effekter kommer att vara positiva och att riskerna är hanterbara. Detta förtroende måste vara väl motiverat och öka med omfattningen av systemets potentiella effekter.

Brevet undertecknades av 1800 ledare för teknikföretag, 1500 professorer, akademiker och forskare inom AI-området:

  • Elon Musk, VD för SpaceX, Tesla och Twitter
  • Steve Wozniak, medgrundare, Apple
  • Emad Mostaque, VD, Stability AI
  • Jaan Tallinn, medgrundare av Skype, Centre for the Study of Existential Risk, Future of Life Institute
  • Evan Sharp, medgrundare, Pinterest
  • Craig Peters, VD, Getty Images
  • Mark Nitzberg, Center for Human-Compatible AI, UC Berkeley, verkställande direktör
  • Gary Marcus, New York University, AI-forskare, professor emeritus
  • Zachary Kenton, DeepMind, senior forskare
  • Ramana Kumar, DeepMind, forskare
  • Michael Osborne, University of Oxford, professor i maskininlärning
  • Adam Smith, Boston University, professor i datavetenskap, Gödel-priset, Kanellakis-priset

Totalt samlades mer än 33 000 namnunderskrifter in.

Andra framstående personer, som Sam Altman (VD, OpenAI), Geoffrey Hinton (Turing Award Winner), Dario Amodei (VD, Anthropic) och Bill Gates, samt över 350 chefer och AI-forskare undertecknade följande uttalande:

Att minska risken för utrotning på grund av AI bör vara en global prioritet tillsammans med andra samhällsrisker, såsom pandemier och kärnvapenkrig.

Faror med artificiell intelligens

2018 körde en självkörande Uber-bil på och dödade en fotgängare.

År 2022 konfigurerade forskare om ett AI-system som ursprungligen utformats för att skapa giftfria, läkande molekyler för framställning av kemiska stridsmedel. Genom att ändra systemets inställningar för att belöna toxicitet istället för att straffa det kunde de snabbt generera 40 000 potentiella molekyler för kemisk krigföring på bara sex timmar.

År 2023 visade forskare hur GPT-4 kunde manipulera en TaskRabbit-anställd att slutföra Captcha-verifieringen. Nyligen rapporterades en tragisk händelse där en person tog sitt eget liv efter en oroande konversation med en chattbot.

GPT-4 klarar Captcha-verifiering

Användningen av AI-system, oavsett deras avsedda syfte, kan leda till negativa konsekvenser, t.ex:

  • Automatiserad förlust av arbetstillfällen
  • Deepfakes och felaktig information
  • Kränkningar av den personliga integriteten
  • Oklar rättslig reglering
  • Algoritmisk partiskhet orsakad av dåliga data
  • Finansiella kriser
  • Cyberbrottslighet
  • Automatisering av vapen
  • Okontrollerbar superintelligens

Systemen för artificiell intelligens blir allt kraftfullare och vi känner inte till deras begränsningar. Dessa system kan användas för skadliga syften. Låt oss titta närmare på de olika riskerna.

Förlorade arbetstillfällen på grund av automatisering med AI

Enligt forskning utförd av Goldman Sachs kan artificiell intelligens få betydande konsekvenser för arbetsmarknaderna i hela världen. Genom att analysera databaser som innehåller uppgifter om över 900 yrken i USA och 2000 yrken i den europeiska ESCO-databasen, uppskattar Goldman Sachs ekonomer att ungefär två tredjedelar av yrkena är utsatta för en viss grad av automatisering genom AI.

Procent av yrken och andel av arbetsbördan som riskerar att automatiseras av AI

Den vertikala axeln visar andel av arbetsbelastningen som är utsatt för automatisering av AI. Den horisontella axeln visar procent av yrkena.

Förändringar i arbetsflöden som orsakas av dessa framsteg kan potentiellt automatisera motsvarande 300 miljoner heltidsjobb. Allt detta automatiserade arbete kommer dock inte att leda till uppsägningar. Många jobb och branscher är bara delvis mottagliga för automatisering, vilket innebär att det är mer sannolikt att de kompletteras av AI än att de ersätts helt.

Seo.ai tar denna prognos ännu längre och uppskattar att cirka 800 miljoner jobb globalt kan komma att ersättas av artificiell intelligens 2030. För att förbereda sig för denna kommande förändring förväntas mer än 120 miljoner arbetstagare genomgå omskolning under de kommande tre åren.

Om du vill veta vilka yrken som är mer mottagliga för automatisering och vilka som är mindre hotade av automatisering, läs vår artikel om ämnet.

Felaktig information

Även de mest avancerade stora språkmodellerna kan generera felaktig eller meningslös information. Dessa fel (hallucinationer) är ofta ett resultat av att modellen förlitar sig på statistiska mönster i de data som den har tränats på snarare än verklig förståelse eller resonemang.

Med andra ord kan chatbotar ibland hitta på fakta. Detta blev tydligt 2023, när en advokat i New York hamnade i blåsväder för att ha använt ChatGPT för att göra juridisk research i ett personskadeärende. Han sammanställde en 10-sidig inlaga med hänvisningar till flera tidigare domstolsbeslut, som alla visade sig vara helt fabricerade av chatboten. Som ett resultat av detta straffades advokaten och en kollega av en federal domare och fick böta 5 000 USD vardera.

År 2024 fick ännu en advokat i New York disciplinära åtgärder för att ha hänvisat till ett icke-existerande fall som genererats av artificiell intelligens.

Artificiell intelligens hallucinerar

Ett annat exempel är Stack Overflow, en webbplats med frågor och svar som främst används av programmerare och utvecklare för att ställa tekniska frågor, söka hjälp med kodningsproblem och dela kunskap inom programmeringsgemenskapen.

Webbplatsen var tvungen att förbjuda all användning av generativ AI, eftersom den genomsnittliga andelen korrekta svar från olika chatbots var för låg trots att svaren vanligtvis såg övertygande ut.

Social manipulering

Sociala medieplattformar översvämmas av så mycket innehåll idag att det kan vara överväldigande att hålla jämna steg med allt. Det är där algoritmisk kurering kommer in. Det hjälper i huvudsak till att sålla igenom allt brus och presentera användare med innehåll som sannolikt kommer att intressera dem baserat på tidigare beteende. Även om detta kan vara till hjälp för att hantera den oändliga informationsströmmen, innebär det också att plattformen har mycket kontroll över att forma vad användarna ser och interagerar med.

Men om man ändrar vad som visas i någons nyhetsflöde kan det påverka deras humör och hur de ser på världen i allmänhet. I januari 2012 visade Facebooks datavetare hur beslut om att kurera nyhetsflödet kunde förändra användarnas lyckonivå. Händelserna i januari 2021 i Capitolium i USA belyste ytterligare hur en persons konsumtion av sociala medier kan spela en roll i radikaliseringen.

Eftersom sensationellt material tenderar att hålla kvar användarna under längre tid kan algoritmerna dessutom oavsiktligt styra användarna mot provocerande och skadligt innehåll för att öka engagemanget. Även att föreslå innehåll baserat på en användares intressen kan vara problematiskt, eftersom det ytterligare kan förankra deras övertygelser i en "filterbubbla" snarare än att utsätta dem för olika perspektiv. Detta kan i slutändan leda till ökad polarisering bland användarna.

Människor i sina bubblor

När vi lämnar över vår beslutanderätt till plattformar ger vi dem i praktiken kontroll över vad vi ser. Sociala medier, med sina avancerade algoritmer, är utmärkta för riktad marknadsföring genom att förstå våra preferenser och tankar. Nya utredningar undersöker Cambridge Analyticas och liknande företags roll i användningen av data från 50 miljoner Facebook-användare för att påverka stora politiska händelser som presidentvalet i USA 2016 och folkomröstningen om Brexit i Storbritannien. Om dessa anklagelser visar sig vara sanna belyser det AI:s potential att manipulera samhället. Ett färskare exempel är Ferdinand Marcos Jr. som använde en trollarmé på TikTok för att påverka yngre väljare i det filippinska presidentvalet 2022. Genom att utnyttja personuppgifter och algoritmer kan AI effektivt rikta specifik propaganda till enskilda personer, oavsett om den är baserad på fakta eller fiktion.

Deepfakes

Deepfakes är digitalt manipulerade videor eller bilder som på ett realistiskt sätt visar en person som säger eller gör något som han eller hon egentligen aldrig har sagt eller gjort. Tekniken använder djupinlärningsalgoritmer för att manipulera befintligt video- och ljudmaterial för att skapa övertygande falskt innehåll.

"Ingen vet vad som är verkligt och vad som inte är det", sa futuristen Martin Ford. "Så det leder verkligen till en situation där du bokstavligen inte kan tro dina egna ögon och öron; du kan inte förlita dig på vad vi historiskt sett har ansett vara bästa möjliga bevis... Det kommer att bli ett enormt problem."

En av de främsta anledningarna till att deepfakes anses vara farliga är deras potential att användas för skadliga ändamål. Deepfakes kan till exempel användas för att skapa falska videobevis i rättsfall, sätta dit personer för brott som de inte har begått eller till och med utge sig för att vara en politisk person för att sprida falsk information. Genom att manipulera medier på det här sättet kan deepfakes rubba förtroendet för traditionella informationskällor och skapa förvirring och osämja i samhället.

Enligt DeepMedia, ett företag som arbetar med verktyg för att upptäcka syntetiska medier, publicerades 500 000 deepfakes på sociala medier globalt under 2023. Det är 3 gånger så många video deepfakes och 8 gånger så många röst deepfakes jämfört med 2022.

Några aktuella exempel på illasinnad användning av deepfakes är skapandet av falsk kändispornografi, där kändisars ansikten digitalt infogas i pornografiska videor utan deras samtycke. Det har också förekommit att deepfake-videor har använts för att manipulera aktiekurser, smutskasta personer eller sprida politisk propaganda. Dessa exempel visar att deepfakes kan användas för skadliga och vilseledande syften.

Cyberbrottslighet

Cyberbrottslighet omfattar ett brett spektrum av kriminella aktiviteter som använder digitala enheter och nätverk. Dessa brott inbegriper användning av teknik för att begå bedrägerier, identitetsstöld, dataintrång, datavirus, bedrägerier och andra skadliga handlingar. Cyberbrottslingar utnyttjar svagheter i datorsystem och nätverk för att få obehörig åtkomst, stjäla känslig information, störa tjänster och orsaka skada för individer, organisationer och regeringar.

Angriparna använder allt oftare lättillgängliga AI-verktyg som ChatGPT, Dall-E och Midjourney för automatiserade nätfiskeattacker, imitationsattacker, sociala ingenjörsattacker och falska chatbots för kundsupport.

Enligt SlashNext State of Phishing Report 2023 har det skett en ökning med 1265% av skadliga phishing-e-postmeddelanden, vilket till stor del beror på användningen av AI-verktyg för riktade attacker.

Imitationsattacker blir allt vanligare. Bedragare använder ChatGPT och andra verktyg för att utge sig för att vara riktiga personer och organisationer, och ägnar sig åt identitetsstöld och bedrägerier. I likhet med nätfiskeattacker använder de chatbots för att skicka röstmeddelanden där de utger sig för att vara en pålitlig vän, kollega eller familjemedlem för att få tag på personlig information eller tillgång till konton. I ett uppmärksammat fall från mars 2019 föll chefen för ett brittiskt dotterbolag till ett tyskt energibolag offer för en bedragare som imiterade vd:ns röst, vilket ledde till en överföring av nästan 200 000 pund (243 000 dollar) till ett ungerskt bankkonto. Pengarna flyttades senare till Mexiko och spreds till flera olika platser. Utredarna har inte identifierat några misstänkta.

Cyberbrott och straff

Under 2023 mottog Internet Crime Complaint Center (IC3) ett aldrig tidigare skådat antal klagomål från den amerikanska allmänheten: totalt 880 418 klagomål lämnades in, med potentiella förluster på över 12,5 miljarder dollar. Detta innebär en ökning med nästan 10 % av antalet inkomna klagomål och en ökning med 22 % av förlusterna jämfört med 2022. Trots dessa häpnadsväckande siffror är det viktigt att notera att de sannolikt underskattar den verkliga omfattningen av cyberbrottsligheten 2023. När FBI nyligen avvecklade ransomware-gruppen Hive upptäckte man till exempel att endast omkring 20 % av Hives offer hade anmält brottet till polisen.

Intrång i privatlivet

Ett utmärkt exempel på social övervakning är Kinas användning av ansiktsigenkänningsteknik på kontor, skolor och andra platser. Denna teknik gör det inte bara möjligt att spåra individers rörelser, utan också potentiellt för regeringen att samla in omfattande data för att övervaka deras handlingar, aktiviteter, relationer och ideologiska övertygelser.

Individer kan nu övervakas både online och i sitt dagliga liv. Varje medborgare utvärderas utifrån sitt beteende, t.ex. om man går mot rött, röker i rökfria områden eller ägnar tid åt att spela videospel. Tänk dig att varje handling påverkar din personliga poäng inom det sociala kreditsystemet.

När Storebror tittar på dig och sedan fattar beslut baserat på den informationen är det inte bara ett intrång i privatlivet utan kan snabbt förvandlas till socialt förtryck.

Finansiella kriser

I dagens finansvärld är användningen av algoritmer för maskininlärning utbredd, och hedgefonder och värdepappersföretag förlitar sig i hög grad på dessa modeller för att analysera aktier och tillgångar. Dessa algoritmer matas ständigt med enorma mängder traditionella och alternativa data för att fatta handelsbeslut. Det finns dock en växande oro för att algoritmisk handel potentiellt kan utlösa nästa stora finanskris.

Flashkraschen 2010. 600 miljarder dollar försvann på 20 minuter

Flashkraschen 2010. 600 miljarder dollar försvann på 20 minuter

Ett anmärkningsvärt exempel på farorna med felaktiga algoritmer är Flash Crash 2010, då aktiemarknaden plötsligt föll med nästan 1 000 punkter på bara några minuter innan den snabbt återhämtade sig. Även om marknadsindexen delvis återhämtade sig under samma dag raderade Flash Crash ut nästan 1 biljon dollar i marknadsvärde. Det plötsliga och drastiska prisfallet berodde till stor del på att automatiserade handelsalgoritmer reagerade på marknadsförhållandena på ett oförutsägbart sätt. Ett annat exempel var Knight Capital Flash Crash 2012, där en felaktig algoritm fick företaget att förlora 440 miljoner dollar på bara 45 minuter, vilket i slutändan ledde till dess fall.

Dessa krascher är en allvarlig påminnelse om de potentiella riskerna med algoritmisk handel på finansmarknaderna. När algoritmer inte utformas, testas eller övervakas på rätt sätt kan de få katastrofala följder. Det är mycket viktigt att finansinstituten noggrant granskar sina algoritmer och ser till att det finns lämpliga riskhanteringsrutiner på plats för att förhindra att liknande katastrofer inträffar i framtiden.

Mördande robotar

Autonoma vapen som drivs av artificiell intelligens (AI) har länge varit ett ämne för debatt och oro bland regeringar, militära tjänstemän och människorättsförespråkare. Dessa system, som även kallas "mördarrobotar" eller "dödliga autonoma vapen", har förmågan att självständigt välja ut och bekämpa mål utan mänsklig inblandning. Detta ger upphov till betydande etiska, rättsliga och säkerhetsmässiga problem, eftersom dessa vapen har potential att fatta beslut om liv eller död utan mänsklig övervakning.

Utvecklingen av autonoma vapen har accelererat under de senaste åren, i takt med att AI-tekniken har blivit mer avancerad och utbredd. Dessa vapen kan vara allt från obemannade drönare till markbaserade system som självständigt kan identifiera och attackera mål. Förespråkare av autonoma vapen hävdar att de kan minska antalet dödsoffer i konfliktområden och ge mer precisa och effektiva militära operationer. Kritiker menar dock att dessa system väcker allvarliga etiska frågor och kan få oavsiktliga konsekvenser, såsom upptrappning av konflikter och civila dödsoffer.

Faran med autonoma vapen som drivs av AI är mycket verklig. Dessa system kan potentiellt hackas eller fungera dåligt, vilket kan leda till oavsiktliga konsekvenser och förlust av kontroll. Bristen på mänsklig insyn i beslutsfattandet väcker dessutom frågor om ansvarsskyldighet och risken för brott mot internationell humanitär rätt.

Mördarrobotar i science fiction

År 2020 krävde över 30 länder ett förbud mot dödliga autonoma vapen, med hänvisning till farhågor om att maskiner skulle kunna fatta beslut om liv eller död. Trots denna oro fortsätter utvecklingen och användningen av autonoma vapen som drivs av AI att gå framåt. Länder som USA, Ryssland, Kina och Israel är kända för att investera kraftigt i denna teknik. I USA har försvarsdepartementet utvecklat autonoma vapensystem, inklusive halvautonoma drönare och obemannade markfordon.

Okontrollerbar superintelligens

Artificiell intelligens överträffar den mänskliga hjärnan på många sätt, t.ex. när det gäller beräkningshastighet, intern kommunikationshastighet, skalbarhet, minneskapacitet, tillförlitlighet, duplicerbarhet, redigerbarhet, minnesdelning och inlärningsförmåga:

  • AI arbetar med potentiellt flera GHz jämfört med de biologiska nervcellernas gräns på 200 Hz.
  • Axoner överför signaler med 120 m/s, medan datorer gör det med elektricitetens eller ljusets hastighet.
  • AI kan enkelt skalas upp genom att lägga till mer hårdvara, till skillnad från mänsklig intelligens som begränsas av hjärnstorlek och social kommunikationseffektivitet.
  • Människans arbetsminne är begränsat jämfört med AI:s expansiva minneskapacitet.
  • Tillförlitligheten hos transistorer i AI överträffar den hos biologiska neuroner, vilket möjliggör högre precision och mindre redundans.
  • AI-modeller kan enkelt dupliceras, modifieras och lära sig av andra AI-erfarenheter på ett mer effektivt sätt än människor.

En dag kan AI nå en intelligensnivå som vida överträffar människans och leda till vad som kallas en intelligensexplosion.

Superintelligens och människans utdöende

Denna idé om rekursiv självförbättring, där AI kontinuerligt förbättrar sig själv i en exponentiell takt, har väckt farhågor om de potentiella konsekvenserna av att skapa en superintelligent enhet. Föreställ dig ett scenario där AI når en intelligensnivå som gör att den kan övertänka och överträffa människan på alla tänkbara sätt. Denna superintelligens skulle potentiellt kunna ha makten att fatta beslut som i hög grad påverkar vårt samhälle och vårt sätt att leva. Precis som vi människor för närvarande håller många arters öde i våra händer, kan mänsklighetens öde en dag ligga i händerna på en superintelligent AI.

Övertro på AI och juridiskt ansvar

Om man förlitar sig för mycket på AI-teknik kan det leda till att det mänskliga inflytandet och den mänskliga funktionen minskar inom vissa områden i samhället. Om AI används inom sjukvården kan det till exempel leda till att människans empati och förmåga att resonera minskar. Att använda generativ AI för kreativa syften kan dessutom kväva mänsklig kreativitet och känslomässiga uttryck. Överdriven interaktion med AI-system kan också leda till försämrad kommunikation med andra människor och försämrad social kompetens. Även om AI kan vara bra för att automatisera uppgifter finns det farhågor om dess inverkan på människans allmänna intelligens, förmågor och känsla av gemenskap.

Dessutom finns det potentiella faror som kan leda till fysisk skada på människor. Om företag till exempel enbart förlitar sig på AI-förutsägelser för underhållsscheman utan annan verifiering kan det leda till maskinfel som skadar arbetare. Inom sjukvården kan AI-modeller leda till feldiagnoser.

Förutom fysiska skador finns det även icke-fysiska sätt på vilka AI kan utgöra en risk för människor om den inte regleras på rätt sätt. Det kan handla om digital säkerhet som förtal eller ärekränkning, ekonomisk säkerhet som missbruk av AI i finansiella rekommendationer eller kreditkontroller, och rättvisefrågor som rör fördomar i AI som leder till orättvisa avvisanden eller accepteranden i olika program.

Och när något går fel, vem ska då hållas ansvarig? Är det själva AI:n, utvecklaren som skapade den, företaget som tog den i bruk, eller är det operatören om en människa var inblandad?

* * *

Sammanfattningsvis har artificiell intelligens visserligen många risker och hot, men den har också potential att i hög grad gynna samhället och förbättra våra liv. Det är viktigt att inse att de goda sidorna ofta överväger de dåliga när det gäller AI-teknik. I vår nästa artikel kommer vi att diskutera strategier för att minska riskerna med AI och se till att vi fullt ut kan utnyttja dess potential för positiv förändring.