Od znanstvene fantastike do stvarnosti: stvarne opasnosti umjetne inteligencije
Uspon umjetne inteligencije predstavlja značajan tehnološki iskorak koji je spreman revolucionirati društvo slično kao što su to učinili Internet, osobna računala i mobilni telefoni. Njegov je utjecaj sveprisutan, infiltrira se u različite aspekte ljudskog života od posla i obrazovanja do slobodnih aktivnosti. Brzi napredak neuronskih mreža izaziva određenu zabrinutost, što nas tjera da u ovom članku istražimo potencijalne opasnosti koje umjetna inteligencija može predstavljati za čovječanstvo.
Je li UI opasna? Tko je izrazio zabrinutost?
U znanstveno-fantastičnim filmovima popularna je tema ideja o nekontroliranoj umjetnoj inteligenciji koja želi dominirati ili uništiti čovječanstvo, kao što se vidi u filmovima poput "Matrixa" i "Terminatora". S brzim tempom današnjeg tehnološkog napretka, prosječnoj osobi može biti izazovno držati korak. Brz napredak umjetne inteligencije uzrokuje brzu prilagodbu naših društava, što potiče strahove zbog složenosti ovih tehnologija i urođenog ljudskog straha od nepoznatog.
Ne samo da su obični pojedinci zabrinuti zbog umjetne inteligencije, već i stručnjaci na tom području izražavaju svoju zabrinutost. Na primjer, Geoffrey Hinton, kojeg se često naziva "kumom umjetne inteligencije", izrazio je vlastita strahovanja:
Te bi stvari mogle postati inteligentnije od nas i mogle bi odlučiti preuzeti vlast, a sada se moramo brinuti o tome kako to spriječiti.
Dugo sam mislio da smo od toga udaljeni 30 do 50 godina. Dakle, ja to zovem daleko od nečega što ima veću opću inteligenciju od osobe. Sad, mislim da smo možda puno bliže, možda samo pet godina od toga.
Postoji ozbiljna opasnost da ćemo stvari uskoro učiniti pametnijima i da te stvari mogu dobiti loše motive i preuzeti kontrolu.
22. ožujka 2023. objavljeno je otvoreno pismo u kojem se poziva na zaustavljanje razvoja umjetne inteligencije moćnije od GPT-4 na razdoblje od šest mjeseci:
Suvremeni AI sustavi sada postaju konkurentni ljudima u općim zadacima i moramo se zapitati: Trebamo li dopustiti strojevima da preplave naše informacijske kanale propagandom i neistinom? Trebamo li automatizirati sve poslove, uključujući i one koji ispunjavaju? Trebamo li razviti neljudske umove koji bi nas na kraju mogli nadmašiti, nadmudriti, zastarjeti i zamijeniti nas? Trebamo li riskirati gubitak kontrole nad našom civilizacijom? Takve se odluke ne smiju prenijeti na neizabrane tehnološke vođe. Snažne sustave umjetne inteligencije treba razvijati tek kada budemo sigurni da će njihovi učinci biti pozitivni i da će se rizicima moći upravljati. Ovo povjerenje mora biti dobro opravdano i povećavati se s veličinom potencijalnih učinaka sustava.
Pismo je potpisalo 1800 čelnika tehnoloških kompanija, 1500 profesora, znanstvenika i istraživača u području umjetne inteligencije:
- Elon Musk, izvršni direktor SpaceX-a, Tesle i Twittera
- Steve Wozniak, suosnivač, Apple
- Emad Mostaque, izvršni direktor, Stability AI
- Jaan Tallinn, suosnivač Skypea, Centra za proučavanje egzistencijalnog rizika, Instituta budućnosti života
- Evan Sharp, suosnivač, Pinterest
- Craig Peters, izvršni direktor, Getty Images
- Mark Nitzberg, Centar za umjetnu inteligenciju kompatibilnu s ljudima, UC Berkeley, izvršni direktor
- Gary Marcus, Sveučilište New York, istraživač umjetne inteligencije, profesor emeritus
- Zachary Kenton, DeepMind, viši znanstveni suradnik
- Ramana Kumar, DeepMind, istraživač
- Michael Osborne, Sveučilište u Oxfordu, profesor strojnog učenja
- Adam Smith, Sveučilište u Bostonu, profesor informatike, Gödelova nagrada, Kanellakisova nagrada
Ukupno je prikupljeno više od 33.000 potpisa.
Druge značajne osobe, kao što su Sam Altman (CEO, OpenAI), Geoffrey Hinton (dobitnik nagrade Turing), Dario Amodei (CEO, Anthropic) i Bill Gates, kao i preko 350 rukovoditelja i istraživača umjetne inteligencije potpisali su sljedeću izjavu:
Ublažavanje rizika od izumiranja od U.I. trebao biti globalni prioritet uz druge rizike na društvenoj razini, kao što su pandemije i nuklearni rat.
Opasnosti umjetne inteligencije
Godine 2018. samovozeći Uberov automobil udario je i ubio pješaka.
Godine 2022. znanstvenici su rekonfigurirali sustav umjetne inteligencije koji je izvorno dizajniran za stvaranje netoksičnih, ljekovitih molekula za proizvodnju kemijskih bojnih agenasa. Promjenom postavki sustava da nagrađuju toksičnost umjesto da je kažnjavaju, uspjeli su brzo generirati 40.000 potencijalnih molekula za kemijsko ratovanje u samo šest sati.
Godine 2023. istraživači su pokazali kako GPT-4 može manipulirati TaskRabbit radnikom da dovrši Captcha provjeru. Nedavno je prijavljen tragični incident u kojem si je osoba oduzela život nakon uznemirujućeg razgovora s chatbotom.
Korištenje sustava umjetne inteligencije, bez obzira na njihovu namjenu, može dovesti do negativnih posljedica, kao što su:
- Gubitak posla potaknut automatizacijom
- Deepfake i dezinformacije
- Povrede privatnosti
- Nejasna pravna regulativa
- Algoritamska pristranost uzrokovana lošim podacima
- Financijske krize
- Cyber kriminal
- Automatizacija oružja
- Nekontrolirana superinteligencija
Sustavi umjetne inteligencije postaju sve moćniji, a ne znamo njihova ograničenja. Ti se sustavi mogu koristiti u zlonamjerne svrhe. Razmotrimo pobliže različite rizike.
Gubitak poslova zbog automatizacije pomoću umjetne inteligencije
Prema istraživanju koje je proveo Goldman Sachs, umjetna inteligencija može značajno utjecati na tržišta rada diljem svijeta. Analizirajući baze podataka koje detaljno opisuju sadržaj zadataka više od 900 zanimanja u SAD-u i 2000 zanimanja u europskoj ESCO bazi podataka, ekonomisti Goldman Sachsa procjenjuju da je otprilike dvije trećine zanimanja izloženo određenom stupnju automatizacije pomoću umjetne inteligencije.
Okomita os prikazuje udio radnog opterećenja na radnom mjestu izloženom automatizaciji pomoću umjetne inteligencije. Vodoravna os pokazuje postotak zanimanja.
Promjene u radnim procesima uzrokovane ovim napretkom potencijalno bi mogle automatizirati ekvivalent od 300 milijuna poslova s punim radnim vremenom. Međutim, neće sav ovaj automatizirani rad dovesti do otpuštanja. Mnogi poslovi i industrije samo su djelomično podložni automatizaciji, što znači da je vjerojatnije da će biti nadopunjeni umjetnom inteligencijom, a ne potpuno zamijenjeni.
Seo.ai ide dalje od ovog predviđanja, procjenjujući da bi se oko 800 milijuna radnih mjesta na globalnoj razini moglo zamijeniti umjetnom inteligencijom do 2030. Kako bi se pripremili za ovu nadolazeću promjenu, očekuje se da će tijekom sljedeće tri godine više od 120 milijuna radnika proći prekvalifikaciju .
Ako želite znati koja su zanimanja podložnija automatizaciji, a koja su manje ugrožena automatizacijom, pogledajte naš članak na tu temu.
Dezinformacija
Čak su i najnapredniji veliki jezični modeli osjetljivi na generiranje netočnih ili besmislenih informacija. Ove pogreške (halucinacije) često su rezultat oslanjanja modela na statističke obrasce u podacima na kojima je uvježban, a ne na pravo razumijevanje ili zaključivanje.
Drugim riječima, chatbotovi ponekad mogu izmišljati činjenice. To je postalo jasno 2023. godine, kada je njujorški odvjetnik dobio vruću vodu zbog korištenja ChatGPT-a za provođenje pravnog istraživanja za slučaj tjelesne ozljede. Sastavio je sažetak na 10 stranica, pozivajući se na nekoliko prethodnih sudskih odluka, za koje je chatbot dokazao da su sve potpuno izmišljene. Kao rezultat toga, savezni sudac je sankcionirao odvjetnika i kolegu i kaznio ih s po 5000 dolara.
Godine 2024. još je jedan njujorški odvjetnik disciplinski kažnjen zbog citiranja nepostojećeg slučaja koji je generirala umjetna inteligencija.
Drugi primjer je Stack Overflow, web stranica s pitanjima i odgovorima koju primarno koriste programeri i programeri za postavljanje tehničkih pitanja, traženje pomoći s problemima kodiranja i dijeljenje znanja unutar programerske zajednice.
Stranica je morala zabraniti svu upotrebu generativne umjetne inteligencije jer je prosječna stopa dobivanja točnih odgovora od raznih chatbota bila preniska iako su odgovori obično izgledali uvjerljivo.
Društvena manipulacija
Platforme društvenih medija danas su preplavljene s toliko sadržaja da može biti neodoljivo pratiti sve to. Tu na scenu stupa algoritamsko kuriranje. Ono u biti pomaže u prosijavanju kroz svu buku i predstavlja korisnicima sadržaj koji će ih najvjerojatnije zanimati na temelju ponašanja u prošlosti. Iako to može biti od pomoći u upravljanju beskonačnim protokom informacija, to također znači da platforma ima puno kontrole u oblikovanju onoga što korisnici vide i s čime komuniciraju.
Međutim, promjena onoga što se prikazuje na nečijem feedu vijesti može utjecati na njegovo raspoloženje i općenito na to kako gleda na svijet. U siječnju 2012., Facebookovi podatkovni znanstvenici pokazali su kako odluke o vođenju News Feeda mogu promijeniti razinu sreće korisnika. Događaji u siječnju 2021. u SAD-u na US Capitolu dodatno su istaknuli kako nečija upotreba društvenih medija može igrati ulogu u radikalizaciji.
Osim toga, budući da senzacionalni materijal ima tendenciju zadržati korisnike na duljem vremenskom razdoblju, algoritmi mogu nenamjerno usmjeriti korisnike prema provokativnom i štetnom sadržaju kako bi povećali angažman. Čak i predlaganje sadržaja temeljenog na interesima korisnika može biti problematično, jer može dodatno učvrstiti njihova uvjerenja unutar "mjehura filtera" umjesto da ih izloži različitim perspektivama. To u konačnici može rezultirati povećanom polarizacijom među korisnicima.
Kada svoju moć donošenja odluka predamo platformama, u biti im dajemo kontrolu nad onim što vidimo. Društveni mediji, sa svojim naprednim algoritmima, izvrsni su u ciljanom marketingu razumijevanjem naših preferencija i razmišljanja. Nedavne istrage istražuju ulogu Cambridge Analytice i sličnih tvrtki u korištenju podataka od 50 milijuna korisnika Facebooka kako bi utjecali na velike političke događaje poput predsjedničkih izbora u SAD-u 2016. i referenduma o Brexitu u Ujedinjenom Kraljevstvu. Ako se ove tvrdnje pokažu točnima, to naglašava potencijal umjetne inteligencije da manipulira društvom. Noviji primjer je Ferdinand Marcos, Jr. koji koristi TikTok vojsku trolova kako bi pridobio mlađe glasače na filipinskim predsjedničkim izborima 2022. Koristeći osobne podatke i algoritme, AI može učinkovito ciljati pojedince specifičnom propagandom, bilo da se temelji na činjenicama ili fikciji.
Deepfakes
Deepfakes se odnose na digitalno izmijenjene videozapise ili slike koje realno prikazuju pojedinca koji govori ili radi nešto što zapravo nikada nije rekao ili učinio. Ova tehnologija koristi algoritme dubinskog učenja za manipuliranje postojećim video i audio snimkama za stvaranje uvjerljivog lažnog sadržaja.
"Nitko ne zna što je stvarno, a što nije", rekao je futurist Martin Ford. “Dakle, to stvarno dovodi do situacije u kojoj doslovno ne možete vjerovati vlastitim očima i ušima; ne možete se osloniti na ono što smo, povijesno gledano, smatrali najboljim mogućim dokazom... To će biti veliki problem.”
Jedan od glavnih razloga zašto se deepfakeovi smatraju opasnima je njihov potencijal korištenja u zlonamjerne svrhe. Na primjer, deepfake se može koristiti za stvaranje lažnih videodokaza u pravnim slučajevima, namještanje pojedinaca za zločine koje nisu počinili ili čak oponašanje političke ličnosti za širenje lažnih informacija. Manipulirajući medijima na ovaj način, deepfakeovi imaju moć narušiti povjerenje u tradicionalne izvore informacija i posijati zbrku i razdor u društvu.
Prema DeepMedia, tvrtki koja radi na alatima za otkrivanje sintetičkih medija, 500.000 deepfakeova objavljeno je na društvenim mrežama širom svijeta 2023. To je 3 puta više videodeepfakeova i 8 puta više glasovnih deepfakeova u usporedbi s 2022. godinom.
Neki nedavni primjeri zlonamjerne upotrebe deepfakea uključuju stvaranje lažne pornografije slavnih, gdje se lica slavnih digitalno ubacuju u pornografske videozapise bez njihova pristanka. Osim toga, bilo je slučajeva da se deepfake videozapisi koriste za manipuliranje cijenama dionica, klevetanje pojedinaca ili širenje političke propagande. Ovi primjeri naglašavaju mogućnost da se deepfakeovi koriste u štetne i prijevarne svrhe.
Cyber kriminal
Kibernetički kriminal obuhvaća širok raspon kriminalnih aktivnosti koje koriste digitalne uređaje i mreže. Ovi zločini uključuju korištenje tehnologije za počinjenje prijevare, krađu identiteta, povrede podataka, računalne viruse, prijevare i druge zlonamjerne radnje. Kibernetički kriminalci iskorištavaju slabosti u računalnim sustavima i mrežama kako bi dobili neovlašteni pristup, ukrali osjetljive podatke, prekinuli usluge i nanijeli štetu pojedincima, organizacijama i vladama.
Protivnici sve više koriste lako dostupne UI alate kao što su ChatGPT, Dall-E i Midjourney za automatizirane napade krađe identiteta, napade lažnim predstavljanjem, napade društvenim inženjeringom i lažne chatbotove korisničke podrške.
Prema SlashNext State of Phishing Report 2023, došlo je do skoka od 1265% u zlonamjernim phishing e-porukama, što se uglavnom pripisuje upotrebi UI alata za ciljane napade.
Napadi lažnim predstavljanjem postaju sve češći. Prevaranti koriste ChatGPT i druge alate za lažno predstavljanje stvarnih pojedinaca i organizacija, upuštajući se u krađu identiteta i prijevaru. Slično phishing napadima, oni koriste chatbotove za slanje glasovnih poruka predstavljajući se kao pouzdani prijatelj, kolega ili član obitelji kako bi dobili osobne podatke ili pristup računima. U značajnom slučaju iz ožujka 2019., voditelj britanske podružnice njemačke energetske tvrtke postao je žrtva prevaranta koji je oponašao glas glavnog izvršnog direktora, što je dovelo do prijenosa gotovo 200.000 funti (243.000 dolara) na mađarski bankovni račun. Sredstva su kasnije preseljena u Meksiko i raspršena na više lokacija. Istražitelji nisu identificirali nijednog osumnjičenika.
U 2023. godini Centar za pritužbe na internetski kriminal (IC3) primio je nezabilježen broj pritužbi američke javnosti: podneseno je ukupno 880 418 pritužbi, s potencijalnim gubicima većim od 12,5 milijardi dolara. To znači povećanje od gotovo 10% u broju zaprimljenih pritužbi i povećanje gubitaka od 22% u usporedbi s 2022. Unatoč ovim zapanjujućim brojkama, važno je napomenuti da one vjerojatno podcjenjuju pravi opseg kibernetičkog kriminala u 2023. Na primjer, kada FBI je nedavno rasturio skupinu Hive ransomwarea, otkriveno je da je samo oko 20% žrtava Hivea prijavilo zločin policiji.
Narušavanje privatnosti
Glavni primjer društvenog nadzora je upotreba tehnologije prepoznavanja lica u Kini u uredima, školama i na drugim mjestima. Ova tehnologija ne samo da omogućuje praćenje kretanja pojedinaca, već potencijalno omogućuje vladi prikupljanje opsežnih podataka za praćenje njihovih postupaka, aktivnosti, odnosa i ideoloških uvjerenja.
Pojedinci se sada mogu pratiti i online i u svakodnevnom životu. Svaki se građanin ocjenjuje na temelju ponašanja, kao što je jaywalking, pušenje u nepušačkim prostorima i vrijeme provedeno igrajući video igrice. Zamislite da svaka radnja utječe na vaš osobni rezultat unutar sustava društvenog kredita.
Kad vas Big Brother promatra i onda donosi odluke na temelju tih informacija, to nije samo zadiranje u privatnost, već se brzo može pretvoriti u društvenu opresiju.
Financijske krize
U današnjem financijskom svijetu upotreba algoritama strojnog učenja široko je rasprostranjena, a hedge fondovi i investicijske tvrtke uvelike se oslanjaju na te modele za analizu dionica i imovine. Ovi se algoritmi neprestano napajaju ogromnim količinama tradicionalnih i alternativnih podataka za donošenje odluka o trgovanju. Međutim, raste zabrinutost da bi algoritamsko trgovanje potencijalno moglo izazvati sljedeću veliku financijsku krizu.
2010 Flash Crash. 600 milijardi dolara nestalo je u 20 minuta
Jedan značajan primjer opasnosti neispravnih algoritama je Flash Crash 2010., kada je burza iznenada pala za gotovo 1000 bodova u nekoliko minuta prije nego što se brzo oporavila. Iako su se tržišni indeksi uspjeli djelomično oporaviti u istom danu, Flash Crash je izbrisao gotovo 1 trilijun dolara tržišne vrijednosti. Ovaj iznenadni i drastičan pad cijena uvelike se pripisuje algoritmima automatiziranog trgovanja koji reagiraju na tržišne uvjete na nepredvidiv način. Još jedan primjer bio je Knight Capital Flash Crash 2012., gdje je neispravan algoritam uzrokovao gubitak tvrtke od 440 milijuna dolara u samo 45 minuta, što je u konačnici dovelo do njezine propasti.
Ovi padovi služe kao otrežnjujući podsjetnici na potencijalne rizike koje predstavlja algoritamsko trgovanje na financijskim tržištima. Kada algoritmi nisu pravilno dizajnirani, testirani ili nadzirani, mogu imati katastrofalne posljedice. Od ključne je važnosti da financijske institucije temeljito provjere svoje algoritme i osiguraju odgovarajuće prakse upravljanja rizikom kako bi se spriječile slične katastrofe u budućnosti.
Roboti ubojice
Autonomno oružje koje pokreće umjetna inteligencija (UI) dugo je tema rasprave i zabrinutosti među vladama, vojnim dužnosnicima i zagovornicima ljudskih prava. Ovi sustavi, također poznati kao "roboti ubojice" ili "smrtonosna autonomna oružja", imaju sposobnost samostalnog odabira i gađanja ciljeva bez ljudske intervencije. Ovo izaziva značajnu etičku, pravnu i sigurnosnu zabrinutost, jer ovo oružje ima potencijal donijeti odluke o životu ili smrti bez ljudskog nadzora.
Razvoj autonomnog oružja ubrzao se posljednjih godina, kako je UI tehnologija postala naprednija i raširenija. To oružje može varirati od bespilotnih letjelica do zemaljskih sustava koji mogu autonomno identificirati i napadati ciljeve. Zagovornici autonomnog oružja tvrde da ono može smanjiti ljudske žrtve u zonama sukoba i omogućiti preciznije i učinkovitije vojne operacije. Međutim, kritičari tvrde da ovi sustavi pokreću ozbiljna etička pitanja i mogu imati neželjene posljedice, poput eskalacije sukoba i civilnih žrtava.
Opasnost koju predstavlja autonomno oružje koje pokreće UI vrlo je stvarna. Ovi sustavi mogu biti hakirani ili kvarovi, što dovodi do neželjenih posljedica i gubitka kontrole. Osim toga, nedostatak ljudskog nadzora u donošenju odluka izaziva zabrinutost u pogledu odgovornosti i mogućnosti kršenja međunarodnog humanitarnog prava.
Godine 2020. više od 30 zemalja pozvalo je na zabranu smrtonosnog autonomnog oružja, navodeći zabrinutost zbog mogućnosti da strojevi donose odluke o životu ili smrti. Unatoč tim zabrinutostima, razvoj i implementacija autonomnog oružja pokretanog umjetnom inteligencijom nastavlja napredovati. Poznato je da zemlje poput Sjedinjenih Država, Rusije, Kine i Izraela ulažu velika sredstva u ove tehnologije. U SAD-u Ministarstvo obrane razvija autonomne sustave naoružanja, uključujući poluautonomne dronove i bespilotna kopnena vozila.
Nekontrolirana superinteligencija
Umjetna inteligencija nadmašuje ljudski mozak na razne načine, uključujući brzinu računanja, brzinu interne komunikacije, skalabilnost, kapacitet memorije, pouzdanost, mogućnost umnožavanja, mogućnost uređivanja, dijeljenje memorije i sposobnosti učenja:
- UI radi na potencijalno više GHz u usporedbi s ograničenjem od 200 Hz bioloških neurona.
- Aksoni prenose signale brzinom od 120 m/s, dok računala to rade brzinom elektriciteta ili svjetlosti.
- AI se može lako skalirati dodavanjem više hardvera, za razliku od ljudske inteligencije ograničene veličinom mozga i učinkovitošću društvene komunikacije.
- Radna memorija kod ljudi ograničena je u usporedbi s ekspanzivnim memorijskim kapacitetom umjetne inteligencije.
- Pouzdanost tranzistora u umjetnoj inteligenciji nadilazi pouzdanost bioloških neurona, omogućujući veću preciznost i manju redundanciju.
- Modeli umjetne inteligencije mogu se lako duplicirati, modificirati i mogu učiti iz drugih iskustava umjetne inteligencije učinkovitije od ljudi.
Jednog dana UI može dosegnuti razinu inteligencije koja daleko nadmašuje ljudsku, što dovodi do onoga što je poznato kao eksplozija inteligencije.
Ova ideja o rekurzivnom samopoboljšanju, gdje se umjetna inteligencija neprestano poboljšava eksponencijalnom brzinom, izazvala je zabrinutost o mogućim posljedicama stvaranja superinteligentnog entiteta. Zamislite scenarij u kojem umjetna inteligencija doseže razinu inteligencije koja mu omogućuje da nadmaši ljude i nadmaši ih na svaki mogući način. Ova superinteligencija potencijalno bi mogla imati moć donošenja odluka koje uvelike utječu na naše društvo i način života. Baš kao što ljudi trenutno drže sudbinu mnogih vrsta u našim rukama, sudbina čovječanstva bi jednog dana mogla biti u rukama superinteligentne umjetne inteligencije.
Pretjerano oslanjanje na umjetnu inteligenciju i pravnu odgovornost
Preveliko oslanjanje na UI tehnologiju moglo bi rezultirati smanjenjem ljudskog utjecaja i funkcioniranja u određenim područjima društva. Na primjer, korištenje umjetne inteligencije u zdravstvu može dovesti do smanjenja ljudske empatije i razmišljanja. Osim toga, korištenje generativne umjetne inteligencije za kreativne potrage moglo bi ugušiti ljudsku kreativnost i emocionalno izražavanje. Pretjerana interakcija sa sustavima umjetne inteligencije također bi mogla dovesti do pada komunikacije s vršnjacima i društvenih vještina. Iako umjetna inteligencija može biti korisna za automatizaciju zadataka, postoji zabrinutost zbog njezina utjecaja na ukupnu ljudsku inteligenciju, sposobnosti i osjećaj zajedništva.
Nadalje, postoje potencijalne opasnosti koje mogu rezultirati fizičkim ozljedama ljudi. Na primjer, ako se tvrtke oslanjaju isključivo na predviđanja umjetne inteligencije za rasporede održavanja bez druge provjere, to bi moglo rezultirati kvarovima na strojevima koji bi mogli oštetiti radnike. U zdravstvu bi modeli umjetne inteligencije mogli dovesti do pogrešnih dijagnoza.
Osim fizičkih ozljeda, postoje nefizički načini na koje umjetna inteligencija može predstavljati rizik za ljude ako nije pravilno regulirana. To uključuje probleme s digitalnom sigurnošću kao što je kleveta ili uvreda, financijsku sigurnost kao što je zlouporaba umjetne inteligencije u financijskim preporukama ili provjerama kreditne sposobnosti te brigu o pravednosti u vezi s pristranostima u umjetnoj inteligenciji koje dovode do nepravednih odbijanja ili prihvaćanja u raznim programima.
I, kada nešto krene po zlu, tko treba za to odgovarati? Je li to sama umjetna inteligencija, programer koji ju je stvorio, tvrtka koja ju je stavila u upotrebu ili je to operater ako je čovjek bio uključen?
* * *
Zaključno, iako umjetna inteligencija nosi mnoge rizike i prijetnje, ona također ima potencijal uvelike koristiti društvu i poboljšati naše živote. Važno je prepoznati da dobro često nadmašuje loše kada je u pitanju UI tehnologija. U našem sljedećem članku raspravljat ćemo o strategijama za ublažavanje rizika povezanih s umjetnom inteligencijom, osiguravajući da možemo u potpunosti iskoristiti njezin potencijal za pozitivne promjene.