Nazaj na glavno

Od znanstvene fantastike do resničnosti: Resnične nevarnosti umetne inteligence

Vzpon umetne inteligence je pomemben tehnološki preboj, ki bo povzročil revolucijo v družbi, podobno kot so jo povzročili internet, osebni računalniki in mobilni telefoni. Njen vpliv je vseprisoten in prodira v različne vidike človeškega življenja, od dela in izobraževanja do prostočasnih dejavnosti. Hiter razvoj nevronskih omrežij povzroča nekatere skrbi, zato smo v tem članku raziskali potencialne nevarnosti, ki jih umetna inteligenca lahko predstavlja za človeštvo.

Ali je umetna inteligenca nevarna? Kdo je izrazil zaskrbljenost?

V znanstvenofantastičnih filmih je ideja o nenadzorovani umetni inteligenci, ki želi nadvladati ali uničiti človeštvo, priljubljena tema, kot je razvidno iz filmov, kot sta "Matrica" in "Terminator". Zaradi hitrega tehnološkega napredka je danes za povprečnega človeka lahko izziv, da bi ga dohajal. Zaradi hitrega napredka umetne inteligence se naša družba hitro prilagaja, kar sproža strahove zaradi kompleksnosti teh tehnologij in prirojenega človeškega strahu pred neznanim.

Ne le običajni posamezniki, tudi strokovnjaki na tem področju izražajo zaskrbljenost zaradi umetne inteligence. Geoffrey Hinton, ki ga pogosto imenujejo "krstni oče umetne inteligence", je na primer izrazil svoje pomisleke:

Te stvari lahko postanejo pametnejše od nas in se odločijo prevzeti oblast, zato moramo zdaj skrbeti, kako to preprečiti.

Dolgo časa sem mislil, da smo od tega oddaljeni 30 do 50 let. Zato pravim, da je to daleč od nečesa, kar ima večjo splošno inteligenco od človeka. Zdaj mislim, da smo morda veliko bližje, morda le pet let stran od tega.

Obstaja resna nevarnost, da bomo kmalu dobili stvari, ki bodo pametnejše od nas, in da bodo te stvari dobile slabe motive in prevzele nadzor.

22. marca 2023 je bilo objavljeno odprto pismo, v katerem so pozvali k ustavitvi razvoja umetne inteligence, močnejše od GPT-4, za obdobje šestih mesecev:

Sodobni sistemi umetne inteligence postajajo pri splošnih nalogah konkurenčni človeku, zato se moramo vprašati: Ali naj dovolimo, da stroji preplavijo naše informacijske kanale s propagando in neresnico? Ali naj avtomatiziramo vsa delovna mesta, tudi tista, ki nas izpolnjujejo? Ali naj razvijemo nečloveške ume, ki nas bodo sčasoma preštevilni, prelisičili, zastareli in nadomestili? Ali naj tvegamo izgubo nadzora nad našo civilizacijo? Takšnih odločitev ne smemo prenesti na neizvoljene tehnične voditelje. Zmogljive sisteme umetne inteligence je treba razviti šele, ko bomo prepričani, da bodo njihovi učinki pozitivni, tveganja pa obvladljiva. To zaupanje mora biti dobro utemeljeno in naraščati z obsegom potencialnih učinkov sistema.

Pismo je podpisalo 1800 vodij tehnoloških podjetij ter 1500 profesorjev, znanstvenikov in raziskovalcev na področju umetne inteligence:

  • Elon Musk, izvršni direktor podjetij SpaceX, Tesla in Twitter
  • Steve Wozniak, soustanovitelj podjetja Apple
  • Emad Mostaque, izvršni direktor podjetja Stability AI
  • Jaan Tallinn, soustanovitelj Skypa, Center za preučevanje eksistencialnega tveganja, Inštitut za prihodnost življenja
  • Evan Sharp, soustanovitelj podjetja Pinterest
  • Craig Peters, izvršni direktor, Getty Images
  • Mark Nitzberg, Center za umetno inteligenco, združljivo s človekom, UC Berkeley, izvršni direktor
  • Gary Marcus, Univerza v New Yorku, raziskovalec umetne inteligence, zaslužni profesor
  • Zachary Kenton, DeepMind, višji znanstveni raziskovalec
  • Ramana Kumar, DeepMind, raziskovalni znanstvenik
  • Michael Osborne, Univerza v Oxfordu, profesor strojnega učenja
  • Adam Smith, Univerza v Bostonu, profesor računalništva, Gödelova nagrada, Kanellakisova nagrada

Skupaj je bilo zbranih več kot 33.000 podpisov.

Drugi ugledni ljudje, kot so Sam Altman (izvršni direktor podjetja OpenAI), Geoffrey Hinton (dobitnik nagrade Turing), Dario Amodei (izvršni direktor podjetja Anthropic), Bill Gates in več kot 350 vodilnih delavcev in raziskovalcev umetne inteligence, so podpisali naslednjo izjavo:

Zmanjševanje tveganja izumrtja zaradi umetne inteligence bi moralo biti svetovna prednostna naloga poleg drugih družbenih tveganj, kot so pandemije in jedrska vojna.

Nevarnosti umetne inteligence

Leta 2018 je samovozeči Uberjev avtomobil povozil in ubil pešca.

Leta 2022 so znanstveniki preuredili sistem umetne inteligence, ki je bil prvotno zasnovan za ustvarjanje nestrupenih, zdravilnih molekul, za proizvodnjo kemičnih bojnih sredstev. S spremembo nastavitev sistema tako, da je nagrajeval toksičnost, namesto da bi jo kaznoval, so lahko v samo šestih urah hitro ustvarili 40 000 potencialnih molekul za kemično bojevanje.

Leta 2023 so raziskovalci pokazali, kako lahko sistem GPT-4 manipulira z delavcem TaskRabbit, da opravi preverjanje Captcha. Pred kratkim so poročali o tragičnem dogodku, v katerem si je posameznik po neprijetnem pogovoru s klepetalnim robotom vzel življenje.

GPT-4 uspešno opravi preverjanje Captcha

Uporaba sistemov umetne inteligence, ne glede na njihov namen, lahko povzroči negativne posledice, kot so:

  • Izguba delovnih mest zaradi avtomatizacije
  • Deepfakes in dezinformacije
  • Kršitve zasebnosti
  • Nejasna pravna ureditev
  • Algoritmična pristranskost zaradi slabih podatkov
  • Finančne krize
  • Kibernetski kriminal
  • Avtomatizacija orožja
  • Nenadzorovana superinteligenca

Sistemi umetne inteligence postajajo vse močnejši, njihovih omejitev pa ne poznamo. Te sisteme bi lahko uporabili v zlonamerne namene. Podrobneje si oglejmo različna tveganja.

Izguba delovnih mest zaradi avtomatizacije z umetno inteligenco

Po raziskavi družbe Goldman Sachs lahko umetna inteligenca bistveno vpliva na trge zaposlovanja po vsem svetu. Ekonomisti družbe Goldman Sachs z analizo podatkovnih zbirk, ki podrobno opisujejo vsebino nalog več kot 900 poklicev v ZDA in 2000 poklicev v evropski podatkovni zbirki ESCO, ocenjujejo, da sta približno dve tretjini poklicev izpostavljeni določeni stopnji avtomatizacije zaradi umetne inteligence.

Odstotek poklicev in delež delovne obremenitve, izpostavljenih avtomatizaciji z umetno inteligenco

Navpična os prikazuje delež poklicne delovne obremenitve, ki je izpostavljen avtomatizaciji z umetno inteligenco. Vodoravna os prikazuje odstotek poklicev.

Spremembe delovnih procesov, ki jih povzročajo ti napredki, bi lahko potencialno avtomatizirale ekvivalent 300 milijonov delovnih mest s polnim delovnim časom. Vendar pa vse to avtomatizirano delo ne bo privedlo do odpuščanj. Številna delovna mesta in panoge so le delno dovzetne za avtomatizacijo, kar pomeni, da jih bo umetna inteligenca bolj verjetno dopolnila kot v celoti nadomestila.

Družba Seo.ai gre pri tej napovedi še dlje in ocenjuje, da bi lahko umetna inteligenca do leta 2030 po vsem svetu nadomestila približno 800 milijonov delovnih mest. Da bi se pripravili na to prihajajočo spremembo, naj bi se v naslednjih treh letih prekvalificiralo več kot 120 milijonov delavcev.

Če želite izvedeti, kateri poklici so bolj dovzetni za avtomatizacijo in katere avtomatizacija ogroža manj, si oglejte naš članek na to temo.

Napačne informacije

Tudi najnaprednejši veliki jezikovni modeli so dovzetni za ustvarjanje napačnih ali nesmiselnih informacij. Te napake (halucinacije) so pogosto posledica zanašanja modela na statistične vzorce v podatkih, na katerih je bil usposobljen, in ne na resnično razumevanje ali sklepanje.

Z drugimi besedami, klepetalni roboti si lahko včasih izmislijo dejstva. To se je jasno pokazalo leta 2023, ko se je newyorški odvetnik znašel v vročem primežu, ker je ChatGPT uporabil za pravno raziskavo v primeru telesne poškodbe. Sestavil je 10-stranski spis, v katerem se je skliceval na več prejšnjih sodnih odločb, za vse pa se je izkazalo, da jih je klepetalni robot v celoti izumil. Zato je zvezni sodnik odvetnika in njegovega sodelavca kaznoval in jima naložil globo v višini 5.000 USD.

Leta 2024 je bil še en newyorški odvetnik kaznovan zaradi navajanja neobstoječega primera, ki ga je ustvarila umetna inteligenca.

Umetna inteligenca halucinira

Drug primer je Stack Overflow, spletno mesto z vprašanji in odgovori, ki ga uporabljajo predvsem programerji in razvijalci za postavljanje tehničnih vprašanj, iskanje pomoči pri težavah s kodiranjem in izmenjavo znanja v programerski skupnosti.

Spletno mesto je moralo prepovedati vsakršno uporabo generativne umetne inteligence, saj je bila povprečna stopnja pravilnih odgovorov različnih klepetalnih robotov prenizka, čeprav so bili odgovori običajno videti prepričljivi.

Socialna manipulacija

Danes so platforme družabnih medijev preplavljene s tako veliko vsebino, da je lahko preobremenjujoče slediti vsem tem vsebinam. Tu pride na vrsto algoritemsko urejanje. V bistvu pomaga presejati ves hrup in uporabnikom predstaviti vsebino, ki jih bo na podlagi preteklega vedenja najverjetneje zanimala. To je lahko koristno pri upravljanju neskončnega toka informacij, hkrati pa pomeni, da ima platforma veliko nadzora nad tem, kaj uporabniki vidijo in s čim komunicirajo.

Vendar pa lahko spreminjanje tega, kar se prikazuje v posameznikovem kanalu novic, vpliva na njegovo razpoloženje in na to, kako gleda na svet na splošno. Januarja 2012 so Facebookovi podatkovni znanstveniki pokazali, kako lahko odločitve o urejanju informativne vrstice spremenijo raven sreče uporabnikov. Dogodki januarja 2021 v ZDA na Kapitolu so še dodatno poudarili, kako lahko ima lahko nečje uživanje družbenih medijev vlogo pri radikalizaciji.

Poleg tega, ker senzacionalno gradivo navadno dlje časa pritegne uporabnike, lahko algoritmi nehote usmerjajo uporabnike k provokativnim in škodljivim vsebinam, da bi povečali vključenost. Tudi predlaganje vsebin na podlagi uporabnikovih interesov je lahko problematično, saj lahko še bolj utrdi njegova prepričanja v "filtrirnem mehurčku", namesto da bi ga izpostavilo različnim perspektivam. To lahko na koncu povzroči večjo polarizacijo med uporabniki.

Ljudje v svojih mehurčkih

Ko platformam prepuščamo moč odločanja, jim v bistvu dajemo nadzor nad tem, kaj vidimo. Družbeni mediji so s svojimi naprednimi algoritmi odlični pri ciljnem trženju, saj razumejo naše preference in misli. Nedavne preiskave preučujejo vlogo podjetja Cambridge Analytica in podobnih podjetij pri uporabi podatkov 50 milijonov uporabnikov Facebooka za vplivanje na pomembne politične dogodke, kot so predsedniške volitve v ZDA leta 2016 in britanski referendum o brexitu. Če se te obtožbe izkažejo za resnične, to opozarja na potencial umetne inteligence za manipulacijo družbe. Novejši primer je Ferdinand Marcos mlajši, ki je uporabil vojsko trolov TikTok, da bi vplival na mlajše volivce na filipinskih predsedniških volitvah leta 2022. Z izkoriščanjem osebnih podatkov in algoritmov lahko UI učinkovito cilja na posameznike s specifično propagando, ne glede na to, ali temelji na dejstvih ali fikciji.

Deepfakes

Deepfakes so digitalno spremenjeni videoposnetki ali slike, ki realistično prikazujejo posameznika, ki govori ali počne nekaj, česar v resnici ni nikoli rekel ali naredil. Ta tehnologija uporablja algoritme globokega učenja za manipulacijo obstoječih videoposnetkov in zvočnih posnetkov, da ustvari prepričljivo lažno vsebino.

"Nihče ne ve, kaj je resnično in kaj ne," pravi futurist Martin Ford. "Tako se res znajdemo v položaju, ko dobesedno ne moremo verjeti lastnim očem in ušesom; ne moremo se zanašati na to, kar smo v preteklosti imeli za najboljše možne dokaze... To bo velik problem."

Eden od glavnih razlogov, zakaj se globoki ponaredki štejejo za nevarne, je možnost njihove uporabe v zlonamerne namene. Globoki ponaredki se lahko na primer uporabijo za ustvarjanje lažnih video dokazov v pravnih zadevah, obtožitev posameznikov za kazniva dejanja, ki jih niso storili, ali celo za izdajanje političnih osebnosti za širjenje lažnih informacij. S takšnim manipuliranjem medijev lahko globoki ponaredki porušijo zaupanje v tradicionalne vire informacij ter povzročijo zmedo in razdor v družbi.

Po podatkih podjetja DeepMedia, ki razvija orodja za odkrivanje sintetičnih medijev, je bilo leta 2023 na družbenih omrežjih po vsem svetu objavljenih 500.000 deepfakes. To je trikrat več video deepfakes in osemkrat več glasovnih deepfakes v primerjavi z letom 2022.

Nekateri nedavni primeri nenamerne uporabe deepfakes vključujejo ustvarjanje ponarejene pornografije z zvezdniki, kjer so obrazi zvezdnikov digitalno vstavljeni v pornografske videoposnetke brez njihove privolitve. Poleg tega so se videoposnetki deepfake uporabljali za manipulacijo s cenami delnic, obrekovanje posameznikov ali širjenje politične propagande. Ti primeri poudarjajo možnost uporabe deepfakes v škodljive in zavajajoče namene.

Spletni kriminal

Kibernetska kriminaliteta zajema različne kriminalne dejavnosti, ki uporabljajo digitalne naprave in omrežja. Ta kazniva dejanja vključujejo uporabo tehnologije za goljufije, krajo identitete, vdore v podatke, računalniške viruse, prevare in druga zlonamerna dejanja. Kibernetski kriminalci izkoriščajo slabosti v računalniških sistemih in omrežjih, da pridobijo nepooblaščen dostop, ukradejo občutljive informacije, motijo storitve ter povzročijo škodo posameznikom, organizacijam in vladam.

Nasprotniki vse pogosteje uporabljajo lahko dostopna orodja umetne inteligence, kot so ChatGPT, Dall-E in Midjourney, za avtomatizirane napade ribarjenja, napade s pretvarjanjem, napade s socialnim inženiringom in lažne klepetalne robote za podporo strankam.

Po podatkih poročila SlashNext State of Phishing Report 2023 se je število zlonamernih goljufivih e-poštnih sporočil povečalo za 1265 %, kar gre pripisati predvsem uporabi orodij umetne inteligence za usmerjene napade.

Napadi z upodabljanjem postajajo vse pogostejši. Goljufi uporabljajo ChatGPT in druga orodja, s katerimi se izdajajo za prave posameznike in organizacije ter se ukvarjajo s krajo identitete in goljufijami. Podobno kot pri ribarskih napadih uporabljajo klepetalnike za pošiljanje glasovnih sporočil, v katerih se izdajajo za zaupanja vrednega prijatelja, sodelavca ali družinskega člana, da bi pridobili osebne podatke ali dostop do računov. V odmevnem primeru iz marca 2019 je vodja britanske podružnice nemškega energetskega podjetja postal žrtev goljufa, ki je posnemal glas izvršnega direktorja, zaradi česar je na madžarski bančni račun nakazal skoraj 200.000 funtov (243.000 USD). Sredstva so bila pozneje prenesena v Mehiko in razpršena na več lokacij. Preiskovalci niso identificirali nobenega osumljenca.

Kibernetska kriminaliteta in kaznovanje

Leta 2023 je Center za pritožbe v zvezi z internetnim kriminalom (IC3) od ameriške javnosti prejel neprimerljivo več pritožb: skupaj je bilo vloženih 880 418 pritožb, potencialna škoda pa je presegla 12,5 milijarde dolarjev. To pomeni skoraj 10-odstotno povečanje števila prejetih pritožb in 22-odstotno povečanje izgub v primerjavi z letom 2022. Kljub tem osupljivim številkam je treba opozoriti, da verjetno podcenjujejo resnični obseg kibernetske kriminalitete v letu 2023. Ko je na primer FBI nedavno razbil skupino izsiljevalske programske opreme Hive, je bilo ugotovljeno, da je le približno 20 % žrtev skupine Hive prijavilo kaznivo dejanje organom pregona.

Vdor v zasebnost

Najboljši primer družbenega nadzora je kitajska uporaba tehnologije za prepoznavanje obrazov v pisarnah, šolah in drugih prostorih. Ta tehnologija ne omogoča le sledenja gibanja posameznikov, temveč lahko vladi omogoča tudi zbiranje obsežnih podatkov za spremljanje njihovih dejanj, dejavnosti, odnosov in ideoloških prepričanj.

Posameznike je zdaj mogoče spremljati tako na spletu kot v njihovem vsakdanjem življenju. Vsak državljan je ocenjen na podlagi svojega vedenja, kot so hojo po cesti, kajenje v prostorih, kjer se ne sme kaditi, in čas, ki ga porabi za igranje video iger. Predstavljajte si, da vsako dejanje vpliva na vašo osebno oceno v sistemu družbenega kredita.

Ko vas Veliki brat opazuje in nato na podlagi teh informacij sprejema odločitve, to ni le vdor v zasebnost, temveč se lahko hitro spremeni v družbeno zatiranje.

Finančne krize

V današnjem finančnem svetu je uporaba algoritmov strojnega učenja zelo razširjena, saj se hedge skladi in investicijska podjetja pri analizi delnic in sredstev močno zanašajo na te modele. Ti algoritmi za sprejemanje odločitev o trgovanju nenehno prejemajo ogromne količine tradicionalnih in alternativnih podatkov. Vendar pa narašča zaskrbljenost, da bi algoritemsko trgovanje lahko sprožilo naslednjo veliko finančno krizo.

Flash Crash 2010. 600 milijard dolarjev je izhlapelo v 20 minutah

Flash Crash 2010. 600 milijard dolarjev je izhlapelo v 20 minutah

Pomemben primer nevarnosti napačnih algoritmov je Flash Crash iz leta 2010, ko je borza v nekaj minutah nenadoma padla za skoraj 1 000 točk, nato pa se je hitro opomogla. Čeprav so se tržni indeksi še isti dan delno opomogli, je bliskoviti zlom izbrisal skoraj 1 bilijon dolarjev tržne vrednosti. Ta nenadni in drastični padec cen je bil v veliki meri posledica samodejnih algoritmov trgovanja, ki so se nepredvidljivo odzvali na razmere na trgu. Drug primer je bil bliskoviti zlom podjetja Knight Capital leta 2012, ko je zaradi nepravilnega delovanja algoritma podjetje v samo 45 minutah izgubilo 440 milijonov dolarjev, kar je na koncu privedlo do njegovega propada.

Ti zlomi služijo kot trezen opomnik na potencialna tveganja, ki jih predstavlja algoritemsko trgovanje na finančnih trgih. Kadar algoritmi niso ustrezno zasnovani, preizkušeni ali nadzorovani, imajo lahko katastrofalne posledice. Ključnega pomena je, da finančne institucije temeljito preverijo svoje algoritme in zagotovijo ustrezne prakse za obvladovanje tveganj, da bi preprečile podobne nesreče v prihodnosti.

Roboti ubijalci

Avtonomno orožje, ki ga poganja umetna inteligenca, je že dolgo predmet razprav in skrbi vlad, vojaških uradnikov in zagovornikov človekovih pravic. Ti sistemi, znani tudi kot "roboti ubijalci" ali "smrtonosno avtonomno orožje", so sposobni samostojno izbrati in napadati cilje brez človeškega posredovanja. To vzbuja velike etične, pravne in varnostne pomisleke, saj lahko ta orožja sprejemajo odločitve o življenju ali smrti brez človeškega nadzora.

Razvoj avtonomnega orožja se je v zadnjih letih pospešil, saj je tehnologija umetne inteligence vse bolj napredna in razširjena. Ta orožja lahko segajo od brezpilotnih letalnikov do zemeljskih sistemov, ki lahko samostojno prepoznavajo in napadajo cilje. Zagovorniki avtonomnega orožja trdijo, da lahko zmanjša število človeških žrtev na konfliktnih območjih ter zagotovi natančnejše in učinkovitejše vojaške operacije. Kritiki pa trdijo, da ti sistemi odpirajo resna etična vprašanja in imajo lahko nenamerne posledice, kot so zaostrovanje spopadov in civilne žrtve.

Nevarnost, ki jo predstavlja avtonomno orožje, ki ga poganja umetna inteligenca, je zelo realna. Te sisteme je mogoče vdreti ali se pokvariti, kar lahko privede do nenamernih posledic in izgube nadzora. Poleg tega pomanjkanje človeškega nadzora pri sprejemanju odločitev vzbuja pomisleke glede odgovornosti in možnosti kršitev mednarodnega humanitarnega prava.

Roboti ubijalci v znanstveni fantastiki

Leta 2020 je več kot 30 držav pozvalo k prepovedi smrtonosnega avtonomnega orožja, saj jih skrbi, da bi stroji lahko sprejemali odločitve o življenju ali smrti. Kljub tem pomislekom razvoj in uporaba avtonomnega orožja, ki ga poganja umetna inteligenca, še naprej napredujeta. Znano je, da države, kot so Združene države Amerike, Rusija, Kitajska in Izrael, veliko vlagajo v te tehnologije. V ZDA obrambno ministrstvo razvija avtonomne oborožitvene sisteme, vključno s polavtonomnimi brezpilotnimi letali in kopenskimi vozili brez posadke.

Nenadzorovana superinteligenca

Umetna inteligenca prekaša človeške možgane na različne načine, vključno s hitrostjo računanja, hitrostjo notranje komunikacije, skalabilnostjo, zmogljivostjo pomnilnika, zanesljivostjo, podvojljivostjo, možnostjo urejanja, deljenjem spomina in sposobnostjo učenja:

  • UI deluje pri frekvencah, ki so v primerjavi z biološkimi nevroni omejene na 200 Hz.
  • Aksoni prenašajo signale s hitrostjo 120 m/s, računalniki pa s hitrostjo elektrike ali svetlobe.
  • UI se lahko zlahka poveča z dodajanjem dodatne strojne opreme, za razliko od človeške inteligence, ki je omejena z velikostjo možganov in učinkovitostjo socialne komunikacije.
  • Delovni pomnilnik pri ljudeh je omejen v primerjavi z ekspanzivno zmogljivostjo pomnilnika umetne inteligence.
  • Zanesljivost tranzistorjev v UI presega zanesljivost bioloških nevronov, kar omogoča večjo natančnost in manj redundance.
  • Modele UI je mogoče zlahka podvajati, spreminjati in se učiti iz drugih izkušenj UI učinkoviteje kot ljudje.

Nekega dne lahko umetna inteligenca doseže raven inteligence, ki bo daleč presegla človeško, kar bo povzročilo tako imenovano eksplozijo inteligence.

Superinteligenca in izumrtje ljudi

Ta zamisel o rekurzivnem samopopolnjevanju, pri katerem se umetna inteligenca nenehno izboljšuje z eksponentno hitrostjo, je sprožila zaskrbljenost glede morebitnih posledic ustvarjanja superinteligentne entitete. Predstavljajte si scenarij, v katerem umetna inteligenca doseže raven inteligence, ki ji omogoča, da na vse možne načine prelisiči in preseže človeka. Ta superinteligenca bi lahko imela moč sprejemati odločitve, ki bi močno vplivale na našo družbo in način življenja. Tako kot imamo ljudje trenutno v rokah usodo številnih vrst, bo morda tudi usoda človeštva nekega dne v rokah superinteligentne umetne inteligence.

Pretirano zanašanje na umetno inteligenco in pravna odgovornost

Preveliko zanašanje na tehnologijo umetne inteligence bi lahko povzročilo zmanjšanje človeškega vpliva in delovanja na nekaterih družbenih področjih. Na primer, uporaba umetne inteligence v zdravstvu lahko povzroči zmanjšanje človeške empatije in razsodnosti. Poleg tega bi lahko uporaba generativne umetne inteligence pri ustvarjalnih dejavnostih zatrla človeško ustvarjalnost in čustveno izražanje. Pretirana interakcija s sistemi umetne inteligence bi lahko povzročila tudi upad medsebojne komunikacije in socialnih spretnosti. Čeprav je umetna inteligenca lahko koristna za avtomatizacijo nalog, obstajajo pomisleki glede njenega vpliva na splošno človeško inteligenco, sposobnosti in občutek za skupnost.

Poleg tega obstajajo potencialne nevarnosti, ki bi lahko povzročile fizične poškodbe ljudi. Če se na primer podjetja pri urnikih vzdrževanja zanašajo samo na napovedi umetne inteligence brez drugih preverjanj, lahko pride do okvar strojev, ki poškodujejo delavce. V zdravstvu bi lahko modeli umetne inteligence povzročili napačne diagnoze.

Poleg fizične škode lahko umetna inteligenca, če ni ustrezno urejena, ogroža ljudi tudi na nefizične načine. Sem spadajo vprašanja digitalne varnosti, kot sta obrekovanje ali razžalitev, finančne varnosti, kot je zloraba UI pri finančnih priporočilih ali preverjanju kreditne sposobnosti, in vprašanja enakosti, povezana s pristranskostjo UI, ki vodi do nepravičnih zavrnitev ali sprejemov v različnih programih.

In ko gre kaj narobe, kdo mora biti odgovoren? Je to sama UI, razvijalec, ki jo je ustvaril, podjetje, ki jo je dalo v uporabo, ali operater, če je bil vpleten človek?

* * *

Umetna inteligenca je sicer povezana s številnimi tveganji in grožnjami, vendar pa lahko tudi zelo koristi družbi in izboljša naše življenje. Pomembno se je zavedati, da pri tehnologiji umetne inteligence dobro pogosto odtehta slabo. V naslednjem članku bomo obravnavali strategije za zmanjšanje tveganj, povezanih z umetno inteligenco, in tako zagotovili, da bomo lahko v celoti izkoristili njen potencial za pozitivne spremembe.