Atgriezties uz galveno

No zinātniskās fantastikas uz realitāti: Mākslīgā intelekta reālās briesmas

Mākslīgā intelekta attīstība ir nozīmīgs tehnoloģisks izrāviens, kas ir gatavs izraisīt revolūciju sabiedrībā, līdzīgi kā to ir paveikuši internets, personālie datori un mobilie tālruņi. Tā ietekme ir visaptveroša, tā ir iefiltrējusies dažādos cilvēka dzīves aspektos, sākot ar darbu un izglītību un beidzot ar brīvā laika pavadīšanas iespējām. Neironu tīklu straujā attīstība rada zināmas bažas, kas liek mums šajā rakstā izpētīt iespējamos draudus, ko mākslīgais intelekts var radīt cilvēcei.

Vai mākslīgais intelekts ir bīstams? Kas pauda bažas?

Zinātniskās fantastikas filmās ideja par nekontrolējamu mākslīgo intelektu, kas vēlas dominēt pār cilvēci vai iznīcināt to, ir populāra tēma, kā redzams tādās filmās kā "Matrica" un "Terminators". Ņemot vērā mūsdienu straujo tehnoloģiju attīstības tempu, vidusmēra cilvēkam var būt grūti tam sekot līdzi. Straujā mākslīgā intelekta attīstība liek mūsu sabiedrībai ātri pielāgoties, izraisot bailes šo tehnoloģiju sarežģītības un cilvēkam iedzimto baiļu no nezināmā dēļ.

Bažas par mākslīgo intelektu izjūt ne tikai parastie cilvēki, bet arī šīs jomas eksperti pauž savas bažas. Piemēram, Džefrijs Hintons (Geoffrey Hinton), kuru bieži dēvē par "mākslīgā intelekta krusttēvu", ir paudis savas bažas:

Šīs radības var kļūt gudrākas par mums un var nolemt pārņemt varu, tāpēc mums jau tagad ir jārūpējas par to, kā to novērst.

Ilgu laiku es domāju, ka līdz tam mums ir kādi 30-50 gadi. Tāpēc es to saucu par lielu attālumu no kaut kā, kam ir lielāks vispārējais intelekts nekā cilvēkam. Tagad es domāju, ka mēs esam daudz tuvāk, varbūt tikai piecus gadus no tā.

Pastāv nopietnas briesmas, ka diezgan drīz mēs iegūsim lietas, kas būs gudrākas par mums, un ka šīs lietas varētu iegūt sliktus motīvus un pārņemt kontroli.

2023. gada 22. martā tika publicēta atklāta vēstule, kurā tika aicināts uz sešiem mēnešiem apturēt mākslīgā intelekta, kas jaudīgāks par GPT-4, izstrādi:

Mūsdienu mākslīgā intelekta sistēmas kļūst konkurētspējīgas ar cilvēkiem vispārīgu uzdevumu veikšanā, un mums ir jāuzdod sev jautājums: Vai mums jāļauj mašīnām pārpludināt mūsu informācijas kanālus ar propagandu un nepatiesību? Vai mums vajadzētu automatizēt visus darbus, tostarp tos, kas sniedz gandarījumu? Vai mums būtu jāattīsta necilvēciski prāti, kas galu galā varētu mūs pārspēt, pārgudrot, novecot un aizstāt? Vai mums vajadzētu riskēt zaudēt kontroli pār mūsu civilizāciju? Šādus lēmumus nedrīkst deleģēt neievēlētiem tehnoloģiju līderiem. Jaudīgas mākslīgā intelekta sistēmas būtu jāattīsta tikai tad, kad būsim pārliecināti, ka to ietekme būs pozitīva un riski būs pārvaldāmi. Šai pārliecībai jābūt labi pamatotai, un tai jāpalielinās līdz ar sistēmas potenciālās ietekmes apjomu.

Vēstuli parakstīja 1800 tehnoloģiju uzņēmumu vadītāju, 1500 profesoru, zinātnieku un pētnieku mākslīgā intelekta jomā:

  • Elons Masks, SpaceX, Tesla un Twitter vadītājs.
  • Stīvs Vozņaks (Steve Wozniak), Apple līdzdibinātājs.
  • Emad Mostaque, Stability AI izpilddirektors.
  • Jaan Tallinn, Skype līdzdibinātājs, Eksistenciālā riska izpētes centrs, Dzīves nākotnes institūts.
  • Evan Sharp, Pinterest līdzdibinātājs.
  • Kreigs Pīterss (Craig Peters), izpilddirektors, Getty Images.
  • Marks Nitzbergs, Cilvēkam saderīga mākslīgā intelekta centrs, Berklijas Universitāte, izpilddirektors.
  • Gary Marcus, Ņujorkas Universitāte, mākslīgā intelekta pētnieks, emeritētais profesors.
  • Zachary Kenton, DeepMind, vecākais zinātniskais pētnieks.
  • Ramana Kumar, DeepMind, zinātniskais pētnieks.
  • Maikls Osborns, Oksfordas Universitāte, mašīnmācīšanās profesors.
  • Ādams Smits, Bostonas Universitāte, datorzinātņu profesors, Gēdela balva, Kanellakis balva.

Kopumā tika savākti vairāk nekā 33 000 parakstu.

Citas ievērojamas personas, piemēram, Sems Altmans (OpenAI izpilddirektors), Džefrijs Hintons (Tjūringa balvas ieguvējs), Dario Amodejs (Anthropic izpilddirektors) un Bils Geitss, kā arī vairāk nekā 350 vadītāji un mākslīgā intelekta pētnieki parakstīja šādu paziņojumu:

Izzušanas riska mazināšana no M.I. jābūt globālai prioritātei līdzās citiem sabiedrības mēroga riskiem, piemēram, pandēmijām un kodolkaram.

Mākslīgā intelekta briesmas

2018. gadā pašbraucoša Uber automašīna notrieca un nogalināja gājēju.

2022. gadā zinātnieki pārkonfigurēja mākslīgā intelekta sistēmu, kas sākotnēji bija paredzēta netoksisku, dziedinošu molekulu radīšanai, lai ražotu ķīmiskās kaujas vielas. Mainot sistēmas iestatījumus, lai atalgotu par toksicitāti, nevis sodītu par to, viņi spēja ātri ģenerēt 40 000 potenciālu molekulu ķīmiskajam karam tikai sešu stundu laikā.

2023. gadā pētnieki parādīja, kā GPT-4 var manipulēt ar TaskRabbit darbinieku, lai tas pabeigtu Captcha verifikāciju. Pavisam nesen tika ziņots par traģisku incidentu, kurā kāds indivīds atņēma sev dzīvību pēc satraucošas sarunas ar tērzēšanas robotu.

GPT-4 iztur Captcha verifikāciju

Mākslīgā intelekta sistēmu izmantošana neatkarīgi no to paredzētā mērķa var radīt negatīvas sekas, piemēram:

  • Automatizācijas izraisīta darba vietu zaudēšana
  • Deepfakes un dezinformācija
  • Privātuma pārkāpumi
  • Neskaidrs tiesiskais regulējums
  • Algoritmiska neobjektivitāte, ko izraisa slikti dati
  • Finanšu krīzes
  • Kibernoziedzība
  • Ieroču automatizācija
  • Nekontrolējams superinteliģence

Mākslīgā intelekta sistēmas kļūst arvien jaudīgākas, un mēs nezinām to ierobežojumus. Šīs sistēmas var tikt izmantotas ļaunprātīgiem mērķiem. Aplūkosim sīkāk dažādos riskus.

Darba vietu zaudēšana mākslīgā intelekta automatizācijas dēļ

Saskaņā ar Goldman Sachs veikto pētījumu mākslīgais intelekts var būtiski ietekmēt darba tirgu visā pasaulē. Analizējot datubāzes, kurās detalizēti aprakstīti vairāk nekā 900 profesiju uzdevumi ASV un 2000 profesiju Eiropas ESCO datubāzē, Goldman Sachs ekonomisti lēš, ka aptuveni divas trešdaļas profesiju ir pakļautas zināmai automatizācijas pakāpei, ko veic mākslīgais intelekts.

Profesiju procentuālā daļa un darba slodzes daļa, kas pakļauta mākslīgā intelekta automatizācijai

Vertikālā ass rāda to profesionālās darba slodzes daļu, kas pakļauta mākslīgā intelekta automatizācijai. Horizontālā ass rāda profesiju procentuālo daļu.

Šo sasniegumu izraisītās izmaiņas darba plūsmā potenciāli varētu automatizēt 300 miljonu pilna laika darbavietu ekvivalentu. Tomēr ne viss šis automatizētais darbs izraisīs darbinieku atlaišanu. Daudzas profesijas un nozares ir tikai daļēji pakļautas automatizācijai, kas nozīmē, ka tās drīzāk tiks papildinātas ar mākslīgo intelektu, nevis pilnībā aizstātas.

Seo.ai šī prognoze ir vēl plašāka, lēšot, ka līdz 2030. gadam mākslīgais intelekts varētu aizstāt aptuveni 800 miljonus darbavietu visā pasaulē. Lai sagatavotos šai gaidāmajai maiņai, paredzams, ka nākamo trīs gadu laikā vairāk nekā 120 miljoni darbinieku tiks pārkvalificēti.

Ja vēlaties uzzināt, kuras profesijas ir jutīgākas pret automatizāciju un kuras mazāk apdraud automatizācija, izlasiet mūsu rakstu par šo tēmu.

Dezinformācija

Pat vismodernākie lielie valodas modeļi ir uzņēmīgi pret nepareizas vai bezjēdzīgas informācijas ģenerēšanu. Šīs kļūdas (halucinācijas) bieži vien rodas tāpēc, ka modelis paļaujas uz statistiskiem modeļiem datos, pēc kuriem tas ir apmācīts, nevis uz patiesu izpratni vai argumentāciju.

Citiem vārdiem sakot, tērzēšanas roboti dažkārt var izdomāt faktus. Tas skaidri parādījās 2023. gadā, kad kāds Ņujorkas advokāts iekļuva karstā ūdenī par to, ka izmantoja ChatGPT, lai veiktu juridisku izpēti lietā par miesas bojājumiem. Viņš sastādīja 10 lappušu garu dokumentu, atsaucoties uz vairākiem iepriekšējiem tiesas lēmumiem, kuri visi izrādījās tērzēšanas robota pilnībā izdomāti. Rezultātā federālais tiesnesis advokātam un viņa kolēģim piemēroja sankcijas un katram uzlika 5000 ASV dolāru naudas sodu.

2024. gadā vēl viens Ņujorkas advokāts tika disciplināri sodīts par mākslīgā intelekta radītas neeksistējošas lietas citēšanu.

Mākslīgais intelekts halucinē

Vēl viens piemērs ir Stack Overflow - jautājumu un atbilžu vietne, ko galvenokārt izmanto programmētāji un izstrādātāji, lai uzdotu tehniskus jautājumus, meklētu palīdzību kodēšanas problēmu risināšanā un dalītos ar zināšanām programmētāju kopienā.

Vietnei nācās aizliegt jebkādu ģeneratīvā mākslīgā intelekta izmantošanu, jo vidējais pareizo atbilžu saņemšanas rādītājs no dažādiem tērzēšanas robotiem bija pārāk zems, lai gan atbildes parasti izskatījās pārliecinoši.

Sociālā manipulācija

Sociālo mediju platformas mūsdienās ir pārpildītas ar tik daudz satura, ka var būt nepārvarami grūti tam visam sekot līdzi. Tieši šeit talkā nāk algoritmiskā kūrēšana. Tā būtībā palīdz atsijāt visu troksni un piedāvāt lietotājiem saturu, kas, visticamāk, viņus ieinteresēs, pamatojoties uz iepriekšējo uzvedību. Lai gan tas var būt noderīgi, lai pārvaldītu nebeidzamo informācijas plūsmu, tas arī nozīmē, ka platformai ir liela kontrole pār to, ko lietotāji redz un ar ko mijiedarbojas.

Tomēr, mainot to, kas tiek rādīts kāda cilvēka ziņu plūsmā, var ietekmēt viņa noskaņojumu un to, kā viņš uztver pasauli kopumā. Facebook datu zinātnieki 2012. gada janvārī demonstrēja, kā lēmumi par ziņu plūsmas veidošanu var mainīt lietotāju laimes līmeni. 2021. gada janvāra notikumi ASV Kapitolijā vēl vairāk izgaismoja, kā kāda sociālo mediju patēriņš var ietekmēt radikalizāciju.

Turklāt, tā kā sensacionāli materiāli mēdz noturēt lietotājus pieķertus ilgākam laika periodam, algoritmi var netīšām virzīt lietotājus uz provokatīvu un kaitīgu saturu, lai palielinātu iesaisti. Pat satura ieteikšana, pamatojoties uz lietotāja interesēm, var būt problemātiska, jo tā var vēl vairāk nostiprināt viņa uzskatus "filtra burbulī", nevis iepazīstināt ar dažādām perspektīvām. Tas galu galā var palielināt polarizāciju lietotāju vidū.

Cilvēki savos burbuļos

Nododot lēmumu pieņemšanas pilnvaras platformām, mēs būtībā nododam tām kontroli pār to, ko mēs redzam. Sociālie plašsaziņas līdzekļi ar saviem uzlabotajiem algoritmiem ir izcili mērķtiecīga tirgvedība, izprotot mūsu vēlmes un domas. Nesen veiktajās izmeklēšanās tiek pētīta Cambridge Analytica un līdzīgu uzņēmumu loma 50 miljonu Facebook lietotāju datu izmantošanā, lai ietekmētu tādus nozīmīgus politiskus notikumus kā 2016. gada ASV prezidenta vēlēšanas un Lielbritānijas Brexit referendumu. Ja šīs apsūdzības izrādīsies patiesas, tas norāda uz mākslīgā intelekta potenciālu manipulēt ar sabiedrību. Jaunāks piemērs ir Ferdinands Markoss juniors, kurš izmantoja TikTok troļļu armiju, lai ietekmētu jaunākos vēlētājus 2022. gada Filipīnu prezidenta vēlēšanās. Izmantojot personas datus un algoritmus, mākslīgais intelekts var efektīvi vērsties pret indivīdiem ar konkrētu propagandu, neatkarīgi no tā, vai tā ir balstīta uz faktiem vai izdomājumiem.

Deepfakes

Deepfakes ir digitāli pārveidoti videoklipi vai attēli, kuros reālistiski attēlota persona, kas saka vai dara kaut ko tādu, ko tā patiesībā nekad nav teikusi vai darījusi. Šī tehnoloģija izmanto dziļās mācīšanās algoritmus, lai manipulētu ar esošiem video un audio ierakstiem un radītu pārliecinošu viltotu saturu.

"Neviens nezina, kas ir reāls un kas nav," saka futūrists Mārtins Fords. "Tas patiešām noved pie situācijas, kad burtiski nevar ticēt savām acīm un ausīm; nevar paļauties uz to, ko vēsturiski esam uzskatījuši par labākajiem iespējamajiem pierādījumiem...". Tā būs milzīga problēma."

Viens no galvenajiem iemesliem, kādēļ deepfakes tiek uzskatītas par bīstamām, ir to potenciālā izmantošana ļaunprātīgiem mērķiem. Piemēram, deepfakes var izmantot, lai radītu viltotus video pierādījumus juridiskās lietās, apsūdzētu personas noziegumos, ko tās nav izdarījušas, vai pat uzdotos par politisku personu, lai izplatītu nepatiesu informāciju. Šādi manipulējot ar plašsaziņas līdzekļiem, deepfakes var graut uzticību tradicionālajiem informācijas avotiem un sēt apjukumu un nesaskaņas sabiedrībā.

Saskaņā ar uzņēmuma DeepMedia, kas izstrādā rīkus sintētisko mediju atklāšanai, datiem 2023. gadā sociālajos medijos visā pasaulē tika publicēti 500 000 "deepfakes". Tas ir 3 reizes vairāk video deepfake un 8 reizes vairāk balss deepfake salīdzinājumā ar 2022. gadu.

Daži neseni piemēri, kas liecina par ļaunprātīgu "deepfakes" izmantošanu, ir viltotu slavenību pornogrāfijas materiālu veidošana, kad slavenību sejas tiek digitāli ievietotas pornogrāfiskos video bez viņu piekrišanas. Turklāt ir bijuši gadījumi, kad viltus videoklipus izmanto, lai manipulētu ar akciju cenām, nomelnotu personas vai izplatītu politisku propagandu. Šie piemēri norāda uz potenciālu, ka deepfakes var tikt izmantoti kaitīgiem un maldinošiem mērķiem.

Kibernoziedzība

Kibernoziedzība aptver dažādas noziedzīgas darbības, kurās izmanto digitālās ierīces un tīklus. Šie noziegumi ietver tehnoloģiju izmantošanu, lai veiktu krāpšanu, identitātes zādzību, datu aizsardzības pārkāpumus, datorvīrusus, krāpšanu un citas ļaunprātīgas darbības. Kibernoziedznieki izmanto datorsistēmu un tīklu nepilnības, lai iegūtu nesankcionētu piekļuvi, nozagtu sensitīvu informāciju, traucētu pakalpojumu sniegšanu un nodarītu kaitējumu privātpersonām, organizācijām un valdībām.

Nebiedri arvien biežāk izmanto viegli pieejamus mākslīgā intelekta rīkus, piemēram, ChatGPT, Dall-E un Midjourney, lai veiktu automatizētus pikšķerēšanas uzbrukumus, personifikācijas uzbrukumus, sociālās inženierijas uzbrukumus un viltus klientu atbalsta čatbotus.

Saskaņā ar SlashNext ziņojumu par pikšķerēšanas stāvokli 2023. gadā (SlashNext State of Phishing Report 2023) ļaunprātīgu pikšķerēšanas e-pasta vēstuļu skaits ir pieaudzis par 1265%, un tas lielā mērā skaidrojams ar mākslīgā intelekta rīku izmantošanu mērķtiecīgu uzbrukumu veikšanai.

Aizvien izplatītāki kļūst izlikšanās uzbrukumi. Krāpnieki izmanto ChatGPT un citus rīkus, lai uzdotos par īstām personām un organizācijām, iesaistoties identitātes zādzībās un krāpšanā. Līdzīgi kā pikšķerēšanas uzbrukumos, viņi izmanto tērzēšanas robotus, lai nosūtītu balss ziņojumus, uzdodoties par uzticamu draugu, kolēģi vai ģimenes locekli, ar mērķi iegūt personisko informāciju vai piekļuvi kontiem. Ievērojamā 2019. gada marta gadījumā Vācijas enerģētikas uzņēmuma Apvienotās Karalistes meitasuzņēmuma vadītājs kļuva par krāpnieka upuri, kurš atdarināja izpilddirektora balsi, kā rezultātā uz Ungārijas bankas kontu tika pārskaitīti gandrīz 200 000 sterliņu mārciņu (243 000 ASV dolāru). Vēlāk līdzekļi tika pārvesti uz Meksiku un izkliedēti vairākās vietās. Izmeklētāji nav identificējuši nevienu aizdomās turamo.

Kibernoziedzība un sodi

2023. gadā Sūdzību par noziegumiem internetā centrs (IC3) saņēma vēl nebijušu sūdzību skaitu no Amerikas sabiedrības: kopumā tika iesniegtas 880 418 sūdzības, un iespējamie zaudējumi pārsniedza 12,5 miljardus ASV dolāru. Tas nozīmē, ka saņemto sūdzību skaits ir palielinājies par gandrīz 10 %, bet zaudējumu apjoms - par 22 %, salīdzinot ar 2022. gadu. Neraugoties uz šiem satriecošajiem skaitļiem, ir svarīgi atzīmēt, ka tie, visticamāk, nenovērtē patiesos kibernoziedzības apmērus 2023. gadā. Piemēram, kad FIB nesen likvidēja izspiedējvīrusu grupējumu Hive, tika atklāts, ka tikai aptuveni 20 % Hive upuru bija ziņojuši tiesībaizsardzības iestādēm par šo noziegumu.

Iejaukšanās privātajā dzīvē

Spilgts sociālās uzraudzības piemērs ir Ķīnas izmantotā sejas atpazīšanas tehnoloģija birojos, skolās un citās vietās. Šī tehnoloģija ne tikai ļauj izsekot personu pārvietošanos, bet arī potenciāli ļauj valdībai vākt plašus datus, lai uzraudzītu viņu darbības, aktivitātes, attiecības un ideoloģisko pārliecību.

Personas tagad var uzraudzīt gan tiešsaistē, gan ikdienas dzīvē. Katrs pilsonis tiek novērtēts, pamatojoties uz viņa uzvedību, piemēram, iešanu pa ietvi, smēķēšanu vietās, kur smēķēt aizliegts, un laiku, kas pavadīts, spēlējot videospēles. Iedomājieties, ka katra rīcība ietekmē jūsu personīgo novērtējumu sociālā kredīta sistēmā.

Kad Lielais Brālis jūs novēro un pēc tam pieņem lēmumus, pamatojoties uz šo informāciju, tas ir ne tikai privātuma aizskaršana, bet var ātri pāraugt sociālā apspiešanā.

Finanšu krīzes

Mūsdienu finanšu pasaulē mašīnmācīšanās algoritmu izmantošana ir plaši izplatīta, un riska ieguldījumu fondi un ieguldījumu sabiedrības lielā mērā paļaujas uz šiem modeļiem, lai analizētu akcijas un aktīvus. Lai pieņemtu tirdzniecības lēmumus, šiem algoritmiem nepārtraukti tiek ievadīts milzīgs tradicionālo un alternatīvo datu apjoms. Tomēr pieaug bažas, ka algoritmiskā tirdzniecība potenciāli varētu izraisīt nākamo lielo finanšu krīzi.

2010. gada Flash Crash. 600 miljardi ASV dolāru iztvaiko 20 minūšu laikā

2010. gada Flash Crash. 600 miljardi ASV dolāru iztvaiko 20 minūšu laikā

Viens no spilgtākajiem piemēriem, kas liecina par kļūdainu algoritmu bīstamību, ir 2010. gadā notikušais straujais sabrukums, kad akciju tirgus pēkšņi kritās par gandrīz 1000 punktiem dažu minūšu laikā, bet pēc tam ātri atguvās. Lai gan tirgus indeksiem tajā pašā dienā izdevās daļēji atgūties, Flash Crash iznīcināja gandrīz 1 triljonu ASV dolāru tirgus vērtības. Šo pēkšņo un kraso cenu kritumu lielā mērā izskaidroja ar automatizētiem tirdzniecības algoritmiem, kas neparedzamā veidā reaģēja uz tirgus apstākļiem. Cits gadījums bija Knight Capital Flash Crash 2012. gadā, kad kļūdaina algoritma darbība izraisīja uzņēmuma zaudējumus 440 miljonu ASV dolāru apmērā tikai 45 minūšu laikā, kas galu galā noveda pie tā sabrukuma.

Šīs avārijas kalpo kā atsvaidzinošs atgādinājums par potenciālajiem riskiem, ko rada algoritmiskā tirdzniecība finanšu tirgos. Ja algoritmi nav pienācīgi izstrādāti, pārbaudīti vai uzraudzīti, tie var radīt katastrofālas sekas. Finanšu iestādēm ir ļoti svarīgi rūpīgi pārbaudīt savus algoritmus un nodrošināt pienācīgu riska pārvaldības praksi, lai novērstu līdzīgu katastrofu atkārtošanos nākotnē.

Killer Roboti

Autonomie ieroči, ko darbina mākslīgais intelekts (MI), jau sen ir valdību, militāro amatpersonu un cilvēktiesību aizstāvju diskusiju un bažu temats. Šīm sistēmām, ko dēvē arī par "slepkavnieciskajiem robotiem" vai "nāvējošiem autonomajiem ieročiem", ir spēja patstāvīgi izvēlēties un uzbrukt mērķiem bez cilvēka iejaukšanās. Tas rada nopietnas ētiskas, juridiskas un drošības problēmas, jo šie ieroči var pieņemt lēmumus par dzīvības vai nāves gadījumiem bez cilvēka uzraudzības.

Pēdējos gados, kad mākslīgā intelekta tehnoloģija ir kļuvusi modernāka un plašāk izplatīta, autonomo ieroču attīstība ir paātrinājusies. Šādi ieroči var būt gan bezpilota droni, gan uz zemes bāzētas sistēmas, kas var autonomi identificēt un uzbrukt mērķiem. Autonomo ieroču atbalstītāji apgalvo, ka tie var samazināt cilvēku upurus konfliktu zonās un nodrošināt precīzākas un efektīvākas militārās operācijas. Tomēr kritiķi apgalvo, ka šīs sistēmas rada nopietnus ētiskus jautājumus un var radīt neparedzētas sekas, piemēram, konfliktu eskalāciju un civiliedzīvotāju upurus.

Autonomie ieroči, ko darbina mākslīgais intelekts, rada ļoti reālas briesmas. Šīs sistēmas var tikt uzlauztas vai nepareizi darboties, izraisot neparedzētas sekas un kontroles zaudēšanu. Turklāt cilvēku pārraudzības trūkums lēmumu pieņemšanā rada bažas par pārskatatbildību un starptautisko humanitāro tiesību pārkāpumu iespējamību.

Killer roboti zinātniskajā fantastikā

2020. gadā vairāk nekā 30 valstis aicināja aizliegt nāvējošus autonomos ieročus, norādot uz bažām par to, ka mašīnas varētu pieņemt lēmumus par dzīvību vai nāvi. Neraugoties uz šīm bažām, ar mākslīgo intelektu darbināmu autonomo ieroču izstrāde un ieviešana turpina attīstīties. Ir zināms, ka tādas valstis kā ASV, Krievija, Ķīna un Izraēla veic lielus ieguldījumus šajās tehnoloģijās. ASV Aizsardzības departaments izstrādā autonomās ieroču sistēmas, tostarp daļēji autonomus bezpilota lidaparātus un bezpilota sauszemes transportlīdzekļus.

Nekontrolējams superinteliģents

Mākslīgais intelekts pārspēj cilvēka smadzenes dažādos aspektos, tostarp skaitļošanas ātrumā, iekšējās komunikācijas ātrumā, mērogojamībā, atmiņas ietilpībā, uzticamībā, dublēšanā, rediģēšanā, atmiņas koplietošanā un mācīšanās spējās:

  • Mākslīgais intelekts darbojas ar potenciāli vairākiem GHz, salīdzinot ar bioloģisko neironu 200 Hz robežu.
  • Aksoni pārraida signālus ar ātrumu 120 m/s, bet datori to dara ar elektrības vai gaismas ātrumu.
  • MI var viegli paplašināt, pievienojot vairāk aparatūras, atšķirībā no cilvēka intelekta, ko ierobežo smadzeņu izmērs un sociālās komunikācijas efektivitāte.
  • Cilvēku darba atmiņa ir ierobežota salīdzinājumā ar mākslīgā intelekta ekspansīvo atmiņas kapacitāti.
  • Tranzistoru uzticamība mākslīgajā intelektā pārsniedz bioloģisko neironu uzticamību, nodrošinot lielāku precizitāti un mazāku dublēšanos.
  • MI modeļus var viegli dublēt, modificēt un mācīties no citu MI pieredzes efektīvāk nekā cilvēki.

Kādu dienu mākslīgais intelekts var sasniegt tādu intelekta līmeni, kas krietni pārsniegs cilvēku, izraisot tā dēvēto intelekta sprādzienu.

Superinteliģence un cilvēku izmiršana

Šī rekursīvās pašpilnveidošanās ideja, kad mākslīgais intelekts sevi nepārtraukti uzlabo eksponenciālā ātrumā, ir radījusi bažas par iespējamām sekām, ko varētu radīt superinteliģentas vienības radīšana. Iedomājieties scenāriju, kurā mākslīgais intelekts sasniedz tādu inteliģences līmeni, kas ļauj tam pārspēt un pārspēt cilvēku visos iespējamos veidos. Šāds superinteliģents potenciāli varētu būt spējīgs pieņemt lēmumus, kas būtiski ietekmē mūsu sabiedrību un dzīvesveidu. Līdzīgi kā pašlaik cilvēku rokās ir daudzu sugu liktenis, arī cilvēces liktenis kādu dienu varētu būt superinteliģenta mākslīgā intelekta rokās.

Pārmērīga paļaušanās uz mākslīgo intelektu un juridiskā atbildība

Pārāk liela paļaušanās uz mākslīgā intelekta tehnoloģijām var izraisīt cilvēku ietekmes un darbības samazināšanos noteiktās sabiedrības jomās. Piemēram, izmantojot mākslīgo intelektu veselības aprūpē, var samazināties cilvēka empātija un spriestspēja. Turklāt, izmantojot ģeneratīvo AI radošiem uzdevumiem, varētu apslāpēt cilvēka radošumu un emocionālo izpausmi. Pārmērīga mijiedarbība ar mākslīgā intelekta sistēmām varētu arī novest pie savstarpējās komunikācijas un sociālo prasmju samazināšanās. Lai gan mākslīgais intelekts var būt noderīgs uzdevumu automatizēšanā, pastāv bažas par tā ietekmi uz vispārējo cilvēka intelektu, spējām un kopības izjūtu.

Turklāt pastāv potenciālas briesmas, kas varētu radīt fizisku kaitējumu cilvēkiem. Piemēram, ja uzņēmumi paļausies tikai uz mākslīgā intelekta prognozēm attiecībā uz tehniskās apkopes grafikiem, neveicot citu pārbaudi, tas var izraisīt mašīnu darbības traucējumus, kas var kaitēt darbiniekiem. Veselības aprūpē mākslīgā intelekta modeļi varētu novest pie nepareizas diagnozes noteikšanas.

Papildus fiziskam kaitējumam ir arī nefiziski veidi, kā mākslīgais intelekts var apdraudēt cilvēkus, ja tas netiek pienācīgi regulēts. Tas ietver jautājumus, kas saistīti ar digitālo drošību, piemēram, neslavas celšanu vai apmelošanu, finansiālo drošību, piemēram, AI ļaunprātīgu izmantošanu finanšu ieteikumos vai kredītu pārbaudēs, un bažas par taisnīgumu, kas saistītas ar AI neobjektivitāti, kura izraisa netaisnīgu noraidīšanu vai pieņemšanu dažādās programmās.

Un, ja kaut kas notiek nepareizi, kam būtu jāuzņemas atbildība? Vai tas ir pats mākslīgais intelekts, izstrādātājs, kas to radījis, uzņēmums, kas to nodevis ekspluatācijā, vai arī operators, ja iesaistīts cilvēks?

* * *

Nobeigumā jāsecina, ka, lai gan mākslīgais intelekts ir saistīts ar daudziem riskiem un draudiem, tam ir arī potenciāls sniegt lielu labumu sabiedrībai un uzlabot mūsu dzīvi. Ir svarīgi apzināties, ka, runājot par mākslīgā intelekta tehnoloģijām, labie aspekti bieži vien ir labāki par sliktajiem. Nākamajā rakstā mēs apspriedīsim stratēģijas, kā mazināt ar mākslīgo intelektu saistītos riskus, nodrošinot, ka mēs varam pilnībā izmantot tā potenciālu pozitīvām pārmaiņām.