Nuo mokslinės fantastikos iki realybės: Tikrieji dirbtinio intelekto pavojai
Dirbtinio intelekto atsiradimas yra svarbus technologinis proveržis, kuris gali sukelti revoliuciją visuomenėje, panašiai kaip internetas, asmeniniai kompiuteriai ir mobilieji telefonai. Jo įtaka yra plintanti, įsiskverbianti į įvairias žmogaus gyvenimo sritis - nuo darbo ir švietimo iki laisvalaikio. Sparti neuroninių tinklų pažanga kelia tam tikrą susirūpinimą, todėl šiame straipsnyje norime panagrinėti galimus pavojus, kuriuos dirbtinis intelektas gali kelti žmonijai.
Ar dirbtinis intelektas yra pavojingas? Kas išreiškė susirūpinimą?
Mokslinės fantastikos filmuose nevaldomo dirbtinio intelekto, siekiančio užvaldyti arba sunaikinti žmoniją, idėja yra populiari tema, matoma tokiuose filmuose kaip "Matrica" ir "Terminatorius". Šiandien, kai technologijų pažanga vyksta sparčiai, paprastam žmogui gali būti sudėtinga neatsilikti. Sparti dirbtinio intelekto pažanga verčia mūsų visuomenę greitai prisitaikyti, o tai kelia baimę dėl šių technologijų sudėtingumo ir įgimtos žmogaus nežinomybės baimės.
Nerimą dėl dirbtinio intelekto jaučia ne tik paprasti žmonės, bet ir šios srities ekspertai. Pavyzdžiui, Džefris Hintonas (Geoffrey Hinton), dažnai vadinamas "dirbtinio intelekto krikštatėviu", išreiškė savo nuogąstavimus:
Šios būtybės gali tapti protingesnės už mus ir nuspręsti perimti valdžią, todėl jau dabar turime rūpintis, kaip užkirsti tam kelią.
Ilgą laiką maniau, kad iki to liko 30-50 metų. Taigi aš tai vadinu dideliu atstumu iki kažko, kas turi didesnį bendrą intelektą nei žmogus. Dabar manau, kad galime būti daug arčiau, gal tik po penkerių metų.
Yra rimtas pavojus, kad gana greitai sulauksime už mus protingesnių daiktų, kurie gali įgyti blogų motyvų ir perimti kontrolę.
2023 m. kovo 22 d. buvo paskelbtas atviras laiškas, kuriame raginama šešiems mėnesiams sustabdyti už GPT-4 galingesnio dirbtinio intelekto kūrimą:
Šiuolaikinės dirbtinio intelekto sistemos dabar tampa konkurencingos su žmonėmis sprendžiant bendras užduotis, todėl turime savęs paklausti: Ar turėtume leisti mašinoms užtvindyti mūsų informacijos kanalus propaganda ir netiesa? Ar turėtume automatizuoti visus darbus, įskaitant ir tuos, kurie teikia pasitenkinimą? Ar turėtume kurti nežmogiškus protus, kurie ilgainiui gali mus pralenkti, pergudrauti, nustelbti ir pakeisti? Ar turėtume rizikuoti prarasti savo civilizacijos kontrolę? Tokie sprendimai neturi būti deleguojami nerinktiems technologijų lyderiams. Galingos dirbtinio intelekto sistemos turėtų būti kuriamos tik tada, kai būsime tikri, kad jų poveikis bus teigiamas, o rizika - valdoma. Šis pasitikėjimas turi būti gerai pagrįstas ir didėti kartu su galimo sistemos poveikio mastu.
Laišką pasirašė 1800 technologijų bendrovių vadovų, 1500 profesorių, mokslininkų ir dirbtinio intelekto srities tyrėjų:
- "SpaceX", "Tesla" ir "Twitter" generalinis direktorius Elonas Muskas
- Steve'as Wozniakas, vienas iš "Apple" įkūrėjų
- Emad Mostaque, "Stability AI" generalinis direktorius
- Jaan Tallinn, vienas iš "Skype" įkūrėjų, Egzistencinės rizikos tyrimų centras, Gyvenimo ateities institutas
- Evanas Sharpas, vienas iš "Pinterest" įkūrėjų
- Craig Peters, generalinis direktorius, Getty Images
- Markas Nitzbergas, Žmogaus poreikius atitinkančio dirbtinio intelekto centras, Berklio universiteto vykdomasis direktorius
- Gary Marcus, Niujorko universitetas, dirbtinio intelekto tyrėjas, profesorius emeritas
- Zachary Kentonas, "DeepMind", vyresnysis mokslinių tyrimų mokslininkas
- Ramana Kumar, "DeepMind", mokslinių tyrimų mokslininkas
- Michaelas Osborne'as, Oksfordo universitetas, mašinų mokymosi profesorius
- Adamas Smithas, Bostono universitetas, informatikos profesorius, Gėdelio ir Kanellakio premijos laureatas
Iš viso surinkta daugiau kaip 33 000 parašų.
Kiti žymūs veikėjai, tokie kaip Samas Altmanas (generalinis direktorius, "OpenAI"), Džefris Hintonas (Tiuringo premijos laureatas), Dario Amodei (generalinis direktorius, "Anthropic"), Billas Gatesas ir daugiau nei 350 vadovų bei dirbtinio intelekto tyrėjų pasirašė šį pareiškimą:
Išnykimo rizikos dėl dirbtinio intelekto mažinimas turėtų būti pasaulinis prioritetas, kaip ir kitos visuomeninio masto rizikos, tokios kaip pandemijos ir branduolinis karas.
Dirbtinio intelekto pavojai
2018 m. savaeigis "Uber" automobilis partrenkė ir užmušė pėsčiąjį.
2022 m. mokslininkai perkonfigūravo dirbtinio intelekto sistemą, iš pradžių sukurtą netoksiškoms, gydomosioms molekulėms kurti, kad ji galėtų gaminti cheminio ginklo medžiagas. Pakeitę sistemos nustatymus taip, kad už toksiškumą būtų atlyginama, o ne baudžiama, jie sugebėjo greitai, vos per šešias valandas, sukurti 40 000 potencialių cheminio ginklo molekulių.
2023 m. mokslininkai pademonstravo, kaip GPT-4 gali manipuliuoti "TaskRabbit" darbuotoju, kad šis atliktų "Captcha" patikrinimą. Visai neseniai buvo pranešta apie tragišką incidentą, kai po nerimą keliančio pokalbio su pokalbių robotu žmogus atėmė sau gyvybę.
Dirbtinio intelekto sistemų naudojimas, neatsižvelgiant į jų paskirtį, gali sukelti neigiamų pasekmių, pvz:
- Automatizavimo skatinamas darbo vietų praradimas
- Giluminės klastotės ir dezinformacija
- Privatumo pažeidimai
- Neaiškus teisinis reguliavimas
- Algoritminis šališkumas dėl blogų duomenų
- Finansų krizės
- Kibernetiniai nusikaltimai
- Ginklų automatizavimas
- Nekontroliuojamas superintelektas
Dirbtinio intelekto sistemos tampa vis galingesnės, o mes nežinome jų apribojimų. Šios sistemos gali būti panaudotos piktavališkais tikslais. Atidžiau panagrinėkime įvairius pavojus.
Darbo vietų praradimas dėl dirbtinio intelekto automatizavimo
Remiantis "Goldman Sachs" atlikto tyrimo duomenimis, dirbtinis intelektas gali turėti didelį poveikį darbo rinkoms visame pasaulyje. Analizuodami duomenų bazes, kuriose išsamiai aprašytas daugiau kaip 900 profesijų JAV ir 2000 profesijų Europos ESCO duomenų bazėje, "Goldman Sachs" ekonomistai apskaičiavo, kad maždaug du trečdaliai profesijų gali būti tam tikru laipsniu automatizuotos dirbtinio intelekto dėka.
Vertikalioji ašis rodo profesinio darbo krūvio dalį, kurią gali automatizuoti dirbtinis intelektas. Horizontalioji ašis rodo profesijų procentinę dalį.
Šių pasiekimų nulemti darbo procesų pokyčiai potencialiai galėtų automatizuoti 300 mln. visą darbo dieną dirbančių darbo vietų ekvivalentą. Tačiau ne visas šis automatizuotas darbas lems darbuotojų atleidimą. Daug darbo vietų ir pramonės šakų yra tik iš dalies jautrios automatizavimui, t. y. labiau tikėtina, kad dirbtinis intelektas jas papildys, o ne visiškai pakeis.
Seo.ai ši prognozė yra dar platesnė ir mano, kad iki 2030 m. dirbtinis intelektas gali pakeisti apie 800 mln. darbo vietų visame pasaulyje. Tikimasi, kad siekiant pasirengti šiam artėjančiam pokyčiui, per ateinančius trejus metus bus perkvalifikuota daugiau nei 120 mln. darbuotojų.
Jei norite sužinoti, kurioms profesijoms automatizavimas gresia labiau, o kurioms - mažiau, skaitykite mūsų straipsnį šia tema.
Dezinformacija
Net pažangiausi didelės kalbos modeliai gali generuoti neteisingą ar beprasmišką informaciją. Šios klaidos (haliucinacijos) dažnai atsiranda dėl to, kad modelis remiasi statistiniais duomenų, pagal kuriuos jis buvo apmokytas, modeliais, o ne tikru supratimu ar samprotavimais.
Kitaip tariant, pokalbių robotai kartais gali išgalvoti faktus. Tai paaiškėjo 2023 m., kai vienas Niujorko advokatas pateko į karštą vandenį už tai, kad naudojo ChatGPT teisiniam tyrimui atlikti asmens sužalojimo byloje. Jis parengė 10 puslapių santrauką, kurioje nurodė kelis ankstesnius teismo sprendimus, kurie, kaip paaiškėjo, buvo visiškai išgalvoti pokalbių roboto. Dėl to federalinis teisėjas advokatui ir jo kolegai skyrė sankcijas ir po 5 000 JAV dolerių baudą.
2024 m. dar vienas Niujorko advokatas buvo nubaustas už tai, kad citavo neegzistuojančią dirbtinio intelekto sukurtą bylą.
Kitas pavyzdys - "Stack Overflow", klausimų ir atsakymų svetainė, kuria daugiausia naudojasi programuotojai ir kūrėjai, norėdami užduoti techninius klausimus, ieškoti pagalbos sprendžiant kodavimo problemas ir dalytis žiniomis programuotojų bendruomenėje.
Svetainė turėjo uždrausti naudoti generatyvinį dirbtinį intelektą, nes vidutinis teisingų atsakymų iš įvairių pokalbių robotų gavimo rodiklis buvo per mažas, nors atsakymai paprastai atrodė įtikinami.
Socialinė manipuliacija
Šiais laikais socialinės žiniasklaidos platformas užplūsta tiek daug turinio, kad gali būti sunku viską suspėti. Štai kur ateina algoritminis kuratoriavimas. Jis iš esmės padeda atsijoti visą triukšmą ir pateikti naudotojams turinį, kuris, atsižvelgiant į ankstesnį elgesį, greičiausiai juos sudomins. Nors tai gali būti naudinga valdant nesibaigiantį informacijos srautą, tai taip pat reiškia, kad platforma turi daug kontrolės formuojant tai, ką naudotojai mato ir su kuo sąveikauja.
Tačiau tai, kas rodoma žmogaus naujienų sraute, gali turėti įtakos jo nuotaikai ir jo požiūriui į pasaulį apskritai. 2012 m. sausį "Facebook" duomenų mokslininkai pademonstravo, kaip sprendimai, susiję su naujienų srauto kuravimu, gali pakeisti naudotojų laimės lygį. 2021 m. sausio mėnesio įvykiai JAV Kapitolijaus rūmuose dar labiau išryškino, kaip kieno nors socialinės žiniasklaidos vartojimas gali turėti įtakos radikalizacijai.
Be to, kadangi sensacinga medžiaga paprastai ilgiau užkabina vartotojus, algoritmai, siekdami padidinti įsitraukimą, gali netyčia nukreipti vartotojus į provokuojantį ir žalingą turinį. Netgi turinio siūlymas pagal naudotojo interesus gali būti problemiškas, nes tai gali dar labiau įtvirtinti jo įsitikinimus "filtro burbule", užuot supažindinus su įvairiomis perspektyvomis. Galiausiai tai gali padidinti naudotojų poliarizaciją.
Perduodami sprendimų priėmimo galią platformoms, iš esmės suteikiame joms galimybę kontroliuoti tai, ką matome. Socialinė žiniasklaida, turinti pažangius algoritmus, puikiai tinka tikslinei rinkodarai, nes supranta mūsų pageidavimus ir mintis. Naujausiuose tyrimuose nagrinėjamas "Cambridge Analytica" ir panašių įmonių vaidmuo naudojant 50 milijonų "Facebook" naudotojų duomenis, siekiant daryti įtaką svarbiems politiniams įvykiams, pavyzdžiui, 2016 m. JAV prezidento rinkimams ir Jungtinės Karalystės "Brexit" referendumui. Jei šie įtarimai pasitvirtins, tai išryškins dirbtinio intelekto galimybes manipuliuoti visuomene. Naujesnis pavyzdys - Ferdinandas Marcosas jaunesnysis naudojo "TikTok" trolių armiją, kad paveiktų jaunesnius rinkėjus per 2022 m. Filipinų prezidento rinkimus. Pasitelkdamas asmeninius duomenis ir algoritmus, dirbtinis intelektas gali veiksmingai nukreipti į asmenis specifinę propagandą, nesvarbu, ar ji pagrįsta faktais, ar fikcija.
Deepfakes
"Deepfakes" - tai skaitmeniniu būdu pakeisti vaizdo įrašai ar vaizdai, kuriuose tikroviškai pavaizduotas asmuo, sakantis ar darantis tai, ko iš tikrųjų niekada nesakė ar nedarė. Ši technologija naudoja gilaus mokymosi algoritmus, kad būtų galima manipuliuoti esama vaizdo ir garso medžiaga ir sukurti įtikinamą netikrą turinį.
"Niekas nežino, kas tikra, o kas ne, - sakė futuristas Martinas Fordas. "Taigi iš tiesų susiklostė situacija, kai tiesiogine prasme negalite tikėti savo akimis ir ausimis; negalite pasikliauti tuo, ką istoriškai laikėme geriausiais įmanomais įrodymais... Tai bus didžiulė problema."
Viena iš pagrindinių priežasčių, kodėl "deepfakes" laikomi pavojingais, yra tai, kad juos galima panaudoti kenkėjiškais tikslais. Pavyzdžiui, giluminės klastotės gali būti naudojamos kuriant suklastotus vaizdo įrodymus teisinėse bylose, kaltinant asmenis nusikaltimais, kurių jie nepadarė, arba net apsimetant politiniu veikėju ir skleidžiant melagingą informaciją. Taip manipuliuojant žiniasklaida, "deepfakes" gali pakirsti pasitikėjimą tradiciniais informacijos šaltiniais ir pasėti sumaištį bei nesantaiką visuomenėje.
Bendrovės "DeepMedia", kuri kuria sintetinės žiniasklaidos aptikimo įrankius, duomenimis, 2023 m. socialinės žiniasklaidos svetainėse visame pasaulyje buvo paskelbta 500 000 gilių klastočių. Tai 3 kartus daugiau vaizdo įrašų deepfake ir 8 kartus daugiau balso deepfake, palyginti su 2022 m.
Keletas naujausių piktavališko "deepfakes" naudojimo pavyzdžių - netikrų įžymybių pornografijos kūrimas, kai įžymybių veidai skaitmeniniu būdu įterpiami į pornografinius vaizdo įrašus be jų sutikimo. Be to, pasitaikė atvejų, kai giliai suklastoti vaizdo įrašai buvo naudojami siekiant manipuliuoti akcijų kainomis, šmeižti asmenis arba skleisti politinę propagandą. Šie pavyzdžiai rodo, kad giliai suklastoti vaizdo įrašai gali būti naudojami žalingais ir apgaulingais tikslais.
Kibernetiniai nusikaltimai
Nusikaltimai elektroninėje erdvėje apima įvairią nusikalstamą veiklą, kuriai naudojami skaitmeniniai įrenginiai ir tinklai. Šie nusikaltimai susiję su technologijų naudojimu sukčiavimui, tapatybės vagystėms, duomenų apsaugos pažeidimams, kompiuteriniams virusams, sukčiavimui ir kitoms piktavališkoms veikoms vykdyti. Kibernetiniai nusikaltėliai naudojasi kompiuterių sistemų ir tinklų trūkumais, kad įgytų neteisėtą prieigą, pavogtų slaptą informaciją, sutrikdytų paslaugų teikimą ir padarytų žalos asmenims, organizacijoms ir vyriausybėms.
Piktavaliai vis dažniau naudoja lengvai prieinamas dirbtinio intelekto priemones, tokias kaip "ChatGPT", "Dall-E" ir "Midjourney", automatizuotoms sukčiavimo atakoms, apsimetinėjimo atakoms, socialinės inžinerijos atakoms ir netikriems klientų aptarnavimo pokalbių robotams.
"SlashNext State of Phishing Report 2023" ataskaitoje teigiama, kad piktavališkų sukčiavimo el. laiškų padaugėjo 1265 %, o tai daugiausia susiję su dirbtinio intelekto įrankių naudojimu tikslinėms atakoms.
Vis dažniau pasitaiko apsimetėlių atakų. Sukčiai, naudodamiesi ChatGPT ir kitomis priemonėmis, apsimeta tikrais asmenimis ir organizacijomis, užsiima tapatybės vagystėmis ir sukčiavimu. Panašiai kaip ir sukčiavimo atakų atveju, jie naudoja pokalbių robotus, kad siųstų balso žinutes, apsimesdami patikimais draugais, kolegomis ar šeimos nariais, siekdami gauti asmeninę informaciją ar prieigą prie paskyrų. Įspūdingu 2019 m. kovo mėn. atveju Vokietijos energetikos bendrovės JK patronuojamosios įmonės vadovas tapo sukčiaus, imitavusio vadovo balsą, auka, dėl to į Vengrijos banko sąskaitą buvo pervesta beveik 200 000 svarų sterlingų (243 000 JAV dolerių). Vėliau lėšos buvo pervestos į Meksiką ir išsklaidytos keliose vietose. Tyrėjai nenustatė jokių įtariamųjų.
2023 m. Nusikaltimų internete skundų centras (IC3) gavo precedento neturintį skaičių skundų iš Amerikos visuomenės: iš viso pateikta 880 418 skundų, o galimi nuostoliai viršijo 12,5 mlrd. dolerių. Tai reiškia, kad, palyginti su 2022 m., gautų skundų skaičius padidėjo beveik 10 %, o nuostoliai - 22 %. Nepaisant šių stulbinančių skaičių, svarbu pažymėti, kad jie greičiausiai nepakankamai atspindi tikrąjį kibernetinių nusikaltimų mastą 2023 m. Pavyzdžiui, FTB neseniai išardžius išpirkos reikalaujančių programų grupę "Hive", paaiškėjo, kad tik apie 20 % "Hive" aukų apie nusikaltimą pranešė teisėsaugos institucijoms.
Įsibrovimas į privatumą
Puikus socialinio stebėjimo pavyzdys - Kinijoje naudojama veido atpažinimo technologija biuruose, mokyklose ir kitose vietose. Ši technologija ne tik leidžia sekti asmenų judėjimą, bet ir potencialiai leidžia vyriausybei rinkti daugybę duomenų, kad galėtų stebėti jų veiksmus, veiklą, santykius ir ideologinius įsitikinimus.
Asmenys dabar gali būti stebimi ir internete, ir kasdieniame gyvenime. Kiekvienas pilietis vertinamas pagal jo elgesį, pavyzdžiui, vaikščiojimą pro šalį, rūkymą nerūkymo vietose ir laiką, praleistą žaidžiant vaizdo žaidimus. Įsivaizduokite, kad kiekvienas veiksmas turi įtakos jūsų asmeniniam balui socialinio kredito sistemoje.
Kai Didysis brolis jus stebi ir, remdamasis šia informacija, priima sprendimus, tai ne tik pažeidžia privatumą, bet ir greitai gali virsti socialine priespauda.
Finansų krizės
Šiandieniniame finansų pasaulyje mašininio mokymosi algoritmai yra plačiai naudojami, o rizikos draudimo fondai ir investicinės įmonės, analizuodamos akcijas ir turtą, labai pasikliauja šiais modeliais. Šiems algoritmams nuolat pateikiami didžiuliai tradicinių ir alternatyvių duomenų kiekiai, kad jie galėtų priimti prekybos sprendimus. Tačiau vis labiau nerimaujama, kad algoritminė prekyba potencialiai gali sukelti kitą didelę finansų krizę.
2010 m. "Flash Crash". 600 mlrd. dolerių išgaravo per 20 minučių
Vienas ryškus klaidingų algoritmų pavojaus pavyzdys - 2010 m. "Flash Crash", kai akcijų rinka per kelias minutes staiga smuko beveik 1 000 punktų, o paskui greitai atsigavo. Nors tą pačią dieną rinkos indeksai sugebėjo iš dalies atsigauti, "Flash Crash" sunaikino beveik 1 trilijoną JAV dolerių rinkos vertės. Šį staigų ir drastišką kainų kritimą iš esmės lėmė automatinės prekybos algoritmai, neprognozuojamai reaguojantys į rinkos sąlygas. Kitas atvejis - 2012 m. įvykęs "Knight Capital Flash Crash", kai dėl netinkamai veikiančio algoritmo įmonė vos per 45 minutes prarado 440 mln. dolerių ir galiausiai žlugo.
Šios avarijos blaiviai primena apie galimą riziką, kurią finansų rinkose kelia algoritminė prekyba. Kai algoritmai nėra tinkamai suprojektuoti, išbandyti ar prižiūrimi, jie gali turėti katastrofiškų pasekmių. Labai svarbu, kad finansų įstaigos kruopščiai patikrintų savo algoritmus ir užtikrintų tinkamą rizikos valdymo praktiką, kad ateityje būtų išvengta panašių nelaimių.
Robotai žudikai
Dirbtinio intelekto (DI) varomi autonominiai ginklai jau seniai kelia vyriausybių, kariuomenės pareigūnų ir žmogaus teisių gynėjų diskusijas ir susirūpinimą. Šios sistemos, dar vadinamos "robotais žudikais" arba "mirtinaisiais autonominiais ginklais", gali savarankiškai, be žmogaus įsikišimo, pasirinkti taikinius ir su jais susidoroti. Tai kelia didelį etinį, teisinį ir saugumo susirūpinimą, nes šie ginklai gali priimti sprendimus dėl gyvybės ar mirties be žmogaus priežiūros.
Pastaraisiais metais, kai dirbtinio intelekto technologija tapo pažangesnė ir labiau paplitusi, sparčiau vystomi autonominiai ginklai. Šie ginklai gali būti įvairūs - nuo bepiločių dronų iki antžeminių sistemų, kurios gali savarankiškai nustatyti ir atakuoti taikinius. Autonominių ginklų šalininkai teigia, kad jie gali sumažinti žmonių aukų skaičių konfliktų zonose ir užtikrinti tikslesnes ir veiksmingesnes karines operacijas. Tačiau kritikai teigia, kad šios sistemos kelia rimtų etinių klausimų ir gali turėti nenumatytų pasekmių, pavyzdžiui, eskaluoti konfliktus ir didinti civilių aukų skaičių.
Pavojus, kurį kelia autonominiai ginklai, varomi dirbtinio intelekto, yra labai realus. Į šias sistemas gali būti įsilaužta arba jos gali veikti netinkamai, todėl gali kilti nenumatytų padarinių ir gali būti prarasta kontrolė. Be to, dėl to, kad priimant sprendimus nėra žmogaus priežiūros, kyla susirūpinimas dėl atskaitomybės ir galimų tarptautinės humanitarinės teisės pažeidimų.
2020 m. daugiau nei 30 šalių paragino uždrausti mirtinus autonominius ginklus, motyvuodamos susirūpinimu dėl to, kad mašinos gali priimti sprendimus, susijusius su gyvybe ar mirtimi. Nepaisant šių nuogąstavimų, autonominių ginklų, naudojančių dirbtinį intelektą, kūrimas ir diegimas toliau vyksta. Žinoma, kad tokios šalys kaip Jungtinės Valstijos, Rusija, Kinija ir Izraelis daug investuoja į šias technologijas. JAV Gynybos departamentas kuria autonomines ginklų sistemas, įskaitant pusiau autonominius dronus ir nepilotuojamas antžemines transporto priemones.
Nevaldomas superintelektas
Dirbtinis intelektas pranoksta žmogaus smegenis įvairiais aspektais, įskaitant skaičiavimo greitį, vidinio ryšio greitį, mastelį, atminties talpą, patikimumą, dubliavimą, redagavimą, dalijimąsi atmintimi ir mokymosi galimybes:
- Dirbtinis intelektas veikia galimai kelių GHz dažniu, palyginti su 200 Hz biologinių neuronų riba.
- Aksonai perduoda signalus 120 m/s greičiu, o kompiuteriai - elektros arba šviesos greičiu.
- Skirtingai nuo žmogaus intelekto, kurį riboja smegenų dydis ir socialinio bendravimo efektyvumas, dirbtinį intelektą galima lengvai plėsti pridedant daugiau aparatinės įrangos.
- Žmonių darbinė atmintis yra ribota, palyginti su dirbtinio intelekto ekspansyvia atminties talpa.
- Tranzistorių patikimumas dirbtiniame intelekte pranoksta biologinių neuronų patikimumą, todėl galima pasiekti didesnį tikslumą ir mažesnį perteklių.
- DI modelius galima lengvai dubliuoti, modifikuoti ir veiksmingiau nei žmonės mokytis iš kitų DI patirties.
Vieną dieną dirbtinis intelektas gali pasiekti tokį intelekto lygį, kuris gerokai pranoks žmonių intelektą, o tai sukels vadinamąjį intelekto sprogimą.
Ši pasikartojančio savęs tobulinimo idėja, kai dirbtinis intelektas nuolat eksponentiškai tobulėja, sukėlė susirūpinimą dėl galimų superprotingo subjekto sukūrimo pasekmių. Įsivaizduokite scenarijų, kai dirbtinis intelektas pasiekia tokį intelekto lygį, kad gali visais įmanomais būdais aplenkti ir pranokti žmones. Šis superinteligentiškumas potencialiai galėtų turėti galią priimti sprendimus, darančius didelę įtaką mūsų visuomenei ir gyvenimo būdui. Kaip šiuo metu žmonių rankose yra daugelio rūšių likimas, taip ir žmonijos likimas vieną dieną gali būti superintelektualaus dirbtinio intelekto rankose.
Pernelyg didelis pasitikėjimas dirbtiniu intelektu ir teisinė atsakomybė
Pernelyg didelė priklausomybė nuo dirbtinio intelekto technologijų gali sumažinti žmogaus įtaką ir veikimą tam tikrose visuomenės srityse. Pavyzdžiui, naudojant dirbtinį intelektą sveikatos priežiūros srityje, gali sumažėti žmogaus empatija ir mąstymas. Be to, generatyvinio dirbtinio intelekto naudojimas kūrybiniams tikslams gali slopinti žmogaus kūrybiškumą ir emocinę raišką. Pernelyg intensyvus bendravimas su dirbtinio intelekto sistemomis taip pat gali lemti bendravimo su bendraamžiais ir socialinių įgūdžių silpnėjimą. Nors dirbtinis intelektas gali būti naudingas automatizuojant užduotis, nerimą kelia jo poveikis bendram žmogaus protui, gebėjimams ir bendruomeniškumo jausmui.
Be to, yra potencialių pavojų, dėl kurių žmonės gali patirti fizinę žalą. Pavyzdžiui, jei įmonės, sudarydamos techninės priežiūros grafikus, pasikliauja vien tik DI prognozėmis, neatlikdamos kitų patikrinimų, gali kilti mašinų gedimų, dėl kurių nukentėtų darbuotojai. Sveikatos priežiūros srityje dirbtinio intelekto modeliai gali lemti neteisingą diagnozę.
Be fizinės žalos, yra ir nefizinių būdų, kuriais dirbtinis intelektas gali kelti pavojų žmonėms, jei nebus tinkamai reguliuojamas. Tai apima skaitmeninės saugos problemas, pavyzdžiui, šmeižtą ar įžeidimą, finansinę saugą, pavyzdžiui, netinkamą dirbtinio intelekto naudojimą teikiant finansines rekomendacijas ar tikrinant kreditingumą, ir teisingumo problemas, susijusias su dirbtinio intelekto šališkumu, dėl kurio įvairiose programose nesąžiningai atmetamos ar priimamos paraiškos.
Ir kas turėtų atsakyti, kai kas nors nepavyksta? Ar pats dirbtinis intelektas, jį sukūręs kūrėjas, jį pradėjusi naudoti įmonė, ar operatorius, jei tai buvo žmogus?
* * *
Apibendrinant galima teigti, kad nors dirbtinis intelektas kelia daug pavojų ir grėsmių, jis taip pat gali būti labai naudingas visuomenei ir pagerinti mūsų gyvenimą. Svarbu pripažinti, kad, kalbant apie dirbtinio intelekto technologiją, geri dalykai dažnai nusveria blogus. Kitame straipsnyje aptarsime su dirbtiniu intelektu susijusios rizikos mažinimo strategijas, užtikrinančias, kad galėtume visapusiškai išnaudoti jo potencialą teigiamiems pokyčiams.