Tagasi pealehele

Teadusfantastikast reaalsuseni: Tehisintellekti tegelikud ohud

Tehisintellekti esilekerkimine kujutab endast olulist tehnoloogilist läbimurret, mis on valmis revolutsiooniliselt muutma ühiskonda, nagu seda on teinud internet, personaalarvutid ja mobiiltelefonid. Selle mõju on ulatuslik, tungides inimese elu eri aspektidesse alates tööst ja haridusest kuni vaba aja veetmiseni. Neuronivõrkude kiire areng tekitab mõningast muret, mis sunnib meid käesolevas artiklis uurima võimalikke ohte, mida tehisintellekt võib inimkonnale kujutada.

Kas tehisintellekt on ohtlik? Kes väljendas muret?

Sci-fi-filmides on idee kontrollimatust tehisintellektist, mis tahab domineerida või hävitada inimkonna, populaarne teema, nagu on näha sellistes filmides nagu "Matrix" ja "Terminaator". Tänapäeva kiire tehnoloogilise arengu tempo tõttu võib keskmisele inimesele olla raske sammu pidada. Tehisintellekti kiire areng sunnib meie ühiskonda kiiresti kohanema, tekitades hirmu nende tehnoloogiate keerukuse ja inimese loomupärase hirmu tundmatuse ees.

Mitte ainult tavalised inimesed ei tunne tehisintellekti suhtes ärevust, vaid ka valdkonna eksperdid väljendavad oma muret. Näiteks Geoffrey Hinton, keda sageli nimetatakse "tehisintellekti ristivanemaks", on väljendanud oma kartusi:

Need olendid võivad saada meist intelligentsemaks ja otsustada üle võtta võimu, ning me peame nüüd muretsema, kuidas seda vältida.

Ma arvasin pikka aega, et me oleme sellest umbes 30-50 aasta kaugusel. Nii et ma nimetan seda kaugeks seda, et midagi, millel on suurem üldine intelligentsus kui inimesel, on kaugel. Nüüd arvan, et me võime olla palju lähemal, võib-olla ainult viie aasta kaugusel.

On tõsine oht, et meil tekib üsna varsti meist targemad asjad ja et need asjad võivad saada halvad motiivid ja võtta kontrolli.

22. märtsil 2023 avaldati avatud kiri, milles kutsuti üles peatama GPT-4-st võimsama tehisintellekti arendamine kuueks kuuks ajaks:

Kaasaegsed tehisintellektisüsteemid on nüüd muutumas üldistes ülesannetes inimkonkurentsivõimeliseks ja me peame endalt küsima: Kas me peaksime laskma masinatel üle ujutada meie infokanalid propaganda ja ebatõega? Kas me peaksime automatiseerima ära kõik töökohad, sealhulgas täitvad töökohad? Kas me peaksime arendama mitteinimlikke ajusid, mis võivad meid lõpuks üle olla, meid üle trumbata, vananeda ja asendada? Kas peaksime riskima kontrolli kaotamisega oma tsivilisatsiooni üle? Selliseid otsuseid ei tohi delegeerida valimata tehnoloogiajuhtidele. Võimsaid tehisintellekti süsteeme tuleks arendada alles siis, kui me oleme kindlad, et nende mõju on positiivne ja nende riskid on hallatavad. See kindlustunne peab olema hästi põhjendatud ja suurenema koos süsteemi võimalike mõjude ulatusega.

Kirjale kirjutasid alla 1800 tehnoloogiaettevõtte juhti, 1500 professorit, teadlast ja teadlast tehisintellekti valdkonnas:

  • Elon Musk, SpaceXi, Tesla ja Twitteri tegevjuht.
  • Steve Wozniak, Apple'i kaasasutaja.
  • Emad Mostaque, Stability AI tegevjuht.
  • Jaan Tallinn, Skype'i kaasasutaja, eksistentsiaalsete riskide uurimiskeskus, Future of Life Institute.
  • Evan Sharp, Pinteresti kaasasutaja.
  • Craig Peters, tegevjuht, Getty Images.
  • Mark Nitzberg, UC Berkeley inimsõbraliku tehisintellekti keskus, tegevdirektor.
  • Gary Marcus, New Yorgi Ülikool, tehisintellekti uurija, emeriitprofessor.
  • Zachary Kenton, DeepMind, vanemteadur.
  • Ramana Kumar, DeepMind, teadlane.
  • Michael Osborne, Oxfordi Ülikool, masinõppe professor.
  • Adam Smith, Bostoni Ülikool, arvutiteaduse professor, Gödeli auhind, Kanellakise auhind.

Kokku koguti üle 33 000 allkirja.

Teised märkimisväärsed tegelased, nagu Sam Altman (OpenAI tegevjuht), Geoffrey Hinton (Turingi auhinna võitja), Dario Amodei (Anthropici tegevjuht) ja Bill Gates, samuti üle 350 juhi ja tehisintellekti teadlase kirjutasid alla järgmisele avaldusele:

Tehisintellekti põhjustatud väljasuremisohu leevendamine peaks olema ülemaailmne prioriteet koos teiste ühiskondlike riskide, nagu pandeemiad ja tuumasõda, kõrval.

Tehisintellekti ohud

2018. aastal sõitis isesõitev Uberi auto jalakäijat ja tappis ta.

2022. aastal konfigureerisid teadlased algselt mittetoksiliste, tervendavate molekulide loomiseks loodud tehisintellekti süsteemi ümber keemiliste sõjapidamisvahendite tootmiseks. Muutes süsteemi seadeid nii, et need premeeriksid mürgisust, mitte ei karistaks seda, suutsid nad vaid kuue tunniga kiiresti luua 40 000 potentsiaalset molekuli keemiliseks sõjapidamiseks.

2023. aastal näitasid teadlased, kuidas GPT-4 suudab manipuleerida TaskRabbiti töötajat Captcha kontrollimise lõpuleviimiseks. Hiljuti teatati traagilisest juhtumist, kus üks inimene võttis endale elu pärast rahutut vestlust juturobotiga.

GPT-4 läbib Captcha kontrolli

Tehisintellekti süsteemide kasutamine, sõltumata nende eesmärgist, võib põhjustada negatiivseid tagajärgi, näiteks:

  • Automatiseerimise poolt esilekutsutud töökohtade kadumine
  • Deepfakes ja väärinfo
  • Eraelu puutumatuse rikkumine
  • Ebaselge õiguslik reguleerimine
  • Halbadest andmetest põhjustatud algoritmiline eelarvamuslikkus
  • Finantskriisid
  • Küberkuritegevus
  • Relvade automatiseerimine
  • Kontrollimatu superintellekt

Tehisintellekti süsteemid muutuvad üha võimsamaks ja me ei tea nende piiranguid. Neid süsteeme võidakse kasutada pahatahtlikel eesmärkidel. Uurime erinevaid riske lähemalt.

Töökohtade kadumine tänu tehisintellekti automatiseerimisele

Goldman Sachsi poolt läbi viidud uuringu kohaselt võib tehisintellekt oluliselt mõjutada tööturge kogu maailmas. Analüüsides andmebaase, mis kirjeldavad üksikasjalikult üle 900 ametiülesande USAs ja 2000 ametiülesannet Euroopa ESCO andmebaasis, hindavad Goldman Sachsi majandusteadlased, et umbes kaks kolmandikku ametitest on mingil määral tehisintellekti abil automatiseeritavad.

Protsent ametitest ja töökoormuse osakaal, mis on seotud tehisintellekti automatiseerimisega

Vertikaalteljel on näidatud tehisintellekti poolt automatiseeritava töökoormuse osakaal. Horisontaalne telg näitab ametite osakaalu protsentides.

Nende edusammude põhjustatud muutused töövoogudes võivad automatiseerida 300 miljoni täistööajaga töökoha ekvivalendi. Kuid mitte kõik need automatiseeritud tööd ei too kaasa koondamisi. Paljud töökohad ja tööstusharud on automatiseerimisele ainult osaliselt vastuvõtlikud, mis tähendab, et neid pigem täiendatakse tehisintellekti abil, mitte ei asendata täielikult.

Seo.ai läheb selles prognoosis veelgi kaugemale, hinnates, et 2030. aastaks võib tehisintellekt asendada umbes 800 miljonit töökohta kogu maailmas. Selleks, et valmistuda selleks eelseisvaks muutuseks, eeldatakse, et järgmise kolme aasta jooksul läbib ümberõppe rohkem kui 120 miljonit töötajat.

Kui soovite teada, millised ametid on automatiseerimisele rohkem ja millised vähem ohustatud, vaadake meie teemakohast artiklit.

Väärteave

Isegi kõige arenenumad suured keelemudelid on vastuvõtlikud ebaõige või mõttetu teabe genereerimisele. Need vead (hallutsinatsioonid) on sageli tingitud sellest, et mudel tugineb pigem statistilistele mustritele andmetes, mille põhjal ta on treenitud, kui tõelisele mõistmisele või arutluskäitumisele.

Teisisõnu võivad juturobotid mõnikord fakte välja mõelda. See sai selgeks 2023. aastal, kui üks New Yorgi advokaat sattus kuuma vette, kuna kasutas ChatGPT-d isikukahju juhtumi jaoks juriidilise uurimistöö tegemiseks. Ta koostas 10-leheküljelise kokkuvõtte, milles viitas mitmetele varasematele kohtuotsustele, mis kõik osutusid täielikult vestlusroboti poolt fabritseerituks. Selle tulemusel määras föderaalkohtunik advokaadile ja kolleegile karistuse ja määras mõlemale 5000 dollari suuruse trahvi.

2024. aastal karistati veel üht New Yorgi advokaati, kes viitas tehisintellekti poolt genereeritud olematule kohtuasjale.

Tehisintellekti hallutsinatsioon

Teine näide on Stack Overflow, küsimuste ja vastuste veebisait, mida kasutavad peamiselt programmeerijad ja arendajad, et esitada tehnilisi küsimusi, otsida abi kodeerimisprobleemide puhul ja jagada teadmisi programmeerimiskogukonnas.

Sait pidi keelama igasuguse genereeriva tehisintellekti kasutamise, sest erinevate vestlusrobotite õigete vastuste keskmine määr oli liiga madal, kuigi vastused nägid tavaliselt veenvad välja.

Sotsiaalne manipuleerimine

Sotsiaalmeediaplatvormid on tänapäeval üle ujutatud nii suure hulga sisuga, et selle kõigega sammu pidamine võib olla üle jõu käiv. Siinkohal tulebki appi algoritmiline kureerimine. See aitab sisuliselt kogu müra läbi sõeluda ja esitada kasutajatele sisu, mis neid varasemate käitumiste põhjal kõige tõenäolisemalt huvitab. Kuigi see võib olla abiks lõputu infovoo haldamisel, tähendab see ka seda, et platvormil on palju kontrolli selle üle, mida kasutajad näevad ja millega nad suhtlevad.

Kuid selle muutmine, mida kellegi uudisvoos näidatakse, võib mõjutada tema meeleolu ja seda, kuidas ta maailma üldiselt näeb. 2012. aasta jaanuaris näitasid Facebooki andmeteadlased, kuidas uudisvoo kureerimise otsused võivad muuta kasutajate õnnelikkuse taset. 2021. aasta jaanuari sündmused USAs USA kapitooliumis tõid veelgi enam esile, kuidas kellegi sotsiaalmeedia tarbimine võib mängida rolli radikaliseerumisel.

Lisaks, kuna sensatsiooniline materjal kipub kasutajaid pikemalt kinni hoidma, võivad algoritmid tahtmatult suunata kasutajaid provokatiivse ja kahjuliku sisu poole, et suurendada kaasatust. Isegi kasutaja huvidest lähtuva sisu soovitamine võib olla problemaatiline, kuna see võib veelgi enam kinnistada kasutaja veendumusi "filtrimulli" sees, selle asemel et teda erinevate vaatenurkadega tutvustada. See võib lõppkokkuvõttes põhjustada kasutajate seas suuremat polariseerumist.

Inimesed oma mullides

Kui me anname oma otsustusõiguse üle platvormidele, anname neile sisuliselt kontrolli selle üle, mida me näeme. Sotsiaalmeedia oma täiustatud algoritmidega paistab silma sihipärase turunduse vallas, mõistes meie eelistusi ja mõtteid. Hiljutised uurimised uurivad Cambridge Analytica ja sarnaste firmade rolli 50 miljoni Facebooki kasutaja andmete kasutamisel, et mõjutada suuri poliitilisi sündmusi, nagu 2016. aasta USA presidendivalimised ja Ühendkuningriigi Brexiti-referendum. Kui need süüdistused osutuvad tõeks, toob see esile tehisintellekti potentsiaali ühiskonna manipuleerimiseks. Värskem näide on Ferdinand Marcos Jr. kasutamine TikToki trolliarmee abil, et mõjutada nooremaid valijaid 2022. aasta Filipiinide presidendivalimistel. Isikuandmeid ja algoritme kasutades saab tehisintellektuaal tõhusalt sihtida üksikisikuid konkreetse propagandaga, olenemata sellest, kas see põhineb faktidel või väljamõeldistel.

Deepfakes

Deepfakes on digitaalselt muudetud videod või pildid, mis kujutavad reaalselt isikut, kes ütleb või teeb midagi, mida ta tegelikult ei öelnud ega teinud. See tehnoloogia kasutab süvaõppe algoritme, et manipuleerida olemasolevat video- ja helimaterjali veenva võltsitud sisu loomiseks.

"Keegi ei tea, mis on reaalne ja mis mitte," ütles futurist Martin Ford. "Nii et see viib tõesti olukorrani, kus te ei saa sõna otseses mõttes uskuda oma silmi ja kõrvu; te ei saa toetuda sellele, mida me ajalooliselt oleme pidanud parimateks võimalikeks tõenditeks.... See saab olema suur probleem."

Üks peamisi põhjusi, miks deepfakes'i peetakse ohtlikuks, on nende potentsiaal kasutada neid pahatahtlikel eesmärkidel. Näiteks võib deepfake'i kasutada selleks, et luua võltsitud videotõendeid kohtuasjades, süüdistada isikuid kuritegudes, mida nad ei ole toime pannud, või isegi kehastuda poliitiliseks isikuks, et levitada valeinfot. Sellisel viisil meediaga manipuleerides on deepfake'idel võimekus häirida usaldust traditsiooniliste teabeallikate vastu ning külvata ühiskonnas segadust ja ebakõla.

Sünteetilise meedia tuvastamise vahenditega tegeleva ettevõtte DeepMedia andmetel postitati 2023. aastal sotsiaalmeedia saitidel maailmas 500 000 deepfake'i. See on 3 korda rohkem videofikseid ja 8 korda rohkem häälfikseid võrreldes 2022. aastaga.

Mõned hiljutised näited deepfake'ide pahatahtlikust kasutamisest hõlmavad võltsitud kuulsuste pornograafia loomist, kus kuulsuste näod lisatakse digitaalselt ja ilma nende nõusolekuta pornograafilistesse videotesse. Lisaks on esinenud juhtumeid, kus deepfake-videosid on kasutatud aktsiahindadega manipuleerimiseks, üksikisikute laimamiseks või poliitilise propaganda levitamiseks. Need näited rõhutavad deepfake'ide potentsiaali kasutada neid kahjulikel ja eksitavatel eesmärkidel.

Küberkuritegevus

Küberkuritegevus hõlmab mitmesuguseid kuritegelikke tegevusi, milles kasutatakse digiseadmeid ja -võrke. Need kuriteod hõlmavad tehnoloogia kasutamist pettuse, identiteedivarguse, andmemurde, arvutiviiruste, pettuste ja muude pahatahtlike tegude toimepanemiseks. Küberkurjategijad kasutavad ära arvutisüsteemide ja -võrkude nõrkusi, et saada loata juurdepääs, varastada tundlikku teavet, häirida teenuseid ja tekitada kahju üksikisikutele, organisatsioonidele ja valitsustele.

Vaenlased kasutavad üha enam selliseid kergesti kättesaadavaid tehisintellekti vahendeid nagu ChatGPT, Dall-E ja Midjourney automatiseeritud andmepüügirünnakuteks, imitatsioonirünnakuteks, sotsiaalse inseneri rünnakuteks ja võltsitud klienditoe juturobotideks.

SlashNext Phishingi aruande 2023 kohaselt on pahatahtlike andmepüügi e-kirjade arv 1265% võrra kasvanud, mis on suuresti tingitud tehisintellekti vahendite kasutamisest suunatud rünnakutes.

Üha sagedasemaks muutuvad imitatsioonirünnakud. Petturid kasutavad ChatGPT ja muid vahendeid, et kehastuda reaalseteks isikuteks ja organisatsioonideks, tegeledes identiteedivarguse ja pettusega. Sarnaselt andmepüügirünnakutega kasutavad nad chatroboteid, et saata häälteadeteid, milles esitletakse usaldusväärset sõpra, kolleegi või pereliiget, et saada isikuandmeid või juurdepääsu kontodele. Ühe märkimisväärse juhtumi puhul 2019. aasta märtsist langes Saksa energiaettevõtte Ühendkuningriigi tütarettevõtte juht petturi ohvriks, kes jäljendas tegevjuhi häält, mille tulemusel kanti Ungari pangakontole ligi 200 000 naela (243 000 dollarit). Hiljem viidi raha Mehhikosse ja hajutati mitmesse kohta. Uurijad ei ole ühtegi kahtlusalust tuvastanud.

Küberkuritegevus ja karistamine

2023. aastal sai Interneti-kuritegevuse kaebuste keskus (IC3) enneolematult palju kaebusi Ameerika avalikkuselt: kokku esitati 880 418 kaebust, mille potentsiaalne kahju ületas 12,5 miljardit dollarit. See tähendab, et võrreldes 2022. aastaga on laekunud kaebuste arv suurenenud peaaegu 10% ja kahjude arv 22%. Vaatamata nendele vapustavatele arvudele on oluline märkida, et need tõenäoliselt alahindavad küberkuritegevuse tegelikku ulatust 2023. aastal. Näiteks kui FBI hiljuti Hive'i lunavaragrupi likvideeris, avastati, et ainult umbes 20% Hive'i ohvritest oli õiguskaitseasutustele kuriteost teatanud.

Eraelu puutumatuse rikkumine

Parim näide sotsiaalsest jälgimisest on Hiina näotuvastustehnoloogia kasutamine kontorites, koolides ja muudes kohtades. See tehnoloogia ei võimalda mitte ainult jälgida üksikisikute liikumist, vaid võimaldab valitsusel potentsiaalselt koguda ulatuslikke andmeid nende tegevuse, tegevuse, suhete ja ideoloogiliste veendumuste jälgimiseks.

Üksikisikuid saab nüüd jälgida nii internetis kui ka nende igapäevaelus. Iga kodanikku hinnatakse tema käitumise põhjal, näiteks ülekäigurajal käimine, suitsetamine suitsetamiskeelualadel ja videomängude mängimisele kulutatud aeg. Kujutage ette, et iga tegevus mõjutab teie isiklikku punktisummat sotsiaalses krediidisüsteemis.

Kui Suur Vend jälgib teid ja teeb selle teabe põhjal otsuseid, ei ole see mitte ainult eraelu puutumatuse rikkumine, vaid võib kiiresti muutuda sotsiaalseks rõhumiseks.

Finantskriisid

Tänapäeva finantsmaailmas on masinõppe algoritmide kasutamine laialt levinud, kusjuures riskifondid ja investeerimisfirmad tuginevad aktsiate ja varade analüüsimisel suuresti nendele mudelitele. Neid algoritme toidetakse pidevalt tohutu hulga traditsiooniliste ja alternatiivsete andmetega, et teha kauplemisotsuseid. Siiski kasvab mure, et algoritmkauplemine võib vallandada järgmise suure finantskriisi.

2010 Flash Crash. 600 miljardit dollarit haihtus 20 minutiga

2010 Flash Crash. 600 miljardit dollarit haihtus 20 minutiga

Üks märkimisväärne näide vigaste algoritmide ohtlikkusest on 2010. aasta välkkrahh, kus aktsiaturg kukkus järsku mõne minutiga peaaegu 1000 punkti, enne kui taastus kiiresti. Kuigi turuindeksid suutsid samal päeval osaliselt taastuda, hävitas Flash Crash peaaegu 1 triljoni dollari suuruse turuväärtuse. See ootamatu ja järsk hinnalangus oli suuresti tingitud automaatsetest kauplemisalgoritmidest, mis reageerisid turutingimustele ettearvamatult. Teine näide oli Knight Capitali Flash Crash 2012. aastal, kus vigane algoritm põhjustas firmale 440 miljoni dollari suuruse kaotuse vaid 45 minutiga, mis lõppkokkuvõttes viis selle hävinguni.

Need õnnetused on kainestavaks meeldetuletuseks võimalike riskide kohta, mida algoritmkauplemine finantsturgudel kujutab endast. Kui algoritmid ei ole nõuetekohaselt kavandatud, testitud või jälgitud, võivad neil olla katastroofilised tagajärjed. Finantsasutuste jaoks on väga oluline, et nad kontrolliksid oma algoritme põhjalikult ja tagaksid nõuetekohase riskijuhtimise, et vältida sarnaseid katastroofe tulevikus.

Killer robotid

Tehisintellekti abil töötavad autonoomsed relvad on juba pikka aega olnud valitsuste, sõjaväeametnike ja inimõiguste kaitsjate arutelude ja murede teemaks. Need süsteemid, mida tuntakse ka kui "tapjaroboteid" või "surmavaid autonoomseid relvi", on võimelised iseseisvalt valima sihtmärke ja nendega tegelema ilma inimese sekkumiseta. See tekitab märkimisväärseid eetilisi, õiguslikke ja julgeolekualaseid probleeme, kuna need relvad võivad teha otsuseid elu ja surma kohta ilma inimese järelevalveta.

Autonoomsete relvade arendamine on viimastel aastatel kiirenenud, kuna tehisintellekti tehnoloogia on muutunud arenenumaks ja laialdasemaks. Need relvad võivad ulatuda mehitamata droonidest kuni maapealsete süsteemideni, mis suudavad autonoomselt sihtmärke tuvastada ja rünnata. Autonoomsete relvade pooldajad väidavad, et need võivad vähendada inimohvreid konfliktipiirkondades ning pakkuda täpsemaid ja tõhusamaid sõjalisi operatsioone. Kriitikud väidavad aga, et need süsteemid tekitavad tõsiseid eetilisi küsimusi ja neil võivad olla soovimatud tagajärjed, näiteks konfliktide eskaleerumine ja tsiviilohvrid.

Oht, mida kujutavad endast tehisintellekti abil töötavad autonoomsed relvad, on väga reaalne. Neid süsteeme võidakse häkkida või nende töös võib tekkida tõrkeid, mis võivad põhjustada soovimatuid tagajärgi ja kontrolli kaotamist. Lisaks sellele tekitab inimkontrolli puudumine otsuste tegemisel muret vastutuse ja rahvusvahelise humanitaarõiguse võimaliku rikkumise pärast.

Killerrobotid ulmes

2020. aastal nõudis üle 30 riigi surmavate autonoomsete relvade keelustamist, viidates murele, et masinad võivad langetada otsuseid elu ja surma kohta. Hoolimata nendest muredest jätkub tehisintellekti abil toimivate autonoomsete relvade arendamine ja kasutuselevõtt. Sellised riigid nagu Ameerika Ühendriigid, Venemaa, Hiina ja Iisrael investeerivad teadaolevalt palju sellesse tehnoloogiasse. USA kaitseministeerium on arendanud autonoomseid relvasüsteeme, sealhulgas poolautonoomseid droone ja mehitamata maapealseid sõidukeid.

Kontrollimatu superintellekt

Tehisintellekt ületab inimese aju mitmel viisil, sealhulgas arvutuskiiruse, sisemise kommunikatsiooni kiiruse, skaleeritavuse, mälumahu, usaldusväärsuse, dubleeritavuse, redigeeritavuse, mälu jagamise ja õppimisvõime poolest:

  • Tehisintellekt töötab potentsiaalselt mitmel GHz, võrreldes bioloogiliste neuronite 200 Hz piiriga.
  • Aksonid edastavad signaale kiirusega 120 m/s, samas kui arvutid teevad seda elektri või valguse kiirusega.
  • Tehisintellekti saab hõlpsasti skaleerida, lisades rohkem riistvara, erinevalt inimintellektist, mida piiravad aju suurus ja sotsiaalse suhtluse tõhusus.
  • Inimeste töömälu on piiratud võrreldes tehisintellekti ulatusliku mälumahuga.
  • Tehisintellekti transistoride töökindlus ületab bioloogiliste neuronite töökindluse, võimaldades suuremat täpsust ja vähem üleliigsust.
  • Tehisintellekti mudeleid saab hõlpsasti dubleerida, muuta ja õppida teistest tehisintellekti kogemustest tõhusamalt kui inimesed.

Ühel päeval võib tehisintellekt jõuda intelligentsuse tasemeni, mis ületab kaugelt inimese intelligentsuse taseme, mis viib nn intelligentsuse plahvatuseni.

Superintellekt ja inimese väljasuremine

See rekursiivse enesetäiendamise idee, kus tehisintellekt pidevalt parandab end eksponentsiaalse kiirusega, on tekitanud muret superintelligentse üksuse loomise võimalike tagajärgede pärast. Kujutage ette stsenaariumi, kus tehisintellekt jõuab intelligentsuse tasemele, mis võimaldab tal igal mõeldaval viisil inimestest paremini mõelda ja neid ületada. Sellisel superintelligentsil võiks olla potentsiaalselt võime teha otsuseid, mis mõjutavad oluliselt meie ühiskonda ja eluviisi. Nii nagu praegu on paljude liikide saatus meie käes, võib inimkonna saatus ühel päeval olla superintelligentse tehisintellekti käes.

Liigne tuginemine tehisintellektile ja õiguslik vastutus

Liiga suur tuginemine tehisintellekti tehnoloogiale võib viia inimese mõju ja toimimise vähenemiseni teatavates ühiskonna valdkondades. Näiteks võib tehisintellekti kasutamine tervishoius viia inimliku empaatia ja arutlusvõime vähenemiseni. Lisaks võib tehisintellekti kasutamine loomingulistes tegevustes lämmatada inimese loovuse ja emotsionaalse väljenduse. Liigne suhtlemine tehisintellekti süsteemidega võib viia ka eakaaslaste suhtlemise ja sotsiaalsete oskuste vähenemiseni. Kuigi tehisintellekt võib olla kasulik ülesannete automatiseerimisel, tekitab muret selle mõju inimese üldisele intelligentsusele, võimetele ja kogukonnatundele.

Lisaks sellele on potentsiaalsed ohud, mis võivad põhjustada inimestele füüsilist kahju. Näiteks kui ettevõtted tuginevad hoolduskavade koostamisel üksnes tehisintellekti prognoosidele ilma muu kontrollita, võib see põhjustada masinate rikkeid, mis kahjustavad töötajaid. Tervishoius võivad tehisintellekti mudelid viia valediagnoosideni.

Lisaks füüsilisele kahjule on ka mittefüüsilisi viise, kuidas tehisintellektuaali kasutamine võib inimestele ohtu kujutada, kui seda ei reguleerita nõuetekohaselt. See hõlmab digitaalse turvalisuse küsimusi, nagu laimamine või laimamine, finantsohutuse küsimusi, nagu tehisintellekti väärkasutamine finantssoovitustes või krediidikontrollides, ning õigluse probleeme, mis on seotud tehisintellekti eelarvamustega, mis viivad ebaõiglaste tagasilükkamiste või vastuvõtmiste tegemiseni erinevates programmides.

Ja kui midagi läheb valesti, siis kes peaks vastutama? Kas tehisintellekti enda, selle looja, selle kasutusele võtnud ettevõte või operaator, kui sellega oli seotud inimene?

* * *

Kokkuvõttes võib öelda, et kuigi tehisintellektiga kaasneb palju riske ja ohte, on tal ka potentsiaali tuua ühiskonnale suurt kasu ja parandada meie elu. Oluline on tunnistada, et tehisintellekti tehnoloogia puhul kaalub hea sageli üles halva. Järgmises artiklis arutame strateegiaid, kuidas leevendada tehisintellektiga seotud riske, tagades, et saame täielikult ära kasutada selle potentsiaali positiivsete muutuste saavutamiseks.