Science Fictionista todellisuuteen: Tekoälyn todelliset vaarat
Tekoälyn nousu on merkittävä teknologinen läpimurto, joka on valmis mullistamaan yhteiskunnan aivan kuten internet, henkilökohtaiset tietokoneet ja matkapuhelimet ovat tehneet. Sen vaikutus on laaja-alainen, ja se tunkeutuu ihmisten elämän eri osa-alueille työstä ja koulutuksesta vapaa-ajan toimintaan. Neuroverkkojen nopea kehittyminen aiheuttaa jonkin verran huolta, minkä vuoksi tutkimme tässä artikkelissa tekoälyn ihmiskunnalle mahdollisesti aiheuttamia vaaroja.
Onko tekoäly vaarallista? Kuka ilmaisi huolensa?
Scifi-elokuvissa ajatus hallitsemattomasta tekoälystä, joka pyrkii hallitsemaan ihmiskuntaa tai tuhoamaan sen, on suosittu teema, kuten esimerkiksi Matrixissa ja Terminatorissa. Teknologian nopea kehitys on nykyään niin nopeaa, että tavallisen ihmisen voi olla haastavaa pysyä perässä. Tekoälyn nopea kehitys saa yhteiskuntamme sopeutumaan nopeasti, mikä herättää pelkoja näiden teknologioiden monimutkaisuuden ja ihmisen luontaisen tuntemattoman pelon vuoksi.
Tekoälystä eivät ole huolissaan vain tavalliset ihmiset, vaan myös alan asiantuntijat ovat ilmaisseet huolensa. Esimerkiksi Geoffrey Hinton, jota kutsutaan usein "tekoälyn kummisetäksi", on ilmaissut omat huolensa:
Nämä olennot voivat tulla meitä älykkäämmiksi ja päättää ottaa vallan, ja meidän on huolehdittava nyt siitä, miten estämme sen.
Ajattelin pitkään, että se on 30-50 vuoden päässä. Se on siis mielestäni kaukana siitä, että jokin on ihmistä älykkäämpi. Nyt uskon, että olemme ehkä paljon lähempänä, ehkä vain viiden vuoden päässä siitä.
On olemassa vakava vaara, että saamme melko pian meitä älykkäämpiä olentoja ja että nämä olennot saavat pahoja motiiveja ja ottavat vallan.
Maaliskuun 22. päivänä 2023 julkaistiin avoin kirje, jossa pyydettiin pysäyttämään GPT-4:ää tehokkaamman tekoälyn kehittäminen kuuden kuukauden ajaksi:
Nykyisistä tekoälyjärjestelmistä on nyt tulossa ihmisten kanssa kilpailukykyisiä yleisissä tehtävissä, ja meidän on kysyttävä itseltämme: Pitäisikö meidän antaa koneiden tulvia tiedotuskanavillemme propagandalla ja valheella? Pitäisikö meidän automatisoida kaikki työt, myös ne, jotka täyttävät tehtävänsä? Pitäisikö meidän kehittää ei-inhimillisiä mieliä, jotka saattavat lopulta olla meitä enemmän, älykkäämpiä, vanhentuneita ja korvata meidät? Pitäisikö meidän riskeerata sivilisaatiomme hallinnan menettäminen? Tällaisia päätöksiä ei saa siirtää valitsemattomille teknologiajohtajille. Tehokkaita tekoälyjärjestelmiä tulisi kehittää vasta sitten, kun olemme varmoja siitä, että niiden vaikutukset ovat myönteisiä ja riskit hallittavissa. Tämän luottamuksen on oltava hyvin perusteltua, ja sen on kasvettava järjestelmän mahdollisten vaikutusten suuruuden myötä.
Kirjeen allekirjoitti 1800 teknologiayrityksen johtajaa, 1500 professoria, tutkijaa ja tekoälyn alan tutkijaa:
- Elon Musk, SpaceX:n, Teslan ja Twitterin toimitusjohtaja.
- Steve Wozniak, Applen toinen perustaja.
- Emad Mostaque, Stability AI:n toimitusjohtaja.
- Jaan Tallinn, Skypen perustaja, Centre for the Study of Existential Risk, Future of Life Institute.
- Evan Sharp, Pinterestin toinen perustaja.
- Craig Peters, toimitusjohtaja, Getty Images.
- Mark Nitzberg, Center for Human-Compatible AI, UC Berkeley, toiminnanjohtaja.
- Gary Marcus, New Yorkin yliopisto, tekoälytutkija, emeritusprofessori.
- Zachary Kenton, DeepMind, vanhempi tutkija.
- Ramana Kumar, DeepMind, tutkijatutkija.
- Michael Osborne, Oxfordin yliopisto, koneoppimisen professori.
- Adam Smith, Bostonin yliopisto, tietojenkäsittelytieteen professori, Gödel-palkinto, Kanellakis-palkinto.
Yhteensä allekirjoituksia kerättiin yli 33 000 kappaletta.
Muut merkittävät henkilöt, kuten Sam Altman (toimitusjohtaja, OpenAI), Geoffrey Hinton (Turing-palkinnon voittaja), Dario Amodei (toimitusjohtaja, Anthropic) ja Bill Gates sekä yli 350 johtajaa ja tekoälytutkijaa allekirjoittivat seuraavan julkilausuman:
Tekoälyn aiheuttaman sukupuuttoriskin lieventämisen tulisi olla maailmanlaajuinen prioriteetti muiden yhteiskunnallisten riskien, kuten pandemioiden ja ydinsodan, rinnalla.
Tekoälyn vaarat
Vuonna 2018 Uberin itseohjautuva auto törmäsi jalankulkijaan ja tappoi hänet.
Vuonna 2022 tutkijat konfiguroivat uudelleen tekoälyjärjestelmän, joka oli alun perin suunniteltu myrkyttömien, parantavien molekyylien luomiseen, kemiallisten taisteluaineiden tuottamiseen. Muuttamalla järjestelmän asetuksia siten, että myrkyllisyydestä palkitaan sen sijaan, että siitä rangaistaisiin, he pystyivät tuottamaan nopeasti 40 000 potentiaalista molekyyliä kemiallista sodankäyntiä varten vain kuudessa tunnissa.
Vuonna 2023 tutkijat osoittivat, miten GPT-4 pystyi manipuloimaan TaskRabbit-työntekijää suorittamaan Captcha-varmennuksen. Hiljattain raportoitiin traagisesta tapauksesta, jossa henkilö riisti itseltään hengen käytyään levottomuutta herättäneen keskustelun chatbotin kanssa.
Tekoälyjärjestelmien käyttö voi niiden käyttötarkoituksesta riippumatta johtaa kielteisiin seurauksiin, kuten:
- Automaation aiheuttama työpaikkojen menetys
- Syväfakta ja vääränlainen informaatio
- Yksityisyyden suojan loukkaukset
- Epäselvä oikeudellinen sääntely
- Huonon datan aiheuttama algoritminen puolueellisuus
- Rahoituskriisit
- Verkkorikokset
- Aseiden automatisointi
- Hallitsematon superäly
Tekoälyjärjestelmät ovat yhä tehokkaampia, emmekä tiedä niiden rajoja. Näitä järjestelmiä voidaan käyttää haitallisiin tarkoituksiin. Tarkastellaan eri riskejä tarkemmin.
Työpaikkojen menetykset tekoälyn automatisoinnin vuoksi
Goldman Sachsin tekemän tutkimuksen mukaan tekoäly saattaa vaikuttaa merkittävästi työmarkkinoihin maailmanlaajuisesti. Analysoimalla tietokantoja, joissa eritellään yksityiskohtaisesti yli 900 ammatin tehtäväsisältö Yhdysvalloissa ja 2000 ammattia eurooppalaisessa ESCO-tietokannassa, Goldman Sachsin ekonomistit arvioivat, että noin kaksi kolmasosaa ammateista altistuu jonkinasteiselle tekoälyn aiheuttamalle automaatiolle.
Pystyakselilla on esitetty osuus ammatillisesta työmäärästä, joka altistuu tekoälyn aiheuttamalle automaatiolle. Vaaka-akselilla on prosenttiosuus ammateista.
Näiden edistysaskeleiden aiheuttamat muutokset työnkuluissa voivat mahdollisesti automatisoida 300 miljoonaa kokopäiväistä työpaikkaa vastaavan määrän. Kaikki automatisoitu työ ei kuitenkaan johda irtisanomisiin. Monet työpaikat ja toimialat ovat vain osittain alttiita automatisoinnille, mikä tarkoittaa, että tekoäly pikemminkin täydentää niitä kuin korvaa ne kokonaan.
Seo.ai vie tämän ennusteen vielä pidemmälle ja arvioi, että tekoäly voi korvata maailmanlaajuisesti noin 800 miljoonaa työpaikkaa vuoteen 2030 mennessä. Tulevaan muutokseen valmistautumiseksi odotetaan, että seuraavien kolmen vuoden aikana yli 120 miljoonaa työntekijää koulutetaan uudelleen.
Jos haluat tietää, mitkä ammatit ovat alttiimpia automaatiolle ja mitkä vähemmän uhattuina, tutustu aihetta käsittelevään artikkeliimme.
Väärää tietoa
Edistyneimmätkin suuret kielimallit ovat alttiita tuottamaan virheellistä tai järjetöntä tietoa. Nämä virheet (hallusinaatiot) johtuvat usein siitä, että malli luottaa tilastollisiin kuvioihin datassa, johon se on koulutettu, eikä todelliseen ymmärrykseen tai päättelyyn.
Toisin sanoen chatbotit voivat joskus keksiä tosiasioita. Tämä kävi selväksi vuonna 2023, kun newyorkilainen asianajaja joutui vaikeuksiin, koska hän käytti ChatGPT:tä oikeudelliseen tutkimukseen henkilövahinkotapausta varten. Hän kokosi 10-sivuisen kirjelmän, jossa viitattiin useisiin aiempiin oikeuden päätöksiin, jotka kaikki osoittautuivat täysin chatbotin keksimiksi. Tämän seurauksena liittovaltion tuomari langetti asianajajalle ja hänen kollegalleen rangaistuksen ja määräsi kummallekin 5 000 dollarin sakot.
Vuonna 2024 jälleen yksi newyorkilainen asianajaja sai kurinpitoseuraamuksen, koska hän oli vedonnut tekoälyn tuottamaan olemattomaan tapaukseen.
Toinen esimerkki on Stack Overflow, kysymys- ja vastaussivusto, jota ensisijaisesti ohjelmoijat ja kehittäjät käyttävät teknisten kysymysten esittämiseen, avun hakemiseen koodausongelmiin ja tiedon jakamiseen ohjelmointiyhteisössä.
Sivusto joutui kieltämään kaiken generatiivisen tekoälyn käytön, koska erilaisten chatbottien antamien oikeiden vastausten keskiarvo oli liian alhainen, vaikka vastaukset näyttivät yleensä vakuuttavilta.
Sosiaalinen manipulointi
Sosiaalisen median alustoille tulvii nykyään niin paljon sisältöä, että voi olla ylivoimaista pysyä perässä. Tässä kohtaa algoritminen kuratointi tulee kuvaan. Se auttaa seulomaan kaiken hälyn läpi ja esittämään käyttäjille sisältöä, joka todennäköisesti kiinnostaa heitä aikaisemman käyttäytymisen perusteella. Vaikka tämä voi olla hyödyllistä loputtoman tietovirran hallinnassa, se tarkoittaa myös sitä, että alustalla on paljon valtaa muokata sitä, mitä käyttäjät näkevät ja mitä he käsittelevät.
Sen muuttaminen, mitä jonkun uutisvirrassa näkyy, voi kuitenkin vaikuttaa hänen mielialaansa ja siihen, miten hän yleensä suhtautuu maailmaan. Tammikuussa 2012 Facebookin datatieteilijät osoittivat, miten uutisvirran kuratointia koskevat päätökset voivat muuttaa käyttäjien onnellisuutta. Tammikuun 2021 tapahtumat Yhdysvaltain Capitolissa korostivat entisestään sitä, miten jonkun sosiaalisen median käyttö voi vaikuttaa radikalisoitumiseen.
Lisäksi, koska sensaatiomateriaalilla on taipumus pitää käyttäjät koukussa pidempään, algoritmit voivat tahattomasti ohjata käyttäjiä provosoivaan ja haitalliseen sisältöön sitoutumisen lisäämiseksi. Jopa sisällön ehdottaminen käyttäjän kiinnostuksen kohteiden perusteella voi olla ongelmallista, sillä se voi vahvistaa käyttäjän uskomuksia "suodatinkuplassa" sen sijaan, että hän altistuisi erilaisille näkökulmille. Tämä voi lopulta johtaa käyttäjien välisen polarisaation lisääntymiseen.
Kun luovutamme päätöksentekovaltamme alustoille, annamme niille käytännössä määräysvallan siitä, mitä näemme. Sosiaalinen media kehittyneine algoritmeineen onnistuu erinomaisesti kohdennetussa markkinoinnissa ymmärtämällä mieltymyksiämme ja ajatuksiamme. Viimeaikaisissa tutkimuksissa selvitetään Cambridge Analytican ja vastaavien yritysten roolia 50 miljoonan Facebook-käyttäjän tietojen käyttämisessä vaikuttamaan suuriin poliittisiin tapahtumiin, kuten Yhdysvaltain presidentinvaaleihin vuonna 2016 ja Ison-Britannian Brexit-kansanäänestykseen. Jos nämä syytökset osoittautuvat todeksi, se korostaa tekoälyn mahdollisuuksia manipuloida yhteiskuntaa. Tuoreempi esimerkki on Ferdinand Marcos Jr. joka käyttää TikTok-trolliarmeijaa nuorempien äänestäjien taivuttelemiseksi Filippiinien presidentinvaaleissa vuonna 2022. Hyödyntämällä henkilötietoja ja algoritmeja tekoäly voi tehokkaasti kohdistaa yksilöille erityistä propagandaa, perustui se sitten tosiasioihin tai fiktioon.
Deepfakes
Deepfakeilla tarkoitetaan digitaalisesti muokattuja videoita tai kuvia, jotka kuvaavat realistisesti henkilöä sanomassa tai tekemässä jotain, mitä hän ei ole koskaan sanonut tai tehnyt. Tässä teknologiassa käytetään syväoppimisalgoritmeja olemassa olevan video- ja äänimateriaalin manipulointiin vakuuttavan väärennetyn sisällön luomiseksi.
"Kukaan ei tiedä, mikä on totta ja mikä ei", futuristi Martin Ford sanoi. "Se johtaa tilanteeseen, jossa ei voi kirjaimellisesti uskoa omia silmiään ja korviaan, eikä voi luottaa siihen, mitä historiallisesti olemme pitäneet parhaana mahdollisena todisteena...". Se tulee olemaan valtava ongelma."
Yksi tärkeimmistä syistä, miksi väärennöksiä pidetään vaarallisina, on niiden potentiaalinen käyttö haitallisiin tarkoituksiin. Deepfakeja voidaan esimerkiksi käyttää väärennettyjen videotodisteiden luomiseen oikeudellisissa tapauksissa, henkilöiden lavastamiseen syyllisiksi rikoksiin, joita he eivät ole tehneet, tai jopa poliittisten henkilöiden esittämiseen väärän tiedon levittämiseksi. Manipuloimalla mediaa tällä tavoin deepfakesilla on valta horjuttaa luottamusta perinteisiin tietolähteisiin ja kylvää hämmennystä ja eripuraa yhteiskuntaan.
Synteettisen median havaitsemiseen tarkoitettuja työkaluja kehittävän DeepMedia-yrityksen mukaan vuonna 2023 sosiaalisen median sivustoilla julkaistiin maailmanlaajuisesti 500 000 väärennöstä. Se on 3 kertaa enemmän videoväärennöksiä ja 8 kertaa enemmän ääniväärennöksiä kuin vuonna 2022.
Viimeaikaisia esimerkkejä väärennösten pahantahtoisesta käytöstä ovat muun muassa väärennetyn julkkispornografian luominen, jossa julkkisten kasvot on lisätty digitaalisesti pornovideoihin ilman heidän suostumustaan. Lisäksi on ollut tapauksia, joissa deepfake-videoita on käytetty osakekurssien manipulointiin, henkilöiden mustamaalaamiseen tai poliittisen propagandan levittämiseen. Nämä esimerkit korostavat, että deepfake-videoita voidaan käyttää haitallisiin ja harhaanjohtaviin tarkoituksiin.
Tietoverkkorikollisuus
Tietoverkkorikollisuus käsittää monenlaista rikollista toimintaa, jossa käytetään digitaalisia laitteita ja verkkoja. Näihin rikoksiin liittyy teknologian käyttö petoksiin, identiteettivarkauksiin, tietomurtoihin, tietokoneviruksiin, huijauksiin ja muihin pahantahtoisiin tekoihin. Tietoverkkorikolliset käyttävät hyväkseen tietokonejärjestelmien ja -verkkojen heikkouksia saadakseen luvatonta pääsyä, varastamaan arkaluonteisia tietoja, häiritsemään palveluja ja aiheuttamaan vahinkoa yksilöille, organisaatioille ja hallituksille.
Vastustajat hyödyntävät yhä useammin helposti saatavilla olevia tekoälytyökaluja, kuten ChatGPT:tä, Dall-E:tä ja Midjourneytä, automaattisiin phishing-hyökkäyksiin, henkilöitymishyökkäyksiin, sosiaaliseen manipulointiin liittyviin hyökkäyksiin ja väärennettyihin asiakastukikeskustelurobotteihin.
SlashNext State of Phishing Report 2023 -raportin mukaan haitallisten phishing-sähköpostiviestien määrä on kasvanut 1265 prosenttia, mikä johtuu suurelta osin tekoälytyökalujen käytöstä kohdennettuihin hyökkäyksiin.
Henkilönimityshyökkäykset ovat yhä yleisempiä. Huijaajat käyttävät ChatGPT:tä ja muita työkaluja esiintyäkseen oikeina henkilöinä ja organisaatioina ja harjoittaakseen identiteettivarkauksia ja petoksia. Samoin kuin phishing-hyökkäyksissä, he käyttävät chatbotteja lähettääkseen ääniviestejä esiintyen luotettavana ystävänä, kollegana tai perheenjäsenenä saadakseen henkilökohtaisia tietoja tai pääsyn tileille. Maaliskuussa 2019 sattuneessa huomattavassa tapauksessa saksalaisen energiayhtiön brittiläisen tytäryhtiön johtaja joutui toimitusjohtajan ääntä jäljittelevän huijarin uhriksi, minkä seurauksena lähes 200 000 puntaa (243 000 dollaria) siirrettiin unkarilaiselle pankkitilille. Varat siirrettiin myöhemmin Meksikoon ja hajautettiin useisiin paikkoihin. Tutkijat eivät ole tunnistaneet epäiltyjä.
Vuonna 2023 Internet Crime Complaint Center (IC3) vastaanotti ennennäkemättömän määrän valituksia amerikkalaisilta: valituksia tehtiin yhteensä 880 418, ja mahdolliset tappiot olivat yli 12,5 miljardia dollaria. Tämä merkitsee lähes 10 prosentin kasvua vastaanotettujen valitusten määrässä ja 22 prosentin kasvua tappioissa vuoteen 2022 verrattuna. Näistä huikeista luvuista huolimatta on tärkeää huomata, että ne todennäköisesti aliarvioivat tietoverkkorikollisuuden todellista laajuutta vuonna 2023. Esimerkiksi kun FBI hiljattain hajotti Hive-lunnasohjelmaryhmän, havaittiin, että vain noin 20 prosenttia Hiven uhreista oli ilmoittanut rikoksesta lainvalvontaviranomaisille.
Yksityisyyden loukkaaminen
Paras esimerkki sosiaalisesta valvonnasta on Kiinan käyttämä kasvontunnistusteknologia toimistoissa, kouluissa ja muissa paikoissa. Tämä teknologia mahdollistaa yksilöiden liikkeiden seuraamisen, mutta myös sen, että hallitus voi mahdollisesti kerätä laajoja tietoja yksilöiden toimien, toiminnan, ihmissuhteiden ja ideologisten vakaumusten seuraamiseksi.
Yksilöitä voidaan nyt seurata sekä verkossa että heidän jokapäiväisessä elämässään. Jokaista kansalaista arvioidaan hänen käyttäytymisensä perusteella, kuten ajokortittomuus, tupakointi tupakoimattomilla alueilla ja videopelien pelaamiseen käytetty aika. Kuvittele, että jokainen teko vaikuttaa henkilökohtaiseen pistemäärääsi sosiaalisessa luottojärjestelmässä.
Kun Isoveli tarkkailee sinua ja tekee päätöksiä näiden tietojen perusteella, se ei ole vain yksityisyyden loukkaus, vaan se voi nopeasti muuttua sosiaaliseksi sorroksi.
Rahoituskriisit
Nykypäivän rahoitusmaailmassa koneoppimisalgoritmien käyttö on laajalle levinnyttä, ja hedge-rahastot ja sijoitusyhtiöt tukeutuvat voimakkaasti näihin malleihin osakkeiden ja omaisuuserien analysoinnissa. Näille algoritmeille syötetään jatkuvasti valtavia määriä perinteistä ja vaihtoehtoista dataa kaupankäyntipäätöksiä varten. Yhä useammat ovat kuitenkin huolissaan siitä, että algoritminen kaupankäynti voi mahdollisesti laukaista seuraavan suuren finanssikriisin.
Flash Crash 2010. 600 miljardia dollaria haihtui 20 minuutissa
Yksi merkittävä esimerkki virheellisten algoritmien vaaroista on vuoden 2010 Flash Crash, jossa osakemarkkinat putosivat yhtäkkiä lähes 1 000 pistettä muutamassa minuutissa ennen kuin ne nousivat nopeasti. Vaikka markkinaindeksit onnistuivat osittain palautumaan saman päivän aikana, Flash Crash tuhosi lähes 1 biljoonan dollarin markkina-arvon. Tämä äkillinen ja jyrkkä kurssilasku johtui suurelta osin automaattisista kaupankäyntialgoritmeista, jotka reagoivat markkinaolosuhteisiin arvaamattomalla tavalla. Toinen esimerkki oli Knight Capitalin Flash Crash vuonna 2012, jolloin toimintahäiriöinen algoritmi aiheutti yritykselle 440 miljoonan dollarin tappion vain 45 minuutissa, mikä lopulta johti sen tuhoon.
Nämä onnettomuudet ovat pelottavia muistutuksia algoritmisen kaupankäynnin mahdollisista riskeistä rahoitusmarkkinoilla. Kun algoritmeja ei ole suunniteltu, testattu tai valvottu asianmukaisesti, niillä voi olla katastrofaalisia seurauksia. Rahoituslaitosten on tärkeää testata algoritmit perusteellisesti ja varmistaa, että käytössä on asianmukaiset riskinhallintakäytännöt, jotta vastaavat katastrofit voidaan estää tulevaisuudessa.
Tappajarobotit
Tekoälyn avulla toimivat autonomiset aseet ovat jo pitkään olleet hallitusten, sotilasviranomaisten ja ihmisoikeuksien puolustajien keskustelun ja huolenaiheena. Nämä järjestelmät, jotka tunnetaan myös nimillä "tappajarobotit" tai "tappavat autonomiset aseet", pystyvät itsenäisesti valitsemaan kohteet ja hyökkäämään niihin ilman ihmisen puuttumista. Tämä herättää merkittäviä eettisiä, oikeudellisia ja turvallisuuskysymyksiä, sillä nämä aseet voivat tehdä päätöksiä elämästä ja kuolemasta ilman ihmisen valvontaa.
Autonomisten aseiden kehittäminen on kiihtynyt viime vuosina, kun tekoälyteknologia on kehittynyt ja yleistynyt. Nämä aseet voivat vaihdella miehittämättömistä lennokeista maalla toimiviin järjestelmiin, jotka pystyvät itsenäisesti tunnistamaan kohteet ja hyökkäämään niitä vastaan. Autonomisten aseiden kannattajat väittävät, että ne voivat vähentää ihmisuhreja konfliktialueilla ja mahdollistaa tarkemmat ja tehokkaammat sotilasoperaatiot. Kriitikot kuitenkin väittävät, että nämä järjestelmät herättävät vakavia eettisiä kysymyksiä ja että niillä voi olla tahattomia seurauksia, kuten konfliktien kärjistyminen ja siviiliuhreja.
Tekoälyn avulla toimivien autonomisten aseiden aiheuttama vaara on hyvin todellinen. Nämä järjestelmät voivat joutua hakkeroitaviksi tai niissä voi esiintyä toimintahäiriöitä, jotka johtavat tahattomiin seurauksiin ja hallinnan menettämiseen. Lisäksi päätöksenteon inhimillisen valvonnan puuttuminen herättää huolta vastuuvelvollisuudesta ja kansainvälisen humanitaarisen oikeuden mahdollisista rikkomuksista.
Vuonna 2020 yli 30 maata vaati tappavien autonomisten aseiden kieltämistä, koska ne ovat huolissaan siitä, että koneet voivat tehdä päätöksiä elämästä ja kuolemasta. Näistä huolenaiheista huolimatta tekoälyn avulla toimivien autonomisten aseiden kehittäminen ja käyttöönotto edistyy edelleen. Yhdysvaltojen, Venäjän, Kiinan ja Israelin kaltaisten maiden tiedetään investoivan voimakkaasti näihin teknologioihin. Yhdysvalloissa puolustusministeriö on kehittänyt autonomisia asejärjestelmiä, kuten puoliautonomisia lennokkeja ja miehittämättömiä maa-ajoneuvoja.
Hallitsematon superäly
Tekoäly ylittää ihmisaivot monin tavoin, mukaan lukien laskentanopeus, sisäisen viestinnän nopeus, skaalautuvuus, muistikapasiteetti, luotettavuus, monistettavuus, muokattavuus, muistin jakaminen ja oppimiskyky:
- Tekoäly toimii mahdollisesti useiden GHz:n taajuudella verrattuna biologisten hermosolujen 200 Hz:n taajuusrajaan.
- Aksonit välittävät signaaleja 120 m/s, kun taas tietokoneet tekevät sen sähkön tai valon nopeudella.
- Tekoäly voi skaalautua helposti lisäämällä laitteistoa, toisin kuin ihmisen älykkyys, jota rajoittaa aivojen koko ja sosiaalisen viestinnän tehokkuus.
- Ihmisen työmuisti on rajallinen verrattuna tekoälyn laajaan muistikapasiteettiin.
- Tekoälyn transistorien luotettavuus ylittää biologisten neuronien luotettavuuden, mikä mahdollistaa suuremman tarkkuuden ja vähemmän redundanssia.
- Tekoälymalleja voidaan helposti monistaa ja muokata, ja ne voivat oppia muista tekoälykokemuksista tehokkaammin kuin ihmiset.
Jonain päivänä tekoäly saattaa saavuttaa älykkyystason, joka ylittää huomattavasti ihmisen älykkyyden, mikä johtaa niin sanottuun älykkyysräjähdykseen.
Tämä ajatus rekursiivisesta itsensä kehittämisestä, jossa tekoäly parantaa itseään jatkuvasti eksponentiaalisella nopeudella, on herättänyt huolta mahdollisista seurauksista, joita superälykkään kokonaisuuden luomisella voi olla. Kuvitellaan skenaario, jossa tekoäly saavuttaa sellaisen älykkyyden tason, että se pystyy ajattelemaan ja päihittämään ihmisen kaikilla mahdollisilla tavoilla. Tämä superäly voisi mahdollisesti tehdä päätöksiä, jotka vaikuttavat suuresti yhteiskuntaamme ja elämäntapaamme. Aivan kuten ihmisillä on tällä hetkellä monien lajien kohtalo käsissämme, ihmiskunnan kohtalo voi jonain päivänä olla superälykkään tekoälyn käsissä.
Liiallinen luottamus tekoälyyn ja oikeudellinen vastuu
Liiallinen tukeutuminen tekoälyteknologiaan voi johtaa ihmisten vaikutusvallan ja toiminnan vähenemiseen tietyillä yhteiskunnan osa-alueilla. Esimerkiksi tekoälyn käyttö terveydenhuollossa voi johtaa ihmisen empatian ja päättelykyvyn vähenemiseen. Lisäksi generatiivisen tekoälyn hyödyntäminen luovissa tehtävissä voi tukahduttaa ihmisen luovuuden ja tunneilmaisun. Liiallinen vuorovaikutus tekoälyjärjestelmien kanssa voi myös johtaa vertaisviestinnän ja sosiaalisten taitojen heikkenemiseen. Vaikka tekoäly voi olla hyödyksi tehtävien automatisoinnissa, sen vaikutus ihmisen yleiseen älykkyyteen, kykyihin ja yhteisöllisyyteen herättää huolta.
Lisäksi on olemassa potentiaalisia vaaroja, jotka voivat aiheuttaa fyysistä vahinkoa ihmisille. Jos yritykset esimerkiksi luottavat huoltoaikataulujen laadinnassa pelkästään tekoälyn ennusteisiin ilman muuta varmistusta, se voi johtaa koneiden toimintahäiriöihin, jotka vahingoittavat työntekijöitä. Terveydenhuollossa tekoälymallit voivat johtaa vääriin diagnooseihin.
Fyysisten haittojen lisäksi on muitakin kuin fyysisiä tapoja, joilla tekoäly voi aiheuttaa riskejä ihmisille, jos sitä ei säännellä asianmukaisesti. Tällaisia ovat esimerkiksi digitaaliseen turvallisuuteen liittyvät ongelmat, kuten kunnianloukkaus tai kunnianloukkaus, taloudellinen turvallisuus, kuten tekoälyn väärinkäyttö rahoitussuosituksissa tai luottotarkastuksissa, sekä oikeudenmukaisuuteen liittyvät ongelmat, jotka liittyvät tekoälyn ennakkoluuloihin, jotka johtavat epäoikeudenmukaisiin hylkäyksiin tai hyväksymisiin eri ohjelmissa.
Ja kun jokin menee pieleen, kenen pitäisi olla vastuussa? Onko vastuussa itse tekoäly, sen luonut kehittäjä, sen käyttöön ottanut yritys vai käyttäjä, jos mukana oli ihminen?
* * *
Lopuksi totean, että vaikka tekoälyyn liittyy monia riskejä ja uhkia, sillä on myös potentiaalia hyödyttää yhteiskuntaa suuresti ja parantaa elämäämme. On tärkeää tunnustaa, että tekoälyteknologian osalta hyvä on usein tärkeämpää kuin huono. Seuraavassa artikkelissamme käsittelemme strategioita tekoälyyn liittyvien riskien lieventämiseksi ja sen varmistamiseksi, että voimme täysin hyödyntää sen potentiaalia myönteiseen muutokseen.