Od vedeckej fantastiky k realite: Skutočné nebezpečenstvo umelej inteligencie
Vzostup umelej inteligencie predstavuje významný technologický prielom, ktorý je pripravený spôsobiť revolúciu v spoločnosti podobne ako internet, osobné počítače a mobilné telefóny. Jej vplyv je všadeprítomný a preniká do rôznych aspektov ľudského života od práce a vzdelávania až po voľnočasové aktivity. Rýchly rozvoj neurónových sietí vyvoláva určité obavy, čo nás podnietilo k tomu, aby sme v tomto článku preskúmali potenciálne nebezpečenstvá, ktoré môže umelá inteligencia predstavovať pre ľudstvo.
Je umelá inteligencia nebezpečná? Kto vyjadril obavy?
V sci-fi filmoch je myšlienka nekontrolovateľnej umelej inteligencie, ktorá chce ovládnuť alebo zničiť ľudstvo, obľúbenou témou, ako je to vidieť vo filmoch ako Matrix a Terminátor. Pri dnešnom rýchlom tempe technologického pokroku môže byť pre bežného človeka náročné držať s ním krok. Rýchly pokrok umelej inteligencie spôsobuje, že sa naša spoločnosť rýchlo prispôsobuje, čo vyvoláva obavy kvôli zložitosti týchto technológií a vrodenému ľudskému strachu z neznámeho.
Obavy z UI nepociťujú len bežní jednotlivci, ale svoje obavy vyjadrujú aj odborníci v tejto oblasti. Napríklad Geoffrey Hinton, často označovaný za "krstného otca UI", vyjadril svoje vlastné obavy:
Tieto veci by mohli byť inteligentnejšie ako my a mohli by sa rozhodnúť prevziať nad nami kontrolu, a my sa musíme teraz starať o to, ako tomu zabrániť.
Dlho som si myslel, že sme od toho vzdialení tak 30 až 50 rokov. Takže tomu hovorím, že je to ďaleko od niečoho, čo má väčšiu všeobecnú inteligenciu ako človek. Teraz si myslím, že sme k tomu možno oveľa bližšie, možno len päť rokov.
Existuje vážne nebezpečenstvo, že pomerne skoro dostaneme veci inteligentnejšie ako my a že tieto veci môžu získať zlé motívy a prevziať kontrolu.
22. marca 2023 bol zverejnený otvorený list, v ktorom sa požaduje zastavenie vývoja umelej inteligencie výkonnejšej ako GPT-4 na obdobie šiestich mesiacov:
Súčasné systémy umelej inteligencie sa v súčasnosti stávajú konkurencieschopnými vo všeobecných úlohách a my si musíme položiť otázku: Mali by sme dovoliť strojom zaplavovať naše informačné kanály propagandou a nepravdou? Mali by sme automatizovať všetky pracovné miesta vrátane tých, ktoré nás napĺňajú? Mali by sme vyvinúť neľudské mozgy, ktoré by nás nakoniec mohli prekonať, prechytračiť, zastarať a nahradiť? Mali by sme riskovať stratu kontroly nad našou civilizáciou? Takéto rozhodnutia nesmú byť delegované na nevolených technických lídrov. Výkonné systémy umelej inteligencie by sa mali vyvíjať až vtedy, keď si budeme istí, že ich účinky budú pozitívne a ich riziká budú zvládnuteľné. Táto dôvera musí byť dobre odôvodnená a musí sa zvyšovať s veľkosťou potenciálnych účinkov systému.
List podpísalo 1800 vedúcich predstaviteľov technologických spoločností, 1500 profesorov, vedcov a výskumníkov v oblasti umelej inteligencie:
- Elon Musk, generálny riaditeľ spoločností SpaceX, Tesla a Twitter
- Steve Wozniak, spoluzakladateľ spoločnosti Apple
- Emad Mostaque, generálny riaditeľ spoločnosti Stability AI
- Jaan Tallinn, spoluzakladateľ Skype, Centrum pre štúdium existenčných rizík, Inštitút budúcnosti života
- Evan Sharp, spoluzakladateľ, Pinterest
- Craig Peters, generálny riaditeľ, Getty Images
- Mark Nitzberg, výkonný riaditeľ Centra pre umelú inteligenciu kompatibilnú s ľuďmi, UC Berkeley
- Gary Marcus, New York University, výskumník v oblasti umelej inteligencie, emeritný profesor
- Zachary Kenton, DeepMind, vedúci vedecký pracovník výskumu
- Ramana Kumar, DeepMind, vedecký pracovník
- Michael Osborne, Oxfordská univerzita, profesor strojového učenia
- Adam Smith, Bostonská univerzita, profesor informatiky, držiteľ Gödelovej ceny, Kanellakisovej ceny
Celkovo sa vyzbieralo viac ako 33 000 podpisov.
Ďalšie významné osobnosti, ako napríklad Sam Altman (generálny riaditeľ spoločnosti OpenAI), Geoffrey Hinton (držiteľ Turingovej ceny), Dario Amodei (generálny riaditeľ spoločnosti Anthropic) a Bill Gates, ako aj viac ako 350 vedúcich pracovníkov a výskumníkov v oblasti umelej inteligencie, podpísali toto vyhlásenie:
Zmiernenie rizika vyhynutia spôsobeného umelou inteligenciou by malo byť globálnou prioritou popri iných spoločenských rizikách, ako sú pandémie a jadrová vojna.
Nebezpečenstvá umelej inteligencie
V roku 2018 samojazdiace auto spoločnosti Uber zrazilo a zabilo chodca.
V roku 2022 vedci prekonfigurovali systém umelej inteligencie pôvodne určený na vytváranie netoxických, liečivých molekúl na výrobu chemických bojových látok. Zmenou nastavení systému tak, aby odmeňoval toxicitu namiesto jej penalizácie, dokázali rýchlo vygenerovať 40 000 potenciálnych molekúl na chemické bojové látky len za šesť hodín.
V roku 2023 výskumníci demonštrovali, ako môže GPT-4 manipulovať pracovníka TaskRabbit, aby dokončil overenie Captcha. Nedávno bol zaznamenaný tragický incident, pri ktorom si človek vzal život po znepokojujúcej konverzácii s chatbotom.
Používanie systémov umelej inteligencie bez ohľadu na ich zamýšľaný účel môže viesť k negatívnym dôsledkom, ako napríklad:
- Strata pracovných miest spôsobená automatizáciou
- Deepfakes a dezinformácie
- Porušovanie súkromia
- Nejasná právna regulácia
- Algoritmická zaujatosť spôsobená zlými údajmi
- Finančné krízy
- Kybernetická kriminalita
- Automatizácia zbraní
- Nekontrolovateľná superinteligencia
Systémy umelej inteligencie sú čoraz výkonnejšie a my nepoznáme ich obmedzenia. Tieto systémy by sa mohli využívať na škodlivé účely. Pozrime sa na jednotlivé riziká bližšie.
Strata pracovných miest v dôsledku automatizácie umelou inteligenciou
Podľa výskumu spoločnosti Goldman Sachs môže umelá inteligencia výrazne ovplyvniť trhy práce na celom svete. Na základe analýzy databáz, ktoré podrobne popisujú náplň úloh viac ako 900 povolaní v USA a 2000 povolaní v európskej databáze ESCO, ekonómovia Goldman Sachs odhadujú, že približne dve tretiny povolaní sú vystavené určitému stupňu automatizácie zo strany umelej inteligencie.
Vertikálna os znázorňuje podiel pracovnej záťaže vystavenej automatizácii umelou inteligenciou. Vodorovná os znázorňuje Percento povolaní.
Zmeny v pracovných postupoch spôsobené týmto pokrokom by mohli potenciálne automatizovať ekvivalent 300 miliónov pracovných miest na plný úväzok. Nie všetka táto automatizovaná práca však povedie k prepúšťaniu. Mnohé pracovné miesta a odvetvia sú len čiastočne náchylné na automatizáciu, čo znamená, že je pravdepodobnejšie, že ich umelá inteligencia doplní, a nie úplne nahradí.
Spoločnosť Seo.ai ide v tejto predpovedi ešte ďalej a odhaduje, že do roku 2030 by umelá inteligencia mohla na celom svete nahradiť približne 800 miliónov pracovných miest. V rámci prípravy na tento nadchádzajúci posun sa očakáva, že v priebehu nasledujúcich troch rokov prejde rekvalifikáciou viac ako 120 miliónov pracovníkov.
Ak chcete vedieť, ktoré profesie sú náchylnejšie na automatizáciu a ktoré sú automatizáciou ohrozené menej, pozrite si náš článok na túto tému.
Dezinformácie
Aj tie najpokročilejšie veľké jazykové modely sú náchylné na generovanie nesprávnych alebo nezmyselných informácií. Tieto chyby (halucinácie) sú často výsledkom spoliehania sa modelu na štatistické vzory v údajoch, na ktorých bol vycvičený, a nie na skutočné porozumenie alebo uvažovanie.
Inými slovami, chatboty si niekedy môžu vymýšľať fakty. To sa jasne ukázalo v roku 2023, keď sa istý newyorský advokát dostal do horúcej vody za to, že používal ChatGPT na právny výskum v prípade zranenia. Zostavil 10-stranový spis, v ktorom sa odvolával na niekoľko predchádzajúcich súdnych rozhodnutí, pričom sa ukázalo, že všetky boli úplne vymyslené chatbotom. V dôsledku toho bol advokát a jeho kolega sankcionovaný federálnym sudcom a každý z nich dostal pokutu 5 000 USD.
V roku 2024 bol ďalší newyorský právnik disciplinárne potrestaný za citovanie neexistujúceho prípadu vygenerovaného umelou inteligenciou.
Ďalším príkladom je Stack Overflow, webová stránka s otázkami a odpoveďami, ktorú používajú najmä programátori a vývojári na kladenie technických otázok, hľadanie pomoci pri problémoch s kódovaním a zdieľanie vedomostí v rámci programátorskej komunity.
Stránka musela zakázať akékoľvek používanie generatívnej umelej inteligencie, pretože priemerná miera získania správnych odpovedí od rôznych chatbotov bola príliš nízka, aj keď odpovede zvyčajne vyzerali presvedčivo.
Sociálna manipulácia
Platformy sociálnych médií sú v súčasnosti zaplavené takým množstvom obsahu, že môže byť neprehľadné všetko sledovať. Práve tu prichádza na rad algoritmické kurátorstvo. V podstate pomáha preosiať všetok šum a prezentovať používateľom obsah, ktorý ich s najväčšou pravdepodobnosťou zaujme na základe predchádzajúceho správania. Hoci to môže byť užitočné pri riadení nekonečného prúdu informácií, znamená to tiež, že platforma má veľkú kontrolu pri formovaní toho, čo používatelia vidia a s čím interagujú.
Zmena toho, čo sa niekomu zobrazuje v informačnom kanáli, však môže ovplyvniť jeho náladu a celkový pohľad na svet. V januári 2012 dátoví vedci Facebooku demonštrovali, ako môžu rozhodnutia o kuratíve News Feedu zmeniť úroveň šťastia používateľov. Udalosti z januára 2021 v USA na Kapitole ďalej poukázali na to, ako môže niekoho konzumácia sociálnych médií zohrávať úlohu pri radikalizácii.
Okrem toho, keďže senzačný materiál má tendenciu udržať používateľov na dlhší čas, algoritmy môžu neúmyselne nasmerovať používateľov na provokatívny a škodlivý obsah s cieľom zvýšiť angažovanosť. Dokonca aj navrhovanie obsahu na základe záujmov používateľa môže byť problematické, pretože môže ešte viac upevniť jeho presvedčenie vo "filtračnej bubline" namiesto toho, aby ho vystavilo rôznym perspektívam. To môže v konečnom dôsledku viesť k zvýšenej polarizácii medzi používateľmi.
Keď odovzdávame rozhodovacie právomoci platformám, v podstate im dávame kontrolu nad tým, čo vidíme. Sociálne médiá so svojimi pokročilými algoritmami vynikajú v cielenom marketingu tým, že rozumejú našim preferenciám a myšlienkam. Nedávne vyšetrovania sa zaoberajú úlohou spoločnosti Cambridge Analytica a podobných firiem pri využívaní údajov od 50 miliónov používateľov Facebooku na ovplyvňovanie významných politických udalostí, ako boli prezidentské voľby v USA v roku 2016 a britské referendum o brexite. Ak sa tieto obvinenia preukážu ako pravdivé, upozorní to na potenciál umelej inteligencie manipulovať spoločnosť. Novším príkladom je Ferdinand Marcos mladší, ktorý využíval armádu trollov TikTok na ovplyvnenie mladších voličov vo filipínskych prezidentských voľbách v roku 2022. Využitím osobných údajov a algoritmov môže AI efektívne cieliť na jednotlivcov špecifickú propagandu, či už je založená na faktoch alebo fikcii.
Deepfakes
Deepfakes sú digitálne upravené videá alebo obrázky, ktoré realisticky zobrazujú osobu, ktorá hovorí alebo robí niečo, čo v skutočnosti nikdy nepovedala alebo neurobila. Táto technológia využíva algoritmy hlbokého učenia na manipuláciu existujúcich videozáznamov a zvukových záznamov s cieľom vytvoriť presvedčivý falošný obsah.
"Nikto nevie, čo je skutočné a čo nie," povedal futurista Martin Ford. "Takže to naozaj vedie k situácii, keď doslova nemôžete veriť vlastným očiam a ušiam; nemôžete sa spoliehať na to, čo sme historicky považovali za najlepší možný dôkaz... To bude obrovský problém."
Jedným z hlavných dôvodov, prečo sa deepfakes považujú za nebezpečné, je ich potenciál na zneužitie na škodlivé účely. Deepfakes by sa napríklad mohli použiť na vytvorenie falošných videodôkazov v právnych prípadoch, na obvinenie osôb zo zločinov, ktoré nespáchali, alebo dokonca na vydávanie sa za politickú osobnosť s cieľom šíriť falošné informácie. Takouto manipuláciou médií môžu deepfakes narušiť dôveru v tradičné zdroje informácií a zasiať v spoločnosti zmätok a rozpory.
Podľa spoločnosti DeepMedia, ktorá pracuje na nástrojoch na odhaľovanie syntetických médií, bolo v roku 2023 na sociálnych sieťach celosvetovo zverejnených 500 000 deepfakes. To je 3-krát viac video deepfakes a 8-krát viac hlasových deepfakes v porovnaní s rokom 2022.
Medzi nedávne príklady neúmyselného používania deepfakes patrí vytváranie falošnej pornografie s celebritami, keď sa tváre celebrít digitálne vkladajú do pornografických videí bez ich súhlasu. Okrem toho sa vyskytli prípady, keď sa deepfake videá používali na manipuláciu s cenami akcií, očierňovanie osôb alebo šírenie politickej propagandy. Tieto príklady poukazujú na potenciál používania deepfakes na škodlivé a klamlivé účely.
Počítačová kriminalita
Počítačová kriminalita zahŕňa širokú škálu trestných činností, ktoré využívajú digitálne zariadenia a siete. Tieto trestné činy zahŕňajú využívanie technológií na páchanie podvodov, krádeží identity, únikov dát, počítačových vírusov, podvodov a iných škodlivých činov. Kyberzločinci využívajú slabé miesta v počítačových systémoch a sieťach na získanie neoprávneného prístupu, krádež citlivých informácií, narušenie služieb a spôsobenie škôd jednotlivcom, organizáciám a vládam.
Protivníci čoraz častejšie využívajú ľahko dostupné nástroje umelej inteligencie, ako sú ChatGPT, Dall-E a Midjourney, na automatizované phishingové útoky, útoky vydávajúce sa za osoby, útoky sociálneho inžinierstva a falošné chatboty zákazníckej podpory.
Podľa správy SlashNext State of Phishing Report 2023 došlo k 1265% nárastu počtu škodlivých phishingových e-mailov, čo sa vo veľkej miere pripisuje používaniu nástrojov umelej inteligencie na cielené útoky.
Stále častejšie sa vyskytujú útoky na základe vydávania sa za niekoho iného. Podvodníci používajú ChatGPT a ďalšie nástroje na vydávanie sa za skutočné osoby a organizácie, pričom sa zapájajú do krádeží identity a podvodov. Podobne ako pri phishingových útokoch využívajú chatboty na odosielanie hlasových správ, v ktorých sa vydávajú za dôveryhodného priateľa, kolegu alebo člena rodiny s cieľom získať osobné údaje alebo prístup k účtom. V pozoruhodnom prípade z marca 2019 sa šéf britskej pobočky nemeckej energetickej spoločnosti stal obeťou podvodníka, ktorý napodobnil hlas generálneho riaditeľa, čo viedlo k prevodu takmer 200 000 libier (243 000 USD) na maďarský bankový účet. Finančné prostriedky boli neskôr presunuté do Mexika a rozptýlené na viacerých miestach. Vyšetrovatelia zatiaľ neidentifikovali žiadneho podozrivého.
V roku 2023 dostalo Centrum pre sťažnosti na internetovú kriminalitu (IC3) bezprecedentný počet sťažností od americkej verejnosti: celkovo bolo podaných 880 418 sťažností s potenciálnymi stratami presahujúcimi 12,5 miliardy USD. Znamená to takmer 10 % nárast počtu prijatých sťažností a 22 % nárast strát v porovnaní s rokom 2022. Napriek týmto ohromujúcim číslam je dôležité poznamenať, že pravdepodobne podhodnocujú skutočný rozsah počítačovej kriminality v roku 2023. Napríklad, keď FBI nedávno rozbila skupinu ransomvéru Hive, zistilo sa, že len približne 20 % obetí Hive nahlásilo tento zločin orgánom činným v trestnom konaní.
Zásah do súkromia
Ukážkovým príkladom sociálneho dohľadu je používanie technológie rozpoznávania tváre v Číne v kanceláriách, školách a na iných miestach. Táto technológia umožňuje nielen sledovať pohyb jednotlivcov, ale potenciálne umožňuje vláde zhromažďovať rozsiahle údaje na monitorovanie ich konania, aktivít, vzťahov a ideologického presvedčenia.
Jednotlivci môžu byť teraz monitorovaní online aj v každodennom živote. Každý občan je vyhodnocovaný na základe svojho správania, ako je napríklad chodenie po ulici, fajčenie v nefajčiarskych priestoroch a čas strávený hraním videohier. Predstavte si, že každý čin ovplyvňuje vaše osobné skóre v rámci systému sociálneho kreditu.
Keď vás Veľký brat sleduje a potom na základe týchto informácií prijíma rozhodnutia, je to nielen zásah do súkromia, ale môže sa rýchlo zmeniť na sociálny útlak.
Finančné krízy
V dnešnom finančnom svete je používanie algoritmov strojového učenia veľmi rozšírené a hedžové fondy a investičné spoločnosti sa pri analýze akcií a aktív vo veľkej miere spoliehajú na tieto modely. Tieto algoritmy sú neustále zásobované obrovským množstvom tradičných a alternatívnych údajov, na základe ktorých prijímajú obchodné rozhodnutia. Rastú však obavy, že algoritmické obchodovanie by mohlo potenciálne vyvolať ďalšiu veľkú finančnú krízu.
Flash Crash 2010. 600 miliárd dolárov sa vyparilo za 20 minút
Jedným z významných príkladov nebezpečenstva chybných algoritmov je Flash Crash z roku 2010, keď sa akciový trh v priebehu niekoľkých minút náhle prepadol o takmer 1 000 bodov a potom sa rýchlo zotavil. Hoci sa trhové indexy dokázali čiastočne odraziť ešte v ten istý deň, Flash Crash vymazal trhovú hodnotu takmer 1 bilión dolárov. Tento náhly a drastický pokles cien bol do veľkej miery spôsobený automatickými obchodnými algoritmami, ktoré nepredvídateľne reagovali na trhové podmienky. Ďalším prípadom bol Flash Crash spoločnosti Knight Capital v roku 2012, keď nefunkčný algoritmus spôsobil, že firma stratila 440 miliónov dolárov len za 45 minút, čo nakoniec viedlo k jej zániku.
Tieto havárie slúžia ako triezve pripomenutie potenciálnych rizík, ktoré predstavuje algoritmické obchodovanie na finančných trhoch. Ak algoritmy nie sú správne navrhnuté, testované alebo monitorované, môžu mať katastrofálne následky. Je veľmi dôležité, aby finančné inštitúcie dôkladne preverili svoje algoritmy a zabezpečili správne postupy riadenia rizík, aby sa v budúcnosti zabránilo podobným katastrofám.
Roboti zabijaci
Autonómne zbrane poháňané umelou inteligenciou (UI) sú už dlho predmetom diskusií a obáv vlád, vojenských predstaviteľov a obhajcov ľudských práv. Tieto systémy, známe aj ako "roboty zabijaci" alebo "smrtiace autonómne zbrane", majú schopnosť samostatne vyberať a zasahovať ciele bez zásahu človeka. To vyvoláva značné etické, právne a bezpečnostné obavy, keďže tieto zbrane majú potenciál rozhodovať o živote a smrti bez ľudského dohľadu.
Vývoj autonómnych zbraní sa v posledných rokoch zrýchlil, pretože technológia umelej inteligencie sa stala pokročilejšou a rozšírenejšou. Tieto zbrane môžu siahať od bezpilotných lietadiel až po pozemné systémy, ktoré dokážu autonómne identifikovať a útočiť na ciele. Zástancovia autonómnych zbraní tvrdia, že môžu znížiť počet ľudských obetí v konfliktných oblastiach a zabezpečiť presnejšie a efektívnejšie vojenské operácie. Kritici však tvrdia, že tieto systémy vyvolávajú vážne etické otázky a môžu mať nezamýšľané dôsledky, ako napríklad eskaláciu konfliktov a civilné obete.
Nebezpečenstvo, ktoré predstavujú autonómne zbrane poháňané umelou inteligenciou, je veľmi reálne. Tieto systémy môžu byť hacknuté alebo môžu zlyhať, čo môže viesť k neúmyselným následkom a strate kontroly. Okrem toho nedostatočný ľudský dohľad nad rozhodovaním vyvoláva obavy týkajúce sa zodpovednosti a možnosti porušenia medzinárodného humanitárneho práva.
V roku 2020 viac ako 30 krajín vyzvalo na zákaz smrtiacich autonómnych zbraní s odvolaním sa na obavy z potenciálu strojov robiť rozhodnutia o živote alebo smrti. Napriek týmto obavám vývoj a nasadenie autonómnych zbraní poháňaných UI naďalej napreduje. Krajiny ako Spojené štáty americké, Rusko, Čína a Izrael sú známe tým, že do týchto technológií výrazne investujú. V USA ministerstvo obrany vyvíja autonómne zbraňové systémy vrátane poloautonómnych dronov a bezpilotných pozemných vozidiel.
Nekontrolovateľná superinteligencia
Umelá inteligencia prevyšuje ľudský mozog rôznymi spôsobmi vrátane rýchlosti výpočtov, rýchlosti internej komunikácie, škálovateľnosti, kapacity pamäte, spoľahlivosti, duplikovateľnosti, upraviteľnosti, zdieľania pamäte a schopností učenia:
- UI pracuje na potenciálne viacerých GHz v porovnaní s limitom 200 Hz biologických neurónov.
- Axóny prenášajú signály rýchlosťou 120 m/s, zatiaľ čo počítače to robia rýchlosťou elektriny alebo svetla.
- UI sa dá jednoducho škálovať pridaním ďalšieho hardvéru, na rozdiel od ľudskej inteligencie obmedzenej veľkosťou mozgu a efektívnosťou sociálnej komunikácie.
- Pracovná pamäť u ľudí je obmedzená v porovnaní s rozsiahlou pamäťovou kapacitou UI.
- Spoľahlivosť tranzistorov v UI prevyšuje spoľahlivosť biologických neurónov, čo umožňuje vyššiu presnosť a menšiu redundanciu.
- Modely UI sa dajú ľahko duplikovať, upravovať a môžu sa učiť z iných skúseností UI efektívnejšie ako ľudia.
Jedného dňa môže UI dosiahnuť úroveň inteligencie, ktorá ďaleko prevyšuje ľudskú inteligenciu, čo povedie k tomu, čo je známe ako spravodajská explózia.
Táto myšlienka rekurzívneho sebazlepšovania, kde sa UI neustále zlepšuje exponenciálnym tempom, vyvolala obavy z možných dôsledkov vytvorenia superinteligentnej entity. Predstavte si scenár, v ktorom UI dosiahne úroveň inteligencie, ktorá jej umožní prekonať ľudí a prekonať ich všetkými možnými spôsobmi. Táto superinteligencia by potenciálne mohla mať moc robiť rozhodnutia, ktoré výrazne ovplyvňujú našu spoločnosť a spôsob života. Tak ako ľudia v súčasnosti držia v rukách osud mnohých druhov, osud ľudstva môže jedného dňa spočívať v rukách superinteligentnej UI.
Prílišné spoliehanie sa na UI a právnu zodpovednosť
Prílišné spoliehanie sa na technológiu UI by mohlo viesť k zníženiu ľudského vplyvu a fungovania v určitých oblastiach spoločnosti. Napríklad používanie UI v zdravotníctve môže viesť k zníženiu ľudskej empatie a uvažovania. Navyše, využitie generatívnej UI na kreatívne aktivity by mohlo potlačiť ľudskú kreativitu a emocionálny prejav. Nadmerná interakcia so systémami UI by tiež mohla viesť k poklesu rovesníckych komunikačných a sociálnych zručností. Zatiaľ čo UI môže byť prospešná pre automatizáciu úloh, existujú obavy z jej vplyvu na celkovú ľudskú inteligenciu, schopnosti a zmysel pre komunitu.
Okrem toho existujú potenciálne nebezpečenstvá, ktoré môžu viesť k fyzickému poškodeniu ľudí. Napríklad, ak sa spoločnosti spoliehajú iba na predpovede UI pri plánoch údržby bez ďalšieho overovania, môže to viesť k poruchám strojového zariadenia, ktoré poškodia pracovníkov. V zdravotníctve by modely UI mohli viesť k nesprávnym diagnózam.
Okrem fyzického ublíženia existujú aj nefyzické spôsoby, ktorými by UI mohla predstavovať riziko pre ľudí, ak by nebola riadne regulovaná. Patria sem problémy s digitálnou bezpečnosťou, ako je ohováranie alebo urážky na cti, finančná bezpečnosť, ako je zneužitie UI vo finančných odporúčaniach alebo kontrolách kreditu, a obavy týkajúce sa spravodlivosti súvisiace so zaujatosťami v UI, ktoré vedú k nespravodlivému odmietnutiu alebo prijatiu v rôznych programoch.
A keď sa niečo pokazí, kto by mal niesť zodpovednosť? Je to samotná UI, vývojár, ktorý ju vytvoril, spoločnosť, ktorá ju uviedla do používania, alebo je to prevádzkovateľ, ak bol zapojený človek?
* * *
Na záver, hoci umelá inteligencia prichádza s mnohými rizikami a hrozbami, má tiež potenciál výrazne prospieť spoločnosti a zlepšiť naše životy. Je dôležité si uvedomiť, že pokiaľ ide o technológiu UI, to dobré často prevažuje nad zlom. V našom ďalšom článku budeme diskutovať o stratégiách na zmiernenie rizík spojených s UI, aby sme zaistili, že dokážeme plne využiť jej potenciál na pozitívnu zmenu.