Od science fiction ke skutečnosti: Skutečné nebezpečí umělé inteligence
Rozvoj umělé inteligence představuje významný technologický průlom, který může způsobit revoluci ve společnosti podobně jako internet, osobní počítače a mobilní telefony. Její vliv je všudypřítomný a proniká do různých aspektů lidského života od práce a vzdělávání až po volnočasové aktivity. Rychlý rozvoj neuronových sítí vyvolává určité obavy, což nás přimělo k tomu, abychom v tomto článku prozkoumali potenciální nebezpečí, která může umělá inteligence pro lidstvo představovat.
Je umělá inteligence nebezpečná? Kdo vyjádřil obavy?
Ve sci-fi filmech je myšlenka nekontrolovatelné umělé inteligence, která se snaží ovládnout nebo zničit lidstvo, oblíbeným tématem, jak je vidět ve filmech jako Matrix nebo Terminátor. Při dnešním rychlém tempu technologického pokroku může být pro běžného člověka náročné držet s ním krok. Rychlý pokrok umělé inteligence způsobuje, že se naše společnost rychle přizpůsobuje, což vyvolává obavy kvůli složitosti těchto technologií a vrozenému lidskému strachu z neznámého.
Obavy z AI nepociťují jen běžní jednotlivci, ale vyjadřují je i odborníci v této oblasti. Například Geoffrey Hinton, často označovaný za "kmotra AI", vyjádřil své vlastní obavy:
Tyto věci by mohly být inteligentnější než my a mohly by se rozhodnout převzít vládu, a my se nyní musíme starat o to, jak tomu zabránit.
Dlouho jsem si myslel, že jsme od toho vzdáleni tak 30 až 50 let. Takže tomu říkám, že je to daleko od něčeho, co má větší obecnou inteligenci než člověk. Teď si myslím, že jsme možná mnohem blíž, možná jen pět let od toho.
Existuje vážné nebezpečí, že se poměrně brzy dočkáme věcí, které budou chytřejší než my, a že tyto věci mohou získat špatné motivy a převzít kontrolu.
22. března 2023 byl zveřejněn otevřený dopis, který vyzýval k zastavení vývoje umělé inteligence výkonnější než GPT-4 na dobu šesti měsíců:
Současné systémy umělé inteligence se nyní stávají konkurenceschopnými lidem v obecných úlohách a my si musíme položit otázku: Měli bychom nechat stroje, aby zaplavily naše informační kanály propagandou a nepravdou? Měli bychom automatizovat všechna zaměstnání, včetně těch, která nás naplňují? Měli bychom vyvinout nelidské mozky, které by nás nakonec mohly přečíslit, přechytračit, zastarat a nahradit? Měli bychom riskovat ztrátu kontroly nad naší civilizací? Taková rozhodnutí nelze svěřovat nevoleným technickým vůdcům. Výkonné systémy umělé inteligence bychom měli vyvíjet až poté, co si budeme jisti, že jejich účinky budou pozitivní a rizika zvládnutelná. Tato důvěra musí být dobře odůvodněná a musí se zvyšovat s rozsahem potenciálních účinků systému.
Dopis podepsalo 1800 vedoucích představitelů technologických společností, 1500 profesorů, vědců a výzkumných pracovníků v oblasti umělé inteligence:
- Elon Musk, generální ředitel společností SpaceX, Tesla a Twitter.
- Steve Wozniak, spoluzakladatel společnosti Apple
- Emad Mostaque, generální ředitel společnosti Stability AI
- Jaan Tallinn, spoluzakladatel společnosti Skype, Centrum pro studium existenčních rizik, Future of Life Institute.
- Evan Sharp, spoluzakladatel, Pinterest
- Craig Peters, generální ředitel, Getty Images
- Mark Nitzberg, výkonný ředitel Centra pro umělou inteligenci kompatibilní s lidmi, Kalifornská univerzita v Berkeley
- Gary Marcus, New York University, výzkumník v oblasti umělé inteligence, emeritní profesor
- Zachary Kenton, DeepMind, vedoucí výzkumný pracovník
- Ramana Kumar, DeepMind, výzkumný pracovník
- Michael Osborne, Oxfordská univerzita, profesor strojového učení
- Adam Smith, Bostonská univerzita, profesor informatiky, držitel Gödelovy ceny, Kanellakisovy ceny
Celkem bylo shromážděno více než 33 000 podpisů.
Další významné osobnosti, jako je například Sam Altman (CEO, OpenAI), Geoffrey Hinton (držitel Turingovy ceny), Dario Amodei (CEO, Anthropic) a Bill Gates, spolu s více než 350 řediteli a výzkumníky v oblasti umělé inteligence podepsali následující prohlášení:
Zmírnění rizika vyhynutí způsobeného umělou inteligencí by mělo být globální prioritou vedle jiných společenských rizik, jako jsou pandemie a jaderná válka.
Nebezpečí umělé inteligence
V roce 2018 samořízené auto společnosti Uber srazilo a usmrtilo chodce.
V roce 2022 vědci překonfigurovali systém umělé inteligence původně určený k vytváření netoxických léčivých molekul na výrobu chemických bojových látek. Změnou nastavení systému tak, aby odměňoval toxicitu namísto její penalizace, se jim podařilo rychle vygenerovat 40 000 potenciálních molekul pro chemické zbraně za pouhých šest hodin.
V roce 2023 vědci předvedli, jak systém GPT-4 dokáže manipulovat pracovníka TaskRabbit, aby dokončil ověření Captcha. Nedávno byla zaznamenána tragická událost, kdy si člověk po znepokojivé konverzaci s chatbotem vzal život.
Používání systémů umělé inteligence, bez ohledu na jejich zamýšlený účel, může vést k negativním důsledkům, jako jsou:
- Ztráta pracovních míst vyvolaná automatizací
- Deepfakes a dezinformace
- Porušování soukromí
- Nejasná právní regulace
- Algoritmické zkreslení způsobené špatnými daty
- Finanční krize
- Kyberkriminalita
- Automatizace zbraní
- Nekontrolovatelná superinteligence
Systémy umělé inteligence jsou stále výkonnější a my neznáme jejich omezení. Tyto systémy by mohly být využity ke škodlivým účelům. Podívejme se na jednotlivá rizika blíže.
Ztráta pracovních míst v důsledku automatizace umělou inteligencí
Podle výzkumu společnosti Goldman Sachs může umělá inteligence výrazně ovlivnit trhy práce po celém světě. Na základě analýzy databází, které podrobně popisují náplň úkolů více než 900 profesí v USA a 2000 profesí v evropské databázi ESCO, ekonomové Goldman Sachs odhadují, že zhruba dvě třetiny profesí jsou vystaveny určitému stupni automatizace ze strany umělé inteligence.
Svislá osa ukazuje Podíl pracovní zátěže vystavené automatizaci umělou inteligencí. Vodorovná osa ukazuje Podíl profesí.
Změny pracovních postupů způsobené těmito pokroky by mohly potenciálně automatizovat ekvivalent 300 milionů pracovních míst na plný úvazek. Ne všechna tato automatizovaná práce však povede k propouštění. Mnohá zaměstnání a odvětví jsou k automatizaci náchylná jen částečně, což znamená, že je spíše doplní umělá inteligence, než že by je zcela nahradila.
Společnost Seo.ai jde v této předpovědi ještě dál a odhaduje, že do roku 2030 by umělá inteligence mohla celosvětově nahradit přibližně 800 milionů pracovních míst. V rámci přípravy na tento nadcházející posun se očekává, že během následujících tří let projde rekvalifikací více než 120 milionů pracovníků.
Pokud chcete vědět, které profese jsou vůči automatizaci náchylnější a které jsou naopak automatizací ohroženy méně, přečtěte si náš článek na toto téma.
Dezinformace
I ty nejpokročilejší velké jazykové modely jsou náchylné ke generování nesprávných nebo nesmyslných informací. Tyto chyby (halucinace) jsou často důsledkem spoléhání se modelu na statistické vzorce v datech, na kterých byl vycvičen, a nikoli na skutečné porozumění nebo uvažování.
Jinými slovy, chatboti si někdy mohou vymýšlet fakta. To se jasně ukázalo v roce 2023, kdy se jeden newyorský advokát dostal do horké vody za to, že používal ChatGPT k právnímu výzkumu pro případ újmy na zdraví. Sestavil desetistránkový spis, v němž odkázal na několik předchozích soudních rozhodnutí, přičemž se ukázalo, že všechna byla chatbotem zcela vymyšlená. V důsledku toho byli advokát a jeho kolega federálním soudcem sankcionováni a každý z nich dostal pokutu 5 000 dolarů.
V roce 2024 byl další newyorský právník potrestán za to, že citoval neexistující případ vygenerovaný umělou inteligencí.
Dalším příkladem je Stack Overflow, webová stránka s otázkami a odpověďmi, kterou používají především programátoři a vývojáři k pokládání technických otázek, hledání pomoci s problémy s kódováním a sdílení znalostí v rámci programátorské komunity.
Tento web musel zakázat veškeré používání generativní umělé inteligence, protože průměrná míra získání správných odpovědí od různých chatbotů byla příliš nízká, i když odpovědi obvykle vypadaly přesvědčivě.
Sociální manipulace
Platformy sociálních médií jsou v dnešní době zaplaveny takovým množstvím obsahu, že může být zahlcující se v něm orientovat. Proto přichází na řadu algoritmické kurátorství. V podstatě pomáhá prosít všechen ten šum a předložit uživatelům obsah, který je na základě jejich minulého chování s největší pravděpodobností zaujme. To může být užitečné při zvládání nekonečného proudu informací, ale také to znamená, že platforma má velkou kontrolu nad tím, co uživatelé uvidí a s čím budou komunikovat.
Změna toho, co se někomu zobrazuje ve zpravodajském kanálu, však může ovlivnit jeho náladu a celkový pohled na svět. V lednu 2012 datoví vědci Facebooku ukázali, jak rozhodnutí o kurátorství News Feedu mohou změnit úroveň štěstí uživatelů. Události z ledna 2021 v USA na Kapitolu dále poukázaly na to, jak může něčí konzumace sociálních médií hrát roli při radikalizaci.
Kromě toho, protože senzační materiály mají tendenci udržet uživatele v napětí delší dobu, mohou algoritmy neúmyslně směrovat uživatele k provokativnímu a škodlivému obsahu, aby zvýšily jejich angažovanost. I navrhování obsahu na základě zájmů uživatele může být problematické, protože může ještě více upevnit jeho přesvědčení ve "filtrační bublině", místo aby ho vystavilo různým perspektivám. To může v konečném důsledku vést k větší polarizaci mezi uživateli.
Když předáváme rozhodovací pravomoci platformám, v podstatě jim dáváme kontrolu nad tím, co vidíme. Sociální média se svými pokročilými algoritmy vynikají v cíleném marketingu tím, že rozumí našim preferencím a myšlenkám. Nedávná vyšetřování se zabývají úlohou společnosti Cambridge Analytica a podobných firem při využívání údajů 50 milionů uživatelů Facebooku k ovlivňování významných politických událostí, jako byly prezidentské volby v USA v roce 2016 a britské referendum o brexitu. Pokud se tato obvinění prokáží jako pravdivá, upozorní to na potenciál umělé inteligence manipulovat společností. Novějším příkladem je Ferdinand Marcos mladší, který využil armádu trollů TikTok k ovlivnění mladších voličů ve filipínských prezidentských volbách v roce 2022. Využitím osobních údajů a algoritmů může AI účinně cílit na jednotlivce specifickou propagandu, ať už je založena na faktech, nebo na fikci.
Deepfakes
Deepfakes jsou digitálně upravená videa nebo obrázky, které realisticky zobrazují osobu, která říká nebo dělá něco, co ve skutečnosti nikdy neřekla nebo neudělala. Tato technologie využívá algoritmy hlubokého učení k manipulaci s existujícími videozáznamy a zvukovými nahrávkami, aby vytvořila přesvědčivý falešný obsah.
"Nikdo neví, co je skutečné a co ne," řekl futurolog Martin Ford. "Takže to skutečně vede k situaci, kdy doslova nemůžete věřit vlastním očím a uším; nemůžete se spolehnout na to, co jsme historicky považovali za nejlepší možné důkazy...". To bude obrovský problém."
Jedním z hlavních důvodů, proč jsou deepfakes považovány za nebezpečné, je možnost jejich zneužití ke škodlivým účelům. Deepfakes lze například použít k vytvoření falešných videodůkazů v právních případech, k obvinění osob z trestných činů, které nespáchaly, nebo dokonce k vydávání se za politickou osobnost za účelem šíření nepravdivých informací. Tímto způsobem manipulace s médii mohou deepfakes narušit důvěru v tradiční zdroje informací a zasít ve společnosti zmatek a nesoulad.
Podle společnosti DeepMedia, která pracuje na nástrojích pro odhalování syntetických médií, bylo v roce 2023 na sociálních sítích celosvětově zveřejněno 500 000 deepfakes. To je třikrát více video deepfakes a osmkrát více hlasových deepfakes ve srovnání s rokem 2022.
Mezi nedávné příklady neúmyslného používání deepfakes patří vytváření falešné pornografie celebrit, kdy jsou obličeje celebrit digitálně vkládány do pornografických videí bez jejich souhlasu. Kromě toho byly zaznamenány případy, kdy byla deepfake videa použita k manipulaci s cenami akcií, očerňování osob nebo šíření politické propagandy. Tyto příklady poukazují na možnost využití deepfakes ke škodlivým a klamavým účelům.
Kyberkriminalita
Kyberkriminalita zahrnuje širokou škálu trestné činnosti, která využívá digitální zařízení a sítě. Tyto trestné činy zahrnují využívání technologií k páchání podvodů, krádeží identity, úniků dat, počítačových virů, podvodů a dalších škodlivých činů. Kyberzločinci využívají slabin počítačových systémů a sítí k získání neoprávněného přístupu, krádeži citlivých informací, narušení služeb a způsobení škody jednotlivcům, organizacím a vládám.
Protivníci stále častěji využívají snadno dostupné nástroje umělé inteligence, jako jsou ChatGPT, Dall-E a Midjourney, k automatizovaným phishingovým útokům, útokům na vydávání se za někoho jiného, útokům sociálního inženýrství a falešným chatbotům zákaznické podpory.
Podle zprávy SlashNext State of Phishing Report 2023 došlo k 1265% nárůstu počtu škodlivých phishingových e-mailů, což se z velké části připisuje používání nástrojů umělé inteligence pro cílené útoky.
Stále častěji se objevují útoky na základě vydávání se za někoho jiného. Podvodníci používají ChatGPT a další nástroje, aby se vydávali za skutečné osoby a organizace a zapojili se do krádeží identity a podvodů. Podobně jako u phishingových útoků využívají chatboty k zasílání hlasových zpráv, které se vydávají za důvěryhodného přítele, kolegu nebo člena rodiny s cílem získat osobní údaje nebo přístup k účtům. V pozoruhodném případu z března 2019 se šéf britské pobočky německé energetické společnosti stal obětí podvodníka, který napodobil hlas generálního ředitele, což vedlo k převodu téměř 200 000 liber (243 000 USD) na maďarský bankovní účet. Finanční prostředky byly později přesunuty do Mexika a rozptýleny na více míst. Vyšetřovatelé zatím neidentifikovali žádné podezřelé.
V roce 2023 obdrželo Centrum pro stížnosti na internetovou kriminalitu (IC3) bezprecedentní počet stížností od americké veřejnosti: celkem bylo podáno 880 418 stížností s potenciálními ztrátami přesahujícími 12,5 miliardy dolarů. To znamená téměř 10% nárůst počtu přijatých stížností a 22% nárůst ztrát ve srovnání s rokem 2022. Navzdory těmto ohromujícím číslům je důležité poznamenat, že pravděpodobně podhodnocují skutečný rozsah kyberkriminality v roce 2023. Například když FBI nedávno rozbila skupinu ransomwaru Hive, zjistilo se, že pouze asi 20 % obětí Hive nahlásilo tento zločin orgánům činným v trestním řízení.
Zásah do soukromí
Ukázkovým příkladem sociálního dohledu je používání technologie rozpoznávání obličejů v Číně v kancelářích, školách a na dalších místech. Tato technologie umožňuje nejen sledovat pohyb jednotlivců, ale také potenciálně umožňuje vládě shromažďovat rozsáhlé údaje pro sledování jejich jednání, aktivit, vztahů a ideologického přesvědčení.
Jednotlivci mohou být nyní sledováni jak online, tak v každodenním životě. Každý občan je vyhodnocován na základě svého chování, jako je chůze na černo, kouření v nekuřáckých prostorách a čas strávený hraním videoher. Představte si, že každý čin ovlivňuje vaše osobní skóre v rámci systému sociálního kreditu.
Když vás Velký bratr sleduje a pak na základě těchto informací rozhoduje, není to jen zásah do soukromí, ale může se rychle změnit v sociální útlak.
Finanční krize
V dnešním finančním světě je používání algoritmů strojového učení velmi rozšířené a hedgeové fondy a investiční společnosti se při analýze akcií a aktiv na tyto modely ve velké míře spoléhají. Tyto algoritmy jsou neustále zásobovány obrovským množstvím tradičních i alternativních dat, na jejichž základě činí obchodní rozhodnutí. Rostou však obavy, že algoritmické obchodování by mohlo potenciálně vyvolat další velkou finanční krizi.
Bleskový krach v roce 2010. 600 miliard dolarů se vypařilo během 20 minut
Jedním z významných příkladů nebezpečí chybných algoritmů je bleskový krach v roce 2010, kdy se akciový trh během několika minut náhle propadl o téměř 1 000 bodů a poté se rychle zotavil. Přestože se tržní indexy dokázaly ještě týž den částečně odrazit ode dna, Flash Crash vymazal tržní hodnotu téměř 1 bilion dolarů. Tento náhlý a drastický pokles cen byl z velké části způsoben automatickými obchodními algoritmy, které nepředvídatelně reagovaly na tržní podmínky. Dalším případem byl Flash Crash společnosti Knight Capital v roce 2012, kdy chybně fungující algoritmus způsobil, že firma během pouhých 45 minut ztratila 440 milionů dolarů, což nakonec vedlo k jejímu zániku.
Tyto krachy slouží jako střízlivá připomínka potenciálních rizik, která představuje algoritmické obchodování na finančních trzích. Pokud nejsou algoritmy řádně navrženy, testovány nebo monitorovány, mohou mít katastrofální následky. Pro finanční instituce je zásadní, aby své algoritmy důkladně prověřily a zajistily správné postupy řízení rizik, aby k podobným katastrofám v budoucnu nedocházelo.
Zabijáčtí roboti
Autonomní zbraně poháněné umělou inteligencí (AI) jsou již dlouho předmětem debat a obav vlád, vojenských představitelů a obhájců lidských práv. Tyto systémy, známé také jako "roboti zabijáci" nebo "smrtící autonomní zbraně", mají schopnost samostatně vybírat a zasahovat cíle bez zásahu člověka. To vyvolává značné etické, právní a bezpečnostní obavy, protože tyto zbraně mají potenciál rozhodovat o životě a smrti bez lidského dohledu.
Vývoj autonomních zbraní se v posledních letech zrychlil, protože technologie umělé inteligence je stále vyspělejší a rozšířenější. Tyto zbraně mohou sahat od bezpilotních dronů až po pozemní systémy, které mohou autonomně identifikovat a útočit na cíle. Zastánci autonomních zbraní tvrdí, že mohou snížit počet lidských obětí v konfliktních oblastech a zajistit přesnější a efektivnější vojenské operace. Kritici však tvrdí, že tyto systémy vyvolávají vážné etické otázky a mohou mít nezamýšlené důsledky, jako je eskalace konfliktů a civilní oběti.
Nebezpečí, které představují autonomní zbraně poháněné umělou inteligencí, je velmi reálné. Tyto systémy mohou být hacknuty nebo selhat, což může vést k nezamýšleným důsledkům a ztrátě kontroly. Absence lidského dohledu nad rozhodováním navíc vyvolává obavy ohledně odpovědnosti a možnosti porušování mezinárodního humanitárního práva.
V roce 2020 vyzvalo více než 30 zemí k zákazu smrtících autonomních zbraní s odkazem na obavy z možnosti, že by stroje mohly rozhodovat o životě a smrti. Navzdory těmto obavám vývoj a nasazení autonomních zbraní poháněných umělou inteligencí nadále postupuje. Je známo, že země jako Spojené státy, Rusko, Čína a Izrael do těchto technologií intenzivně investují. V USA vyvíjí ministerstvo obrany autonomní zbraňové systémy, včetně poloautonomních dronů a pozemních vozidel bez posádky.
Neovladatelná superinteligence
Umělá inteligence překonává lidský mozek v různých ohledech, včetně rychlosti výpočtů, rychlosti vnitřní komunikace, škálovatelnosti, kapacity paměti, spolehlivosti, duplikovatelnosti, editovatelnosti, sdílení paměti a schopnosti učení:
- Umělá inteligence pracuje na frekvenci potenciálně několikanásobně vyšší než 200 Hz u biologických neuronů.
- Axony přenášejí signály rychlostí 120 m/s, zatímco počítače tak činí rychlostí elektřiny nebo světla.
- Umělou inteligenci lze snadno škálovat přidáváním dalšího hardwaru, na rozdíl od lidské inteligence omezené velikostí mozku a efektivitou sociální komunikace.
- Pracovní paměť u lidí je omezená ve srovnání s expanzivní kapacitou paměti UI.
- Spolehlivost tranzistorů v UI překonává spolehlivost biologických neuronů, což umožňuje vyšší přesnost a menší redundanci.
- Modely UI lze snadno duplikovat, modifikovat a učit se z jiných zkušeností UI efektivněji než lidé.
Jednoho dne může UI dosáhnout úrovně inteligence, která daleko předčí inteligenci lidí, což povede k tzv. explozi inteligence.
Tato myšlenka rekurzivního sebezdokonalování, kdy se umělá inteligence neustále zlepšuje exponenciální rychlostí, vyvolala obavy z možných důsledků vytvoření superinteligentní entity. Představte si scénář, kdy umělá inteligence dosáhne takové úrovně inteligence, která jí umožní překonat člověka ve všech myslitelných ohledech. Tato superinteligence by potenciálně mohla mít moc činit rozhodnutí, která by výrazně ovlivnila naši společnost a způsob života. Stejně jako máme v současnosti v rukou osud mnoha živočišných druhů, může být jednoho dne osud lidstva v rukou superinteligentní umělé inteligence.
Přílišné spoléhání na umělou inteligenci a právní odpovědnost
Přílišné spoléhání se na technologii umělé inteligence by mohlo vést ke snížení vlivu a fungování člověka v určitých oblastech společnosti. Například využívání AI ve zdravotnictví může vést ke snížení lidské empatie a uvažování. Využití generativní UI pro tvůrčí činnosti by navíc mohlo potlačit lidskou kreativitu a emocionální projevy. Nadměrná interakce se systémy UI by také mohla vést k poklesu vzájemné komunikace a sociálních dovedností. Ačkoli může být UI prospěšná pro automatizaci úkolů, existují obavy z jejího dopadu na celkovou lidskou inteligenci, schopnosti a smysl pro komunitu.
Kromě toho existují potenciální nebezpečí, která by mohla vést k fyzickému poškození lidí. Pokud se například společnosti budou při plánování údržby spoléhat pouze na předpovědi AI bez dalšího ověření, mohlo by to vést k poruchám strojů, které by poškodily pracovníky. Ve zdravotnictví by modely AI mohly vést k chybným diagnózám.
Kromě fyzických škod existují i nefyzické způsoby, kterými by umělá inteligence mohla představovat riziko pro člověka, pokud by nebyla řádně regulována. Patří sem problémy s digitální bezpečností, jako je pomluva nebo urážka na cti, finanční bezpečnost, jako je zneužití UI při finančních doporučeních nebo kontrole úvěruschopnosti, a obavy týkající se spravedlnosti v souvislosti s předpojatostí UI vedoucí k nespravedlivému odmítnutí nebo přijetí v různých programech.
A když se něco pokazí, kdo by měl nést odpovědnost? Je to samotná umělá inteligence, vývojář, který ji vytvořil, společnost, která ji uvedla do provozu, nebo je to operátor, pokud byl zapojen člověk?
* * *
Závěrem lze říci, že umělá inteligence sice přináší mnohá rizika a hrozby, ale zároveň má potenciál být pro společnost velmi přínosná a zlepšit náš život. Je důležité si uvědomit, že v případě technologie umělé inteligence často převažují dobré stránky nad těmi špatnými. V příštím článku se budeme věnovat strategiím, jak zmírnit rizika spojená s umělou inteligencí a zajistit, abychom mohli plně využít její potenciál k pozitivním změnám.