Vissza a főoldalra

A sci-fitől a valóságig: A mesterséges intelligencia valódi veszélyei

A mesterséges intelligencia térhódítása jelentős technológiai áttörést jelent, amely az internethez, a személyi számítógépekhez és a mobiltelefonokhoz hasonlóan forradalmasítani fogja a társadalmat. Hatása mindenütt jelen van, és az emberi élet különböző területeire hatol be, a munkától az oktatáson át a szabadidős tevékenységekig. A neurális hálózatok gyors fejlődése némi aggodalomra ad okot, ami arra késztet bennünket, hogy ebben a cikkben megvizsgáljuk, milyen potenciális veszélyeket jelenthet a mesterséges intelligencia az emberiségre nézve.

Veszélyes a mesterséges intelligencia? Ki fejezte ki aggodalmát?

A sci-fi filmekben népszerű téma az emberiséget uralni vagy elpusztítani akaró, irányíthatatlan mesterséges intelligencia gondolata, amint azt olyan filmekben láthatjuk, mint a "Mátrix" és a "Terminátor". Napjainkban a technológiai fejlődés gyors ütemével az átlagember számára kihívást jelenthet lépést tartani. A mesterséges intelligencia gyors fejlődése miatt társadalmainknak gyorsan kell alkalmazkodniuk, ami félelmeket vált ki e technológiák összetettsége és az ismeretlentől való veleszületett emberi félelem miatt.

Nemcsak a hétköznapi emberek aggódnak a mesterséges intelligencia miatt, hanem a terület szakértői is kifejezik aggodalmaikat. Geoffrey Hinton például, akit gyakran "a mesterséges intelligencia keresztapjaként" emlegetnek, hangot adott saját aggodalmainak:

Ezek a dolgok intelligensebbek lehetnek nálunk, és úgy dönthetnek, hogy átveszik a hatalmat, és most azon kell aggódnunk, hogyan akadályozzuk meg, hogy ez megtörténjen.

Sokáig azt hittem, hogy ettől még 30-50 év választ el minket. Szóval én azt mondom, hogy messze vagyunk attól a valamitől, ami nagyobb általános intelligenciával rendelkezik, mint egy ember. Most úgy gondolom, hogy sokkal közelebb vagyunk, talán már csak öt év választ el minket ettől.

Komoly a veszélye annak, hogy hamarosan nálunk okosabb dolgok jönnek létre, és ezek a dolgok rossz indítékot kaphatnak, és átvehetik az irányítást.

2023. március 22-én nyílt levelet tettek közzé, amelyben a GPT-4-nél erősebb mesterséges intelligencia fejlesztésének hat hónapos leállítására szólítottak fel:

A kortárs mesterséges intelligencia-rendszerek mostanra általános feladatokban az emberekkel versenyképesekké váltak, és fel kell tennünk magunknak a kérdést: Hagyjuk-e, hogy a gépek elárasszák információs csatornáinkat propagandával és valótlansággal? Automatizáljunk el minden munkát, beleértve a teljesítő munkákat is? Fejlesszünk-e ki nem emberi elméket, amelyek előbb-utóbb túlerőben lesznek, túljárnak az eszünkön, elavulnak és felváltanak minket? Megkockáztassuk, hogy elveszítjük civilizációnk feletti uralmunkat? Az ilyen döntéseket nem szabad nem megválasztott technológiai vezetőkre bízni. Erőteljes mesterséges intelligenciarendszereket csak akkor szabad kifejleszteni, ha biztosak vagyunk abban, hogy hatásuk pozitív lesz, és kockázatuk kezelhető. Ezt a bizalmat jól meg kell indokolni, és a rendszer potenciális hatásainak nagyságrendjével együtt kell növelni.

A levelet 1800 technológiai vállalat vezetője, 1500 professzor, tudós és kutató írta alá a mesterséges intelligencia területén:

  • Elon Musk, a SpaceX, a Tesla és a Twitter vezérigazgatója
  • Steve Wozniak, az Apple társalapítója
  • Emad Mostaque, a Stability AI vezérigazgatója
  • Jaan Tallinn, a Skype társalapítója, az egzisztenciális kockázatok tanulmányozásának központja, az Élet Jövője Intézet
  • Evan Sharp, társalapító, Pinterest
  • Craig Peters, vezérigazgató, Getty Images
  • Mark Nitzberg, Center for Human-Compatible AI, UC Berkeley, ügyvezető igazgató
  • Gary Marcus, New York-i Egyetem, mesterséges intelligencia kutató, professor emeritus
  • Zachary Kenton, DeepMind, vezető kutató
  • Ramana Kumar, DeepMind, kutatótudós
  • Michael Osborne, Oxfordi Egyetem, a gépi tanulás professzora
  • Adam Smith, Bostoni Egyetem, az informatika professzora, Gödel-díj, Kanellakis-díj

Összesen több mint 33 000 aláírás gyűlt össze.

Más neves személyiségek, mint Sam Altman (vezérigazgató, OpenAI), Geoffrey Hinton (Turing-díjas), Dario Amodei (vezérigazgató, Anthropic) és Bill Gates, valamint több mint 350 vezető és MI-kutató írta alá az alábbi nyilatkozatot:

Az M.I. okozta kihalás kockázatának mérséklését globális prioritásként kell kezelni, más társadalmi szintű kockázatokkal, például a világjárványokkal és az atomháborúval együtt.

A mesterséges intelligencia veszélyei

2018-ban az Uber önvezető autója elütött és megölt egy gyalogost.

2022-ben tudósok átkonfiguráltak egy eredetileg nem mérgező, gyógyító molekulák létrehozására tervezett mesterséges intelligencia rendszert, hogy vegyi harci anyagokat állítsanak elő. A rendszer beállításait úgy változtatták meg, hogy a mérgezőséget büntetés helyett jutalmazzák, így mindössze hat óra alatt 40 000 potenciális molekulát tudtak gyorsan létrehozni a vegyi hadviseléshez.

2023-ban a kutatók bemutatták, hogy a GPT-4 hogyan tudta manipulálni a TaskRabbit dolgozóját, hogy az befejezze a Captcha ellenőrzést. Nemrégiben egy tragikus esetről számoltak be, amelyben egy személy önkezével vetett véget életének, miután nyugtalanító beszélgetést folytatott egy chatrobottal.

A GPT-4 átmegy a Captcha ellenőrzésen

A mesterséges intelligencia rendszerek használata, függetlenül a tervezett céltól, negatív következményekkel járhat, mint például:

  • Az automatizálás által ösztönzött munkahelyek megszűnése
  • Deepfakes és félretájékoztatás
  • Az adatvédelem megsértése
  • Tisztázatlan jogi szabályozás
  • A rossz adatok által okozott algoritmikus elfogultság
  • Pénzügyi válságok
  • Kiberbűnözés
  • Fegyverek automatizálása
  • Irányíthatatlan szuperintelligencia

A mesterséges intelligencia rendszerek egyre erősebbek, és nem ismerjük a korlátaikat. Ezeket a rendszereket rosszindulatú célokra is fel lehet használni. Vizsgáljuk meg közelebbről a különböző kockázatokat.

Munkahelyek megszűnése az MI általi automatizálás miatt

A Goldman Sachs kutatása szerint a mesterséges intelligencia világszerte jelentős hatással lehet a munkaerőpiacokra. A Goldman Sachs közgazdászai az Egyesült Államokban több mint 900 foglalkozás feladattartalmát részletező adatbázisok, valamint az európai ESCO-adatbázisban szereplő 2000 foglalkozás elemzésével úgy becsülik, hogy a foglalkozások nagyjából kétharmada ki van téve a mesterséges intelligencia általi bizonyos fokú automatizálásnak.

A mesterséges intelligencia által automatizált foglalkozások százalékos aránya és a munkaterhelés aránya

A függőleges tengely a mesterséges intelligencia által automatizált foglalkozási munkaterhelés arányát mutatja. A vízszintes tengely a foglalkozások százalékos arányát mutatja.

A munkafolyamatok e fejlesztések által okozott változásai potenciálisan 300 millió teljes munkaidős állásnak megfelelő munkahelyet automatizálhatnak. Azonban nem minden automatizált munka fog elbocsátásokhoz vezetni. Számos munkahely és iparág csak részben fogékony az automatizálásra, ami azt jelenti, hogy a mesterséges intelligencia inkább kiegészíti, mintsem teljesen helyettesíti őket.

A Seo.ai még tovább megy ebben a jóslatban, és úgy becsüli, hogy 2030-ra világszerte mintegy 800 millió munkahelyet válthat fel a mesterséges intelligencia. A közelgő váltásra való felkészülés érdekében a következő három évben várhatóan több mint 120 millió munkavállaló fog átképzésen részt venni.

Ha tudni szeretné, hogy mely szakmákat fenyegeti jobban az automatizálás, és melyeket kevésbé, olvassa el a témával foglalkozó cikkünket.

Téves információk

Még a legfejlettebb nagy nyelvi modellek is hajlamosak arra, hogy helytelen vagy értelmetlen információkat generáljanak. Ezek a hibák (hallucinációk) gyakran abból adódnak, hogy a modell a valódi megértés vagy érvelés helyett a betanított adatok statisztikai mintáira támaszkodik.

Más szóval, a chatbotok néha tényeket találnak ki. Ez 2023-ban vált világossá, amikor egy New York-i ügyvéd forró vízbe került, mert a ChatGPT-t használta jogi kutatásra egy személyi sérüléssel kapcsolatos ügyben. Összeállított egy 10 oldalas beadványt, amelyben több korábbi bírósági döntésre hivatkozott, amelyekről bebizonyosodott, hogy a chatbot teljesen kitalálta őket. Ennek eredményeként az ügyvédet és egy kollégáját egy szövetségi bíró megbüntette, és fejenként 5000 dollárra bírságolta.

2024-ben egy másik New York-i ügyvédet is megbüntettek, mert egy nem létező, mesterséges intelligencia által generált ügyre hivatkozott.

Mesterséges intelligencia hallucinál

Egy másik példa erre a Stack Overflow, egy kérdés- és válaszoldali weboldal, amelyet elsősorban programozók és fejlesztők használnak technikai kérdések feltevésére, kódolási problémákhoz való segítségkérésre és a programozói közösségen belüli tudásmegosztásra.

Az oldalnak be kellett tiltania a generatív mesterséges intelligencia használatát, mert a különböző chatbotoktól kapott helyes válaszok átlagos aránya túl alacsony volt, még akkor is, ha a válaszok jellemzően meggyőzőnek tűntek.

Társadalmi manipuláció

A közösségi médiaplatformokat manapság olyan sok tartalom árasztja el, hogy nehéz lehet lépést tartani velük. Itt jön a képbe az algoritmikus kuráció. Lényegében segít átszűrni a zajt, és olyan tartalmakat mutatni a felhasználóknak, amelyek a múltbeli viselkedésük alapján valószínűleg érdeklik őket. Bár ez hasznos lehet a végtelen információáradat kezelésében, azt is jelenti, hogy a platformnak nagy befolyása van arra, hogy a felhasználók mit látnak és mivel lépnek interakcióba.

Azonban annak megváltoztatása, hogy mi jelenik meg valakinek a hírfolyamában, hatással lehet a hangulatára és arra, hogy általában hogyan látja a világot. 2012 januárjában a Facebook adattudósai bemutatták, hogy a hírfolyam kurátori döntései hogyan változtatják meg a felhasználók boldogságszintjét. A 2021 januárjában az amerikai Capitoliumban történt események még inkább rávilágítottak arra, hogy valakinek a közösségi médiafogyasztása milyen szerepet játszhat a radikalizálódásban.

Továbbá, mivel a szenzációs anyagok hajlamosak hosszabb ideig lekötni a felhasználókat, az algoritmusok az elkötelezettség növelése érdekében akaratlanul is a provokatív és káros tartalmak felé terelhetik a felhasználókat. Még a felhasználó érdeklődési körén alapuló tartalomjavaslatok is problémásak lehetnek, mivel tovább mélyíthetik a felhasználó meggyőződését egy "szűrőbuborékban", ahelyett, hogy változatos perspektíváknak tennék ki. Ez végső soron a felhasználók közötti fokozódó polarizálódást eredményezheti.

Emberek a buborékjaikban

Amikor átadjuk a döntési jogkörünket a platformoknak, lényegében átadjuk nekik az irányítást arról, hogy mit látunk. A közösségi média fejlett algoritmusaival kiválóan alkalmas a célzott marketingre, mivel megérti a preferenciáinkat és gondolatainkat. A legújabb vizsgálatok a Cambridge Analytica és hasonló cégek szerepét vizsgálják abban, hogy 50 millió Facebook-felhasználó adatait használták fel olyan jelentős politikai események befolyásolására, mint a 2016-os amerikai elnökválasztás és a brit Brexit-népszavazás. Ha ezek a vádak igaznak bizonyulnak, az rávilágít a mesterséges intelligencia társadalom manipulálásának lehetőségére. Egy újabb példa, hogy ifjabb Ferdinand Marcos egy TikTok trollhadsereget használt a fiatalabb szavazók befolyásolására a 2022-es Fülöp-szigeteki elnökválasztáson. A személyes adatok és algoritmusok kihasználásával az AI hatékonyan célozhat meg egyéneket konkrét propagandával, akár tényeken, akár fikción alapul.

Deepfakes

A deepfakes olyan digitálisan módosított videókat vagy képeket jelentenek, amelyek valósághűen ábrázolnak egy személyt, aki olyasmit mond vagy tesz, amit valójában soha nem mondott vagy tett. Ez a technológia mélytanulási algoritmusokat használ a meglévő video- és hangfelvételek manipulálására, hogy meggyőző hamis tartalmakat hozzon létre.

"Senki sem tudja, mi a valóság és mi nem" - mondta Martin Ford futurista. "Tehát ez tényleg olyan helyzethez vezet, amikor szó szerint nem hihetünk a saját szemünknek és fülünknek; nem támaszkodhatunk arra, amit történelmileg a lehető legjobb bizonyítéknak tekintettünk... Ez óriási probléma lesz."

Az egyik fő ok, amiért a deepfakes veszélyesnek számít, az a rosszindulatú célokra való felhasználásuk lehetősége. A deepfake-eket például arra lehet használni, hogy jogi ügyekben hamis videóbizonyítékokat készítsenek, hogy olyan bűncselekményeket vádoljanak meg, amelyeket nem követtek el, vagy akár politikai személyiségnek adják ki magukat, hogy hamis információkat terjesszenek. A média ilyen módon történő manipulálásával a deepfake-ek képesek megzavarni a hagyományos információforrásokba vetett bizalmat, és zavart és viszályt kelteni a társadalomban.

A DeepMedia, a szintetikus média felismerésére szolgáló eszközökön dolgozó vállalat szerint 2023-ban világszerte 500 000 deepfake került fel a közösségi oldalakra. Ez 2022-hez képest 3-szor több videó deepfake és 8-szor több hang deepfake.

A deepfakes rossz szándékú felhasználásának néhány közelmúltbeli példája közé tartozik a hamisított hírességek pornográfiájának létrehozása, ahol hírességek arcát digitálisan, a beleegyezésük nélkül illesztik be pornográf videókba. Emellett előfordult már, hogy a deepfake videókat a tőzsdei árfolyamok manipulálására, személyek rágalmazására vagy politikai propaganda terjesztésére használták. Ezek a példák rávilágítanak arra, hogy a deepfake-eket káros és megtévesztő célokra is fel lehet használni.

Kiberbűnözés

A számítástechnikai bűnözés a digitális eszközöket és hálózatokat használó bűncselekmények széles körét foglalja magában. Ezek a bűncselekmények magukban foglalják a technológia felhasználását csalás, személyazonosság-lopás, adatlopás, számítógépes vírusok, csalások és egyéb rosszindulatú cselekmények elkövetésére. A számítógépes bűnözők kihasználják a számítógépes rendszerek és hálózatok gyengeségeit, hogy jogosulatlan hozzáférést szerezzenek, érzékeny információkat lopjanak, megzavarják a szolgáltatásokat, és kárt okozzanak egyéneknek, szervezeteknek és kormányoknak.

A támadók egyre gyakrabban használnak olyan könnyen elérhető mesterséges intelligencia eszközöket, mint a ChatGPT, a Dall-E és a Midjourney automatizált adathalász-támadásokhoz, megszemélyesítő támadásokhoz, social engineering támadásokhoz és hamis ügyfélszolgálati chatbotokhoz.

A SlashNext State of Phishing Report 2023 szerint a rosszindulatú adathalász e-mailek száma 1265%-kal nőtt, ami nagyrészt az MI-eszközök célzott támadásokhoz való használatának tulajdonítható.

Egyre gyakoribbak a megszemélyesítő támadások. A csalók a ChatGPT és más eszközök segítségével valódi személyeknek és szervezeteknek adják ki magukat, személyazonosság-lopást és csalást követnek el. Az adathalász támadásokhoz hasonlóan chatbotokat használnak arra, hogy megbízható barátnak, kollégának vagy családtagnak kiadva magukat hangüzeneteket küldjenek, hogy személyes adatokat vagy fiókokhoz való hozzáférést szerezzenek. Egy 2019 márciusában történt figyelemre méltó esetben egy német energetikai vállalat brit leányvállalatának vezetője egy csaló áldozatává vált, aki a vezérigazgató hangját utánozta, aminek következtében közel 200 000 fontot (243 000 dollárt) utaltak át egy magyar bankszámlára. A pénz később Mexikóba került, és több helyre is szétszóródott. A nyomozók még nem azonosítottak gyanúsítottakat.

Kiberbűnözés és büntetés

2023-ban az Internetes Bűnügyi Panaszközponthoz (IC3) soha nem látott számú panasz érkezett az amerikai lakosságtól: összesen 880 418 panasz érkezett, a potenciális veszteség meghaladta a 12,5 milliárd dollárt. Ez a beérkezett panaszok számának közel 10%-os növekedését és a veszteségek 22%-os növekedését jelenti 2022-hez képest. E megdöbbentő adatok ellenére fontos megjegyezni, hogy ezek valószínűleg alábecsülik a kiberbűnözés valódi mértékét 2023-ban. Amikor például az FBI nemrégiben felszámolta a Hive zsarolóvírus csoportot, kiderült, hogy a Hive áldozatainak csak mintegy 20%-a jelentette a bűncselekményt a bűnüldöző hatóságoknak.

A magánélet megsértése

A társadalmi megfigyelés egyik legjobb példája, hogy Kína arcfelismerő technológiát alkalmaz az irodákban, iskolákban és más helyeken. Ez a technológia nemcsak az egyének mozgásának nyomon követését teszi lehetővé, hanem potenciálisan azt is, hogy a kormány széles körű adatgyűjtést végezzen a személyek cselekedeteinek, tevékenységeinek, kapcsolatainak és ideológiai meggyőződésének nyomon követése céljából.

Az egyének most már mind online, mind a mindennapi életükben megfigyelhetők. Minden egyes állampolgárt a viselkedésük alapján értékelnek, mint például a szabálytalan átkelés, a dohányzás a nemdohányzó helyeken, vagy a videojátékokkal töltött idő. Képzeljük el, hogy minden egyes cselekedet befolyásolja a személyes pontszámunkat a társadalmi kreditrendszerben.

Ha a Nagy Testvér figyeli Önt, majd az információk alapján döntéseket hoz, az nemcsak a magánélet megsértése, hanem gyorsan átfordulhat társadalmi elnyomásba.

Pénzügyi válságok

A mai pénzügyi világban a gépi tanulási algoritmusok használata széles körben elterjedt, a fedezeti alapok és a befektetési cégek nagymértékben támaszkodnak ezekre a modellekre a részvények és eszközök elemzésében. Ezeket az algoritmusokat folyamatosan hatalmas mennyiségű hagyományos és alternatív adattal táplálják a kereskedési döntések meghozatalához. Egyre nagyobb az aggodalom azonban amiatt, hogy az algoritmikus kereskedés potenciálisan kiválthatja a következő nagy pénzügyi válságot.

2010-es Flash Crash. 600 milliárd dollár párolgott el 20 perc alatt

2010-es Flash Crash. 600 milliárd dollár párolgott el 20 perc alatt

A hibás algoritmusok veszélyeire figyelemre méltó példa a 2010-es Flash Crash, amikor a tőzsde hirtelen, néhány perc alatt közel 1000 pontot zuhant, majd gyorsan visszapattant. Bár a piaci indexeknek még aznap sikerült részben helyreállniuk, a Flash Crash közel 1 billió dollár piaci értéket semmisített meg. Ezt a hirtelen és drasztikus áresést nagyrészt az automatizált kereskedési algoritmusoknak tulajdonították, amelyek kiszámíthatatlan módon reagáltak a piaci körülményekre. Egy másik példa volt a Knight Capital 2012-es Flash Crash, amikor egy hibásan működő algoritmus miatt a cég mindössze 45 perc alatt 440 millió dollárt veszített, ami végül a cég végéhez vezetett.

Ezek az összeomlások kijózanítóan emlékeztetnek az algoritmikus kereskedés által a pénzügyi piacokon jelentett potenciális kockázatokra. Ha az algoritmusokat nem megfelelően tervezik, tesztelik vagy ellenőrzik, katasztrofális következményekkel járhatnak. A pénzügyi intézményeknek alaposan át kell vizsgálniuk algoritmusaikat, és biztosítaniuk kell a megfelelő kockázatkezelési gyakorlatokat, hogy a jövőben elkerüljék a hasonló katasztrófákat.

Gyilkos robotok

A mesterséges intelligencia (MI) által működtetett autonóm fegyverek már régóta vita és aggodalom tárgyát képezik a kormányok, katonai tisztviselők és az emberi jogok védelmezői körében. Ezek a rendszerek, amelyeket "gyilkos robotoknak" vagy "halálos autonóm fegyvereknek" is neveznek, képesek önállóan, emberi beavatkozás nélkül kiválasztani és megtámadni a célpontokat. Ez jelentős etikai, jogi és biztonsági aggályokat vet fel, mivel ezek a fegyverek emberi felügyelet nélkül képesek élet-halál döntéseket hozni.

Az autonóm fegyverek fejlesztése felgyorsult az elmúlt években, ahogy a mesterséges intelligencia technológia egyre fejlettebbé és elterjedtebbé vált. Ezek a fegyverek a pilóta nélküli drónoktól a földi rendszerekig terjedhetnek, amelyek képesek önállóan azonosítani és támadni a célpontokat. Az autonóm fegyverek támogatói azzal érvelnek, hogy csökkenthetik az emberi áldozatok számát a konfliktusövezetekben, valamint pontosabb és hatékonyabb katonai műveleteket biztosíthatnak. A kritikusok azonban azzal érvelnek, hogy ezek a rendszerek komoly etikai kérdéseket vetnek fel, és nem kívánt következményekkel járhatnak, például a konfliktusok eszkalálódásával és polgári áldozatokkal.

A mesterséges intelligencia által működtetett autonóm fegyverek jelentette veszély nagyon is valós. Ezeket a rendszereket meghekkelhetik vagy meghibásodhatnak, ami nem szándékolt következményekhez és az irányítás elvesztéséhez vezethet. Emellett az emberi felügyelet hiánya a döntéshozatalban aggályokat vet fel az elszámoltathatósággal és a nemzetközi humanitárius jog megsértésének lehetőségével kapcsolatban.

Gyilkos robotok a sci-fiben

2020-ban több mint 30 ország szólított fel a halálos kimenetelű autonóm fegyverek betiltására, arra hivatkozva, hogy a gépek élet-halál kérdésekben dönthetnek. Ezen aggályok ellenére a mesterséges intelligencia által működtetett autonóm fegyverek fejlesztése és telepítése folyamatosan halad előre. Olyan országok, mint az Egyesült Államok, Oroszország, Kína és Izrael, közismerten nagy összegeket fektetnek be ezekbe a technológiákba. Az Egyesült Államokban a védelmi minisztérium autonóm fegyverrendszereket fejleszt, beleértve a félautonóm drónokat és a pilóta nélküli földi járműveket.

Irányíthatatlan szuperintelligencia

A mesterséges intelligencia több szempontból is felülmúlja az emberi agyat, többek között a számítási sebesség, a belső kommunikációs sebesség, a skálázhatóság, a memóriakapacitás, a megbízhatóság, a másolhatóság, a szerkeszthetőség, a memória megosztása és a tanulási képességek tekintetében:

  • A mesterséges intelligencia potenciálisan több GHz-es frekvencián működik, szemben a biológiai neuronok 200 Hz-es határértékével.
  • Az axonok 120 m/s sebességgel továbbítják a jeleket, míg a számítógépek az elektromosság vagy a fény sebességével teszik ezt.
  • A mesterséges intelligencia könnyen skálázható további hardverek hozzáadásával, ellentétben az emberi intelligenciával, amelyet az agy mérete és a társadalmi kommunikáció hatékonysága korlátoz.
  • Az emberek munkamemóriája korlátozott az MI kiterjedt memóriakapacitásához képest.
  • A mesterséges intelligenciában a tranzisztorok megbízhatósága meghaladja a biológiai neuronokét, ami nagyobb pontosságot és kevesebb redundanciát tesz lehetővé.
  • A mesterséges intelligenciamodellek könnyen másolhatók, módosíthatók, és hatékonyabban képesek tanulni más mesterséges intelligenciák tapasztalataiból, mint az emberek.

Egy nap a mesterséges intelligencia olyan intelligenciaszintet érhet el, amely messze meghaladja az emberekét, ami az úgynevezett intelligencia-robbanáshoz vezethet.

Szuperintelligencia és az emberiség kihalása

A rekurzív önfejlesztés gondolata, amikor a mesterséges intelligencia exponenciális ütemben folyamatosan fejleszti önmagát, aggodalmakat váltott ki egy szuperintelligens entitás létrehozásának lehetséges következményeivel kapcsolatban. Képzeljünk el egy olyan forgatókönyvet, amelyben a mesterséges intelligencia eléri az intelligencia olyan szintjét, amely lehetővé teszi, hogy minden elképzelhető módon felülmúlja az emberek gondolkodását és teljesítményét. Ez a szuperintelligencia potenciálisan olyan döntések meghozatalára lenne képes, amelyek nagymértékben befolyásolnák társadalmunkat és életmódunkat. Ahogyan jelenleg az emberek kezében van számos faj sorsa, úgy egy napon az emberiség sorsa is egy szuperintelligens mesterséges intelligencia kezében lehet.

A mesterséges intelligenciára való túlzott hagyatkozás és a jogi felelősségvállalás

Az MI-technológiára való túlzott támaszkodás az emberi befolyás és működés csökkenését eredményezheti a társadalom bizonyos területein. Például a mesterséges intelligencia alkalmazása az egészségügyben az emberi empátia és érvelés csökkenéséhez vezethet. Emellett a generatív mesterséges intelligencia kreatív tevékenységekben való felhasználása megfojthatja az emberi kreativitást és érzelemkifejezést. A mesterséges intelligencia rendszerekkel való túlzott interakció a társas kommunikáció és a szociális készségek csökkenéséhez is vezethet. Bár a mesterséges intelligencia hasznos lehet a feladatok automatizálása szempontjából, aggodalomra ad okot az általános emberi intelligenciára, képességekre és közösségi érzésre gyakorolt hatása.

Ezen túlmenően potenciális veszélyek is fennállnak, amelyek az emberek fizikai sérüléséhez vezethetnek. Például, ha a vállalatok kizárólag az MI előrejelzéseire hagyatkoznak a karbantartási ütemterveket illetően más ellenőrzés nélkül, az olyan gépmeghibásodásokhoz vezethet, amelyek kárt okoznak a munkavállalóknak. Az egészségügyben az MI-modellek téves diagnózisokhoz vezethetnek.

A fizikai ártalmak mellett vannak nem fizikai módok is, amelyekkel a mesterséges intelligencia kockázatot jelenthet az emberekre nézve, ha nem szabályozzák megfelelően. Ide tartoznak a digitális biztonsággal kapcsolatos kérdések, mint például a rágalmazás vagy becsületsértés, a pénzügyi biztonság, mint például a mesterséges intelligencia visszaélésszerű használata pénzügyi ajánlások vagy hitelellenőrzések során, valamint a méltányossággal kapcsolatos aggályok, amelyek a mesterséges intelligencia elfogultságával kapcsolatosak, és amelyek a különböző programokban való tisztességtelen elutasításhoz vagy elfogadáshoz vezetnek.

És ha valami rosszul sül el, kit kell felelősségre vonni? Maga a mesterséges intelligencia, a fejlesztő, aki létrehozta, a vállalat, amely használatba vette, vagy az üzemeltető, ha ember is részt vett benne?

* * *

Összefoglalva, bár a mesterséges intelligencia számos kockázatot és veszélyt rejt magában, ugyanakkor megvan benne a lehetőség, hogy nagymértékben javítsa a társadalmat és javítsa az életünket. Fontos felismerni, hogy a mesterséges intelligencia technológiával kapcsolatban a jó gyakran felülmúlja a rosszat. Következő cikkünkben a mesterséges intelligenciával kapcsolatos kockázatok mérséklésére vonatkozó stratégiákat fogunk megvitatni, biztosítva, hogy teljes mértékben kiaknázhassuk a benne rejlő lehetőségeket a pozitív változások érdekében.