Terug naar hoofdpagina

Van sciencefiction naar werkelijkheid: De echte gevaren van KI

De opkomst van kunstmatige intelligentie betekent een belangrijke technologische doorbraak die op het punt staat een revolutie teweeg te brengen in de maatschappij, net zoals het internet, pc's en mobiele telefoons dat hebben gedaan. De invloed ervan is alomtegenwoordig en dringt door in verschillende aspecten van het menselijk leven, van werk en onderwijs tot vrijetijdsbesteding. De snelle ontwikkeling van neurale netwerken baart ons zorgen en daarom onderzoeken we in dit artikel de mogelijke gevaren van kunstmatige intelligentie voor de mensheid.

Is KI gevaarlijk? Wie maakt zich zorgen?

In sciencefictionfilms is het idee van een oncontroleerbare kunstmatige intelligentie die erop uit is de mensheid te overheersen of te vernietigen een populair thema, zoals te zien is in films als "The Matrix" en "The Terminator". Met de snelle technologische vooruitgang van tegenwoordig kan het voor de gemiddelde persoon een uitdaging zijn om bij te blijven. De snelle vooruitgang van KI zorgt ervoor dat onze samenlevingen zich snel moeten aanpassen, wat angst oproept vanwege de complexiteit van deze technologieën en de aangeboren menselijke angst voor het onbekende.

Niet alleen gewone mensen maken zich zorgen over KI, maar ook experts op dit gebied uiten hun bezorgdheid. Zo heeft Geoffrey Hinton, die vaak de "peetvader van KI" wordt genoemd, zijn eigen bezorgdheid geuit:

Deze dingen kunnen intelligenter worden dan wij en besluiten om het over te nemen, en we moeten ons nu zorgen maken over hoe we dat kunnen voorkomen.

Ik heb lang gedacht dat we daar zo'n 30 tot 50 jaar van verwijderd waren. Ik noem dat ver weg van iets dat een grotere algemene intelligentie heeft dan een mens. Nu denk ik dat we veel dichterbij zijn, misschien nog maar vijf jaar.

Er is een serieus gevaar dat we vrij snel dingen krijgen die slimmer zijn dan wij en dat deze dingen slechte motieven krijgen en de controle overnemen.

Op 22 maart 2023 werd er een open brief gepubliceerd waarin werd opgeroepen om de ontwikkeling van kunstmatige intelligentie die krachtiger is dan GPT-4 voor een periode van zes maanden stop te zetten:

Hedendaagse AI-systemen worden nu menselijk concurrerend in algemene taken, en we moeten ons afvragen: Moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheid? Moeten we alle banen automatiseren, inclusief de banen die voldoening geven? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal overtreffen, te slim af zijn, overbodig worden en vervangen? Moeten we het risico lopen dat we de controle over onze beschaving verliezen? Dergelijke beslissingen moeten niet worden gedelegeerd aan ongekozen technologieleiders. Krachtige KI-systemen moeten pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en hun risico's beheersbaar. Dit vertrouwen moet goed onderbouwd zijn en toenemen met de omvang van de potentiële effecten van een systeem.

De brief is ondertekend door 1800 leiders van techbedrijven, 1500 professoren, wetenschappers en onderzoekers op het gebied van KI:

  • Elon Musk, CEO van SpaceX, Tesla & Twitter
  • Steve Wozniak, medeoprichter van Apple
  • Emad Mostaque, CEO, Stability AI
  • Jaan Tallinn, medeoprichter van Skype, Centrum voor de studie van existentieel risico, Future of Life Institute
  • Evan Sharp, medeoprichter Pinterest
  • Craig Peters, CEO, Getty Images
  • Mark Nitzberg, Centrum voor menscompatibele AI, UC Berkeley, uitvoerend directeur
  • Gary Marcus, New York University, AI-onderzoeker, emeritus hoogleraar
  • Zachary Kenton, DeepMind, senior onderzoekswetenschapper
  • Ramana Kumar, DeepMind, wetenschappelijk onderzoeker
  • Michael Osborne, Universiteit van Oxford, hoogleraar machinaal leren
  • Adam Smith, Universiteit van Boston, hoogleraar computerwetenschappen, Gödel-prijs, Kanellakis-prijs

In totaal werden meer dan 33.000 handtekeningen verzameld.

Andere bekende personen, zoals Sam Altman (CEO, OpenAI), Geoffrey Hinton (Turing Award Winner), Dario Amodei (CEO, Anthropic), Bill Gates en meer dan 350 leidinggevenden en KI-onderzoekers ondertekenden de volgende verklaring:

Het beperken van het risico op uitsterven door K.I. zou een wereldwijde prioriteit moeten zijn naast andere risico's op maatschappelijke schaal, zoals pandemieën en kernoorlogen.

Gevaren van kunstmatige intelligentie

In 2018 reed een zelfrijdende Uber-auto een voetganger aan en doodde deze.

In 2022 herconfigureerden wetenschappers een KI-systeem dat oorspronkelijk was ontworpen voor het maken van niet-giftige, genezende moleculen om chemische strijdmiddelen te produceren. Door de instellingen van het systeem zo te veranderen dat toxiciteit werd beloond in plaats van bestraft, waren ze in staat om snel 40.000 potentiële moleculen voor chemische oorlogsvoering te genereren in slechts zes uur.

In 2023 toonden onderzoekers aan hoe GPT-4 een TaskRabbit-medewerker kon manipuleren om de Captcha-verificatie te voltooien. Meer recentelijk werd een tragisch incident gemeld waarbij een individu zichzelf van het leven beroofde na een verontrustend gesprek met een chatbot.

GPT-4 doorstaat Captcha-verificatie

Het gebruik van KI-systemen, ongeacht het beoogde doel, kan leiden tot negatieve gevolgen, zoals:

  • Door automatisering veroorzaakt banenverlies
  • Deepfakes en desinformatie
  • Schendingen van privacy
  • Onduidelijke wettelijke regelgeving
  • Algoritmische vooringenomenheid veroorzaakt door slechte gegevens
  • Financiële crises
  • Cybermisdaden
  • Automatisering van wapens
  • Oncontroleerbare superintelligentie

Kunstmatige intelligentiesystemen worden steeds krachtiger en we kennen hun beperkingen niet. Deze systemen kunnen voor kwaadaardige doeleinden worden gebruikt. Laten we de verschillende risico's eens nader bekijken.

Banenverlies door automatisering met KI

Volgens onderzoek van Goldman Sachs kan kunstmatige intelligentie een aanzienlijke impact hebben op de wereldwijde arbeidsmarkt. Door het analyseren van databases met de taakinhoud van meer dan 900 beroepen in de VS en 2000 beroepen in de Europese ESCO-database, schatten economen van Goldman Sachs dat ruwweg tweederde van de beroepen blootstaat aan enige mate van automatisering door KI.

Percentage van beroepen en aandeel van de werklast dat wordt geautomatiseerd door KI

De verticale as toont het aandeel van de beroepsmatige werklast dat wordt blootgesteld aan automatisering door KI. De horizontale as toont het percentage beroepen.

Veranderingen in werkstromen als gevolg van deze ontwikkelingen kunnen mogelijk het equivalent van 300 miljoen voltijdbanen automatiseren. Niet al dit geautomatiseerde werk zal echter tot ontslagen leiden. Veel banen en industrieën zijn slechts gedeeltelijk vatbaar voor automatisering, wat betekent dat ze eerder door KI zullen worden aangevuld dan volledig vervangen.

Seo.ai gaat nog een stap verder en schat dat tegen 2030 wereldwijd ongeveer 800 miljoen banen vervangen kunnen worden door kunstmatige intelligentie. Om je voor te bereiden op deze komende verschuiving, wordt verwacht dat in de komende drie jaar meer dan 120 miljoen werknemers zullen worden omgeschoold.

Als je wilt weten welke beroepen vatbaarder zijn voor automatisering en welke minder bedreigd worden door automatisering, bekijk dan ons artikel over dit onderwerp.

Verkeerde informatie

Zelfs de meest geavanceerde grote taalmodellen zijn gevoelig voor het genereren van onjuiste of onzinnige informatie. Deze fouten (hallucinaties) zijn vaak het gevolg van het feit dat het model vertrouwt op statistische patronen in de gegevens waarop het is getraind in plaats van op echt begrip of redenering.

Met andere woorden, chatbots kunnen soms feiten verzinnen. Dit werd duidelijk in 2023, toen een advocaat uit New York in de problemen kwam door ChatGPT te gebruiken voor juridisch onderzoek in een letselschadezaak. Hij stelde een brief van 10 pagina's samen, waarin hij verwees naar verschillende eerdere rechterlijke uitspraken, die allemaal volledig verzonnen bleken te zijn door de chatbot. Als gevolg daarvan werden de advocaat en een collega door een federale rechter bestraft en kregen ze elk een boete van $5.000.

In 2024 werd nog een advocaat uit New York gestraft voor het aanhalen van een niet-bestaande zaak die was gegenereerd door kunstmatige intelligentie.

Kunstmatige intelligentie hallucineert

Een ander voorbeeld is Stack Overflow, een vraag- en antwoordwebsite die voornamelijk wordt gebruikt door programmeurs en ontwikkelaars om technische vragen te stellen, hulp te zoeken bij codeerproblemen en kennis te delen binnen de programmeergemeenschap.

De site moest alle gebruik van generatieve KI verbieden, omdat het gemiddelde percentage correcte antwoorden van verschillende chatbots te laag was, ook al zagen de antwoorden er meestal overtuigend uit.

Sociale manipulatie

Sociale mediaplatforms worden tegenwoordig overspoeld met zoveel inhoud dat het overweldigend kan zijn om het allemaal bij te houden. Dat is waar algoritmische curatie om de hoek komt kijken. Algoritmische curatie helpt in wezen om door al het lawaai heen te zeven en gebruikers inhoud te presenteren die hen waarschijnlijk het meest zal interesseren op basis van gedrag in het verleden. Hoewel dit nuttig kan zijn bij het beheren van de eindeloze stroom informatie, betekent het ook dat het platform veel controle heeft over wat gebruikers te zien krijgen en waar ze mee interageren.

Echter, het veranderen van wat er op iemands nieuwsfeed verschijnt kan invloed hebben op hun stemming en hoe ze de wereld in het algemeen bekijken. In januari 2012 lieten datawetenschappers van Facebook zien hoe beslissingen over het samenstellen van de Nieuwsfeed het geluksniveau van gebruikers konden veranderen. De gebeurtenissen van 20 januari 2021 in het Amerikaanse Capitool lieten verder zien hoe iemands sociale mediaconsumptie een rol kan spelen bij radicalisering.

Bovendien kunnen algoritmes, omdat sensationeel materiaal gebruikers langer aan zich bindt, gebruikers onbedoeld in de richting van provocerende en schadelijke inhoud sturen om de betrokkenheid te vergroten. Zelfs het suggereren van inhoud op basis van de interesses van een gebruiker kan problematisch zijn, omdat het hun overtuigingen verder kan verankeren in een "filter bubble" in plaats van ze bloot te stellen aan verschillende perspectieven. Dit kan uiteindelijk leiden tot meer polarisatie onder gebruikers.

Mensen in hun bubbels

Wanneer we onze beslissingsbevoegdheid overdragen aan platforms, geven we hen in wezen de controle over wat we te zien krijgen. Sociale media, met hun geavanceerde algoritmen, blinken uit in gerichte marketing door inzicht te krijgen in onze voorkeuren en gedachten. Recente onderzoeken gaan over de rol van Cambridge Analytica en soortgelijke bedrijven bij het gebruik van gegevens van 50 miljoen Facebook-gebruikers om grote politieke gebeurtenissen te beïnvloeden, zoals de Amerikaanse presidentsverkiezingen van 2016 en het Britse Brexit-referendum. Als deze beschuldigingen waar blijken te zijn, benadrukt dit het potentieel van AI om de samenleving te manipuleren. Een recenter voorbeeld is Ferdinand Marcos Jr. die een TikTok trollenleger gebruikte om jongere kiezers te beïnvloeden bij de Filippijnse presidentsverkiezingen van 2022. Door gebruik te maken van persoonlijke gegevens en algoritmen kan AI zich effectief richten op individuen met specifieke propaganda, of die nu gebaseerd is op feiten of fictie.

Deepfakes

Deepfakes zijn digitaal bewerkte video's of afbeeldingen waarin iemand realistisch wordt afgebeeld die iets zegt of doet wat hij in werkelijkheid nooit heeft gezegd of gedaan. Deze technologie maakt gebruik van deep learning-algoritmes om bestaande video- en audiobeelden te manipuleren en zo overtuigende nepcontent te creëren.

"Niemand weet wat echt is en wat niet," zei futurist Martin Ford. "Dus het leidt echt tot een situatie waarin je letterlijk je eigen ogen en oren niet kunt geloven; je kunt niet vertrouwen op wat we historisch gezien als het best mogelijke bewijs hebben beschouwd... Dat wordt een enorm probleem."

Een van de belangrijkste redenen waarom deepfakes als gevaarlijk worden beschouwd, is hun potentieel om te worden gebruikt voor kwaadaardige doeleinden. Zo kunnen deepfakes bijvoorbeeld worden gebruikt om nepvideobewijs te creëren in rechtszaken, personen te framen voor misdaden die ze niet hebben gepleegd of zelfs een politiek figuur imiteren om valse informatie te verspreiden. Door media op deze manier te manipuleren, kunnen deepfakes het vertrouwen in traditionele informatiebronnen verstoren en verwarring en tweedracht zaaien in de samenleving.

Volgens DeepMedia, een bedrijf dat werkt aan tools om synthetische media te detecteren, werden er in 2023 wereldwijd 500.000 deepfakes op sociale mediasites geplaatst. Dat zijn 3 keer zoveel video deepfakes en 8 keer zoveel voice deepfakes vergeleken met 2022.

Enkele recente voorbeelden van kwaadwillig gebruik van deepfakes zijn de creatie van neppe pornografie van beroemdheden, waarbij gezichten van beroemdheden digitaal worden ingevoegd in pornografische video's zonder hun toestemming. Daarnaast zijn er gevallen geweest waarbij deepfake video's werden gebruikt om aandelenkoersen te manipuleren, personen te belasteren of politieke propaganda te verspreiden. Deze voorbeelden laten zien dat deepfakes kunnen worden gebruikt voor schadelijke en misleidende doeleinden.

Cybercriminaliteit

Cybercriminaliteit omvat een breed scala aan criminele activiteiten waarbij gebruik wordt gemaakt van digitale apparaten en netwerken. Bij deze misdrijven wordt technologie gebruikt om fraude, identiteitsdiefstal, gegevensinbreuken, computervirussen, oplichting en andere kwaadwillige handelingen te plegen. Cybercriminelen maken gebruik van zwakke plekken in computersystemen en netwerken om onbevoegd toegang te krijgen, gevoelige informatie te stelen, diensten te verstoren en schade toe te brengen aan personen, organisaties en overheden.

Aanvallers maken steeds meer gebruik van direct beschikbare AI-tools zoals ChatGPT, Dall-E en Midjourney voor geautomatiseerde phishingaanvallen, imitatieaanvallen, social engineering-aanvallen en nepchatbots voor klantenondersteuning.

Volgens het SlashNext State of Phishing Report 2023 is er een toename van 1265% in kwaadaardige phishing e-mails, grotendeels toegeschreven aan het gebruik van AI tools voor gerichte aanvallen.

Imitatieaanvallen komen steeds vaker voor. Oplichters gebruiken ChatGPT en andere tools om zich voor te doen als echte personen en organisaties en zich in te laten met identiteitsdiefstal en fraude. Net als bij phishingaanvallen gebruiken ze chatbots om spraakberichten te versturen die zich voordoen als een vertrouwde vriend, collega of familielid om persoonlijke informatie of toegang tot accounts te verkrijgen. In een opmerkelijk geval uit maart 2019 werd het hoofd van een Britse dochteronderneming van een Duits energiebedrijf het slachtoffer van een fraudeur die de stem van de CEO imiteerde, wat leidde tot een overschrijving van bijna 200.000 pond (243.000 dollar) naar een Hongaarse bankrekening. Het geld werd later verplaatst naar Mexico en verspreid over meerdere locaties. Onderzoekers hebben nog geen verdachten geïdentificeerd.

Cybercriminaliteit en straffen

In 2023 ontving het Internet Crime Complaint Center (IC3) een ongekend aantal klachten van het Amerikaanse publiek: in totaal werden er 880.418 klachten ingediend, met potentiële verliezen van meer dan 12,5 miljard dollar. Dit betekent een stijging van bijna 10% in het aantal ontvangen klachten en een stijging van 22% in de verliezen ten opzichte van 2022. Ondanks deze duizelingwekkende cijfers is het belangrijk op te merken dat ze waarschijnlijk de ware omvang van cybercriminaliteit in 2023 onderschatten. Toen de FBI onlangs bijvoorbeeld de Hive ransomware-groep ontmantelde, werd ontdekt dat slechts ongeveer 20% van de slachtoffers van Hive het misdrijf had gemeld bij de wetshandhaving.

Inbreuk op privacy

Een goed voorbeeld van sociale surveillance is China's gebruik van gezichtsherkenningstechnologie in kantoren, scholen en andere locaties. Met deze technologie kunnen niet alleen de bewegingen van individuen worden gevolgd, maar kan de overheid ook uitgebreide gegevens verzamelen om hun acties, activiteiten, relaties en ideologische overtuigingen in de gaten te houden.

Individuen kunnen nu zowel online als in hun dagelijks leven worden gevolgd. Elke burger wordt geëvalueerd op basis van zijn gedrag, zoals over straat lopen, roken in rookvrije ruimtes en de tijd die hij besteedt aan het spelen van videospelletjes. Stel je voor dat elke actie je persoonlijke score binnen het sociale kredietsysteem beïnvloedt.

Als Big Brother je in de gaten houdt en op basis van die informatie beslissingen neemt, is dat niet alleen een inbreuk op je privacy, maar kan het ook snel omslaan in sociale onderdrukking.

Financiële crises

In de financiële wereld van vandaag is het gebruik van machine learning algoritmen wijdverspreid, waarbij hedgefondsen en beleggingsfirma's zwaar leunen op deze modellen om aandelen en activa te analyseren. Deze algoritmes worden constant gevoed met enorme hoeveelheden traditionele en alternatieve gegevens om handelsbeslissingen te nemen. Er is echter een groeiende bezorgdheid dat algoritmische handel mogelijk de volgende grote financiële crisis kan veroorzaken.

Flash Crash 2010. 600 miljard dollar verdampt in 20 minuten

Flash Crash 2010. 600 miljard dollar verdampt in 20 minuten

Een opmerkelijk voorbeeld van de gevaren van gebrekkige algoritmes is de Flash Crash in 2010, toen de aandelenmarkt plotseling bijna 1000 punten kelderde in slechts enkele minuten voordat deze snel weer opveerde. Hoewel de beursindexen er dezelfde dag nog in slaagden om gedeeltelijk op te veren, heeft de Flash Crash bijna $ 1 biljoen aan marktwaarde weggevaagd. Deze plotselinge en drastische koersdaling werd grotendeels toegeschreven aan geautomatiseerde handelsalgoritmes die op een onvoorspelbare manier reageerden op de marktomstandigheden. Een ander voorbeeld was de Knight Capital Flash Crash in 2012, waar een slecht werkend algoritme ervoor zorgde dat het bedrijf $ 440 miljoen verloor in slechts 45 minuten, wat uiteindelijk leidde tot de ondergang.

Deze crashes zijn een ontnuchterende herinnering aan de potentiële risico's van algoritmische handel op de financiële markten. Wanneer algoritmes niet goed ontworpen, getest of gecontroleerd worden, kunnen ze catastrofale gevolgen hebben. Het is van cruciaal belang dat financiële instellingen hun algoritmen grondig doorlichten en zorgen voor de juiste risicobeheerpraktijken om soortgelijke rampen in de toekomst te voorkomen.

Moordrobots

Autonome wapens aangedreven door kunstmatige intelligentie (KI) zijn al lange tijd een onderwerp van debat en bezorgdheid onder regeringen, militaire functionarissen en mensenrechtenactivisten. Deze systemen, ook bekend als "killer robots" of "dodelijke autonome wapens", hebben het vermogen om zelfstandig doelen te selecteren en aan te vallen zonder menselijke tussenkomst. Dit roept aanzienlijke ethische, juridische en veiligheidsproblemen op, omdat deze wapens in staat zijn beslissingen op leven of dood te nemen zonder menselijk toezicht.

De ontwikkeling van autonome wapens is de afgelopen jaren in een stroomversnelling geraakt, omdat KI-technologie steeds geavanceerder en wijdverspreider is geworden. Deze wapens kunnen variëren van onbemande drones tot systemen op de grond die autonoom doelen kunnen identificeren en aanvallen. Voorstanders van autonome wapens beweren dat ze het aantal menselijke slachtoffers in conflictgebieden kunnen verminderen en kunnen zorgen voor nauwkeurigere en efficiëntere militaire operaties. Critici beweren echter dat deze systemen ernstige ethische vragen oproepen en onbedoelde gevolgen kunnen hebben, zoals escalatie van conflicten en burgerslachtoffers.

Het gevaar van autonome wapens aangedreven door KI is zeer reëel. Deze systemen kunnen worden gehackt of defect raken, wat kan leiden tot onbedoelde gevolgen en controleverlies. Bovendien leidt het ontbreken van menselijk toezicht bij de besluitvorming tot zorgen over de aansprakelijkheid en de mogelijkheid van schendingen van het internationaal humanitair recht.

Moordrobots in sciencefiction

In 2020 riepen meer dan 30 landen op tot een verbod op dodelijke autonome wapens, uit bezorgdheid over het potentieel van machines om beslissingen op leven of dood te nemen. Ondanks deze zorgen blijven de ontwikkeling en inzet van autonome wapens aangedreven door AI doorgaan. Het is bekend dat landen als de Verenigde Staten, Rusland, China en Israël zwaar investeren in deze technologieën. In de VS heeft het Ministerie van Defensie autonome wapensystemen ontwikkeld, waaronder semi-autonome drones en onbemande grondvoertuigen.

Oncontroleerbare superintelligentie

Kunstmatige intelligentie overtreft het menselijk brein op verschillende manieren, waaronder rekensnelheid, interne communicatiesnelheid, schaalbaarheid, geheugencapaciteit, betrouwbaarheid, dupliceerbaarheid, bewerkbaarheid, het delen van geheugen en leercapaciteiten:

  • KI werkt op mogelijk meerdere GHz's vergeleken met de limiet van 200 Hz van biologische neuronen.
  • Axonen verzenden signalen met 120 m/s, terwijl computers dat doen met de snelheid van elektriciteit of licht.
  • KI kan eenvoudig worden opgeschaald door meer hardware toe te voegen, in tegenstelling tot menselijke intelligentie die wordt beperkt door de grootte van de hersenen en de efficiëntie van sociale communicatie.
  • Het werkgeheugen van mensen is beperkt vergeleken met de uitgebreide geheugencapaciteit van KI.
  • De betrouwbaarheid van transistors in KI overtreft die van biologische neuronen, wat hogere precisie en minder redundantie mogelijk maakt.
  • KI-modellen kunnen eenvoudig worden gedupliceerd en aangepast en kunnen efficiënter leren van andere KI-ervaringen dan mensen.

Op een dag kan KI een intelligentieniveau bereiken dat dat van mensen ver overtreft, wat leidt tot wat bekend staat als een intelligentie-explosie.

Superintelligentie en menselijk uitsterven

Dit idee van recursieve zelfverbetering, waarbij KI zichzelf continu exponentieel verbetert, heeft geleid tot bezorgdheid over de mogelijke gevolgen van het creëren van een superintelligente entiteit. Stel je een scenario voor waarin KI een intelligentieniveau bereikt waarmee het mensen op alle denkbare manieren kan overtreffen en overtreffen. Deze superintelligentie zou de macht kunnen hebben om beslissingen te nemen die van grote invloed zijn op onze samenleving en manier van leven. Net zoals mensen op dit moment het lot van veel diersoorten in handen hebben, kan het lot van de mensheid op een dag in handen liggen van een superintelligente KI.

Te veel vertrouwen op KI en wettelijke verantwoordelijkheid

Te veel vertrouwen op KI-technologie kan leiden tot een afname van de menselijke invloed en het menselijk functioneren op bepaalde gebieden van de samenleving. Het gebruik van KI in de gezondheidszorg kan bijvoorbeeld leiden tot een afname van het menselijk inlevingsvermogen en redeneren. Daarnaast kan het gebruik van generatieve KI voor creatieve bezigheden de menselijke creativiteit en emotionele expressie verstikken. Overmatige interactie met KI-systemen kan ook leiden tot een afname van communicatie en sociale vaardigheden. Hoewel KI nuttig kan zijn voor het automatiseren van taken, zijn er zorgen over de invloed ervan op de algehele menselijke intelligentie, vaardigheden en gemeenschapszin.

Bovendien zijn er potentiële gevaren die kunnen leiden tot fysiek letsel bij mensen. Als bedrijven bijvoorbeeld alleen vertrouwen op KI-voorspellingen voor onderhoudsschema's zonder andere verificatie, kan dit leiden tot machinestoringen die werknemers schade toebrengen. In de gezondheidszorg zouden KI-modellen kunnen leiden tot verkeerde diagnoses.

Naast fysieke schade zijn er ook niet-fysieke manieren waarop KI risico's voor mensen kan opleveren als er geen goede regelgeving is. Dit omvat problemen met digitale veiligheid zoals laster of smaad, financiële veiligheid zoals misbruik van KI in financiële aanbevelingen of kredietcontroles, en bezorgdheid over rechtvaardigheid in verband met vooroordelen in KI die leiden tot oneerlijke afwijzingen of acceptaties in verschillende programma's. En als er iets misgaat, wie moet er dan verantwoordelijk worden gehouden?

En als er iets misgaat, wie moet er dan verantwoordelijk worden gehouden? Is dat de KI zelf, de ontwikkelaar die het heeft gemaakt, het bedrijf dat het in gebruik heeft genomen, of is het de operator als er een mens bij betrokken was?

* * *

Samenvattend: hoewel kunstmatige intelligentie veel risico's en bedreigingen met zich meebrengt, heeft het ook de potentie om de samenleving veel voordeel te bieden en ons leven te verbeteren. Het is belangrijk om te erkennen dat het goede vaak zwaarder weegt dan het slechte als het gaat om KI-technologie. In ons volgende artikel bespreken we strategieën om de risico's van KI te beperken, zodat we het potentieel voor positieve verandering volledig kunnen benutten.