Torna alla pagina principale

Dalla fantascienza alla realtà: I pericoli reali dell'intelligenza artificiale

L'ascesa dell'intelligenza artificiale rappresenta una svolta tecnologica significativa, destinata a rivoluzionare la società come hanno fatto Internet, i personal computer e i telefoni cellulari. Il suo impatto è pervasivo e si infiltra in vari aspetti della vita umana, dal lavoro all'istruzione, fino alle attività del tempo libero. Il rapido avanzamento delle reti neurali sta causando qualche preoccupazione e ci spinge a esplorare i potenziali pericoli che l'intelligenza artificiale può rappresentare per l'umanità in questo articolo.

L'intelligenza artificiale è pericolosa? Chi ha espresso preoccupazioni?

Nei film di fantascienza, l'idea di un'intelligenza artificiale incontrollabile che vuole dominare o distruggere l'umanità è un tema popolare, come si vede in film come "Matrix" e "The Terminator". Con il rapido ritmo del progresso tecnologico di oggi, può essere difficile per la persona media tenere il passo. Il rapido progresso dell'IA sta portando le nostre società ad adattarsi rapidamente, suscitando timori dovuti alla complessità di queste tecnologie e all'innata paura umana dell'ignoto.

Non sono solo le persone comuni a sentirsi in ansia per l'IA, ma anche gli esperti del settore esprimono le loro preoccupazioni. Ad esempio, Geoffrey Hinton, spesso definito il "padrino dell'IA", ha espresso i propri timori:

Queste cose potrebbero diventare più intelligenti di noi e decidere di prendere il sopravvento, e dobbiamo preoccuparci ora di come evitare che ciò accada.

Per molto tempo ho pensato che fossimo a 30-50 anni di distanza da questo evento. Per me è molto lontano da qualcosa che ha un'intelligenza generale superiore a quella di una persona. Ora penso che potremmo essere molto più vicini, forse solo a cinque anni di distanza.

C'è il serio pericolo che presto ci siano cose più intelligenti di noi e che queste cose possano avere cattive motivazioni e prendere il controllo.

Il 22 marzo 2023 è stata pubblicata una lettera aperta che chiedeva di fermare lo sviluppo di intelligenze artificiali più potenti del GPT-4 per un periodo di sei mesi:

I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi con gli esseri umani in compiti generali e dobbiamo chiederci se sia il caso di lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità: Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili. Questa fiducia deve essere ben giustificata e aumentare con l'entità degli effetti potenziali di un sistema.

La lettera è stata firmata da 1800 leader di aziende tecnologiche, 1500 professori, studiosi e ricercatori nel campo dell'IA:

  • Elon Musk, CEO di SpaceX, Tesla e Twitter
  • Steve Wozniak, cofondatore di Apple
  • Emad Mostaque, CEO, Stability AI
  • Jaan Tallinn, cofondatore di Skype, Centro per lo Studio del Rischio Esistenziale, Future of Life Institute
  • Evan Sharp, cofondatore di Pinterest
  • Craig Peters, CEO di Getty Images
  • Mark Nitzberg, Centro per l'IA compatibile con l'uomo, UC Berkeley, Direttore esecutivo
  • Gary Marcus, New York University, ricercatore di IA, professore emerito
  • Zachary Kenton, DeepMind, ricercatore senior
  • Ramana Kumar, DeepMind, scienziato ricercatore
  • Michael Osborne, Università di Oxford, professore di apprendimento automatico
  • Adam Smith, Università di Boston, Professore di Informatica, Premio Gödel, Premio Kanellakis

In totale sono state raccolte più di 33.000 firme.

Altre figure di spicco, come Sam Altman (CEO, OpenAI), Geoffrey Hinton (vincitore del Turing Award), Dario Amodei (CEO, Anthropic) e Bill Gates, oltre a più di 350 dirigenti e ricercatori di IA hanno firmato questa dichiarazione:

Mitigare il rischio di estinzione causato dall'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare.

I pericoli dell'intelligenza artificiale

Nel 2018, un'auto Uber a guida autonoma ha investito e ucciso un pedone.

Nel 2022, gli scienziati hanno riconfigurato un sistema di intelligenza artificiale originariamente progettato per creare molecole curative non tossiche per produrre agenti di guerra chimica. Modificando le impostazioni del sistema per premiare la tossicità invece di penalizzarla, sono stati in grado di generare rapidamente 40.000 potenziali molecole per la guerra chimica in sole sei ore.

Nel 2023, i ricercatori hanno dimostrato come il GPT-4 potesse manipolare un lavoratore di TaskRabbit affinché completasse la verifica Captcha. Più di recente, è stato riportato un tragico incidente in cui una persona si è tolta la vita dopo una conversazione inquietante con un chatbot.

GPT-4 supera la verifica Captcha

L'utilizzo di sistemi di intelligenza artificiale, indipendentemente dallo scopo che si prefiggono, può portare a conseguenze negative, quali:

  • Perdita di posti di lavoro causata dall'automazione
  • Deepfakes e disinformazione
  • Violazioni della privacy
  • Regolamenti legali poco chiari
  • Pregiudizi algoritmici causati da dati errati
  • Crisi finanziarie
  • Crimini informatici
  • Automatizzazione delle armi
  • Superintelligenza incontrollabile

I sistemi di intelligenza artificiale stanno diventando sempre più potenti e non ne conosciamo i limiti. Questi sistemi potrebbero essere utilizzati per scopi malevoli. Esaminiamo più da vicino i vari rischi.

Perdite di posti di lavoro dovute all'automazione dell'intelligenza artificiale

Secondo una ricerca condotta da Goldman Sachs, l'intelligenza artificiale potrebbe avere un impatto significativo sui mercati del lavoro di tutto il mondo. Analizzando i database che descrivono in dettaglio il contenuto delle mansioni di oltre 900 occupazioni negli Stati Uniti e di 2000 occupazioni nel database europeo ESCO, gli economisti di Goldman Sachs stimano che circa due terzi delle occupazioni sono esposte a un certo grado di automazione da parte dell'IA.

Percentuale di occupazioni e quota di carico di lavoro esposte all'automazione da parte dell'IA

L'asse verticale mostra la percentuale di carico di lavoro esposto all'automazione dell'IA. L'asse orizzontale mostra la percentuale di occupazioni.

I cambiamenti nei flussi di lavoro causati da questi progressi potrebbero potenzialmente automatizzare l'equivalente di 300 milioni di posti di lavoro a tempo pieno. Tuttavia, non tutto questo lavoro automatizzato porterà a licenziamenti. Molti lavori e settori sono solo parzialmente suscettibili all'automazione, il che significa che è più probabile che vengano integrati dall'IA piuttosto che sostituiti completamente.

Seo.ai si spinge oltre in questa previsione, stimando che circa 800 milioni di posti di lavoro a livello globale potrebbero essere sostituiti dall'intelligenza artificiale entro il 2030. Per prepararsi a questo cambiamento, si prevede che nei prossimi tre anni più di 120 milioni di lavoratori si sottoporranno a una riqualificazione.

Se volete sapere quali professioni sono più suscettibili all'automazione e quali sono meno minacciate dall'automazione, consultate il nostro articolo sull'argomento.

Informazioni errate

Anche i modelli linguistici di grandi dimensioni più avanzati sono suscettibili di generare informazioni errate o prive di senso. Questi errori (allucinazioni) sono spesso il risultato del fatto che il modello si basa su modelli statistici nei dati su cui è stato addestrato piuttosto che su una vera comprensione o ragionamento.

In altre parole, i chatbot possono talvolta inventare i fatti. Questo è emerso chiaramente nel 2023, quando un avvocato di New York è finito nei guai per aver utilizzato ChatGPT per condurre ricerche legali per un caso di lesioni personali. L'avvocato ha redatto una memoria di 10 pagine, facendo riferimento a diverse decisioni giudiziarie precedenti, che si sono rivelate completamente inventate dal chatbot. Di conseguenza, l'avvocato e un suo collega sono stati sanzionati da un giudice federale e multati di 5.000 dollari ciascuno.

Nel 2024, un altro avvocato di New York è stato sanzionato per aver citato un caso inesistente generato dall'intelligenza artificiale.

Intelligenza artificiale allucinante

Un altro esempio è Stack Overflow, un sito di domande e risposte utilizzato principalmente da programmatori e sviluppatori per porre domande tecniche, cercare aiuto con problemi di codifica e condividere le conoscenze all'interno della comunità di programmazione.

Il sito ha dovuto vietare l'uso dell'intelligenza artificiale generativa, perché la percentuale media di risposte corrette fornite dai vari chatbot era troppo bassa, anche se le risposte sembravano in genere convincenti.

Manipolazione sociale

Oggigiorno le piattaforme dei social media sono invase da una tale quantità di contenuti che può essere opprimente starvi dietro. È qui che entra in gioco la curatela algoritmica. In sostanza, aiuta a setacciare tutto il rumore e a presentare agli utenti i contenuti che più probabilmente li interessano in base al loro comportamento passato. Se da un lato questo può essere utile per gestire il flusso infinito di informazioni, dall'altro significa che la piattaforma ha molto controllo nel modellare ciò che gli utenti vedono e con cui interagiscono.

Tuttavia, cambiare ciò che appare nel feed di notizie di una persona può avere un impatto sul suo umore e sul modo in cui vede il mondo in generale. Nel gennaio 2012, gli scienziati dei dati di Facebook hanno dimostrato come le decisioni sulla cura del News Feed possano modificare il livello di felicità degli utenti. Gli eventi del gennaio 2021 al Campidoglio degli Stati Uniti hanno ulteriormente evidenziato come il consumo di social media possa giocare un ruolo nella radicalizzazione.

Inoltre, poiché il materiale sensazionale tende a tenere gli utenti incollati per periodi di tempo più lunghi, gli algoritmi potrebbero inavvertitamente indirizzare gli utenti verso contenuti provocatori e dannosi, al fine di aumentare il coinvolgimento. Anche suggerire contenuti basati sugli interessi di un utente può essere problematico, in quanto può radicare ulteriormente le sue convinzioni all'interno di una "bolla di filtraggio" piuttosto che esporlo a prospettive diverse. In ultima analisi, questo può portare a una maggiore polarizzazione tra gli utenti.

Persone nelle loro bolle

Quando cediamo il nostro potere decisionale alle piattaforme, in sostanza diamo loro il controllo su ciò che vediamo. I social media, con i loro algoritmi avanzati, eccellono nel marketing mirato grazie alla comprensione delle nostre preferenze e dei nostri pensieri. Recenti indagini stanno esaminando il ruolo di Cambridge Analytica e di aziende simili nell'utilizzo dei dati di 50 milioni di utenti di Facebook per influenzare importanti eventi politici come le elezioni presidenziali statunitensi del 2016 e il referendum sulla Brexit nel Regno Unito. Se queste accuse si dimostreranno fondate, si evidenzierà il potenziale dell'IA nel manipolare la società. Un esempio più recente è quello di Ferdinand Marcos Jr. che ha utilizzato un esercito di troll su TikTok per influenzare gli elettori più giovani nelle elezioni presidenziali filippine del 2022. Sfruttando i dati personali e gli algoritmi, l'IA può efficacemente indirizzare agli individui una propaganda specifica, sia essa basata sui fatti o sulla finzione.

Deepfakes

I deepfakes si riferiscono a video o immagini alterati digitalmente che ritraggono realisticamente un individuo che dice o fa qualcosa che in realtà non ha mai detto o fatto. Questa tecnologia utilizza algoritmi di deep learning per manipolare filmati e audio esistenti e creare contenuti falsi convincenti.

"Nessuno sa cosa sia reale e cosa no", ha detto il futurista Martin Ford. "Quindi si arriva a una situazione in cui non si può letteralmente credere ai propri occhi e alle proprie orecchie; non si può fare affidamento su quelle che, storicamente, abbiamo considerato le migliori prove possibili...". Questo sarà un problema enorme".

Uno dei motivi principali per cui i deepfake sono considerati pericolosi è il loro potenziale utilizzo per scopi malevoli. Ad esempio, i deepfake potrebbero essere utilizzati per creare prove video false in casi legali, incastrare persone per reati che non hanno commesso o addirittura impersonare una figura politica per diffondere informazioni false. Manipolando i media in questo modo, i deepfakes hanno il potere di distruggere la fiducia nelle fonti di informazione tradizionali e di seminare confusione e discordia nella società.

Secondo DeepMedia, un'azienda che lavora su strumenti per rilevare i media sintetici, nel 2023 sono stati pubblicati 500.000 deepfakes sui siti di social media a livello globale. Si tratta di un numero di deepfakes video 3 volte superiore e di deepfakes vocali 8 volte superiore rispetto al 2022.

Alcuni esempi recenti di uso illecito dei deepfake includono la creazione di finta pornografia di celebrità, in cui i volti delle celebrità vengono inseriti digitalmente in video pornografici senza il loro consenso. Inoltre, ci sono stati casi di video deepfake utilizzati per manipolare i prezzi delle azioni, diffamare individui o diffondere propaganda politica. Questi esempi evidenziano la possibilità che i deepfake vengano utilizzati per scopi dannosi e ingannevoli.

Crimine informatico

La criminalità informatica comprende un'ampia gamma di attività criminali che utilizzano dispositivi e reti digitali. Questi crimini implicano l'uso della tecnologia per commettere frodi, furti di identità, violazioni di dati, virus informatici, truffe e altri atti dolosi. I criminali informatici sfruttano le debolezze dei sistemi e delle reti informatiche per ottenere un accesso non autorizzato, rubare informazioni sensibili, interrompere i servizi e causare danni a individui, organizzazioni e governi.

Gli avversari utilizzano sempre più spesso strumenti di intelligenza artificiale facilmente reperibili come ChatGPT, Dall-E e Midjourney per attacchi di phishing automatizzati, attacchi di impersonificazione, attacchi di ingegneria sociale e chatbot di assistenza clienti fasulli.

Secondo lo SlashNext State of Phishing Report 2023, c'è stata un'impennata del 1265% delle e-mail di phishing dannose, in gran parte attribuita all'uso di strumenti di intelligenza artificiale per attacchi mirati.

Gli attacchi di impersonificazione stanno diventando sempre più comuni. I truffatori utilizzano ChatGPT e altri strumenti per spacciarsi per persone e organizzazioni reali, commettendo furti di identità e frodi. Analogamente agli attacchi di phishing, utilizzano i chatbot per inviare messaggi vocali fingendosi un amico fidato, un collega o un familiare per ottenere informazioni personali o l'accesso ai conti. In un caso degno di nota del marzo 2019, il responsabile di una filiale britannica di un'azienda energetica tedesca è stato vittima di un truffatore che ha emulato la voce dell'amministratore delegato, causando il trasferimento di quasi 200.000 sterline (243.000 dollari) su un conto bancario ungherese. I fondi sono stati poi spostati in Messico e dispersi in diverse località. Gli investigatori non hanno identificato alcun sospetto.

Crimini informatici e punizioni

Nel 2023, l'Internet Crime Complaint Center (IC3) ha ricevuto un numero di denunce senza precedenti da parte del pubblico americano: sono state presentate 880.418 denunce, con perdite potenziali superiori a 12,5 miliardi di dollari. Ciò significa un aumento di quasi il 10% del numero di denunce ricevute e un aumento del 22% delle perdite rispetto al 2022. Nonostante queste cifre sbalorditive, è importante notare che probabilmente sottostimano la reale portata della criminalità informatica nel 2023. Ad esempio, quando l'FBI ha recentemente smantellato il gruppo di ransomware Hive, si è scoperto che solo il 20% circa delle vittime di Hive aveva denunciato il reato alle forze dell'ordine.

Invasione della privacy

Un esempio lampante di sorveglianza sociale è l'uso da parte della Cina della tecnologia di riconoscimento facciale negli uffici, nelle scuole e in altri luoghi. Questa tecnologia non solo consente di tracciare i movimenti degli individui, ma permette anche al governo di raccogliere dati approfonditi per monitorare le loro azioni, attività, relazioni e convinzioni ideologiche.

Gli individui possono ora essere monitorati sia online che nella loro vita quotidiana. Ogni cittadino viene valutato in base ai suoi comportamenti, come attraversare sulle strisce pedonali, fumare in aree non fumatori e passare il tempo a giocare ai videogiochi. Immaginate che ogni azione influisca sul vostro punteggio personale all'interno del sistema di credito sociale.

Quando il Grande Fratello vi osserva e prende decisioni sulla base di queste informazioni, non si tratta solo di un'invasione della privacy, ma può trasformarsi rapidamente in oppressione sociale.

Crisi finanziarie

Nel mondo finanziario di oggi, l'uso di algoritmi di apprendimento automatico è molto diffuso, con hedge fund e società di investimento che fanno grande affidamento su questi modelli per analizzare azioni e attività. Questi algoritmi sono costantemente alimentati con enormi quantità di dati tradizionali e alternativi per prendere decisioni di trading. Tuttavia, cresce la preoccupazione che il trading algoritmico possa potenzialmente innescare la prossima grande crisi finanziaria.

Flash Crash del 2010. 600 miliardi di dollari evaporati in 20 minuti

Flash Crash del 2010. 600 miliardi di dollari evaporati in 20 minuti

Un esempio notevole dei pericoli degli algoritmi difettosi è il Flash Crash del 2010, in cui il mercato azionario è crollato improvvisamente di quasi 1.000 punti in pochi minuti prima di rimbalzare rapidamente. Sebbene gli indici di mercato siano riusciti a rimbalzare parzialmente nello stesso giorno, il Flash Crash ha cancellato quasi 1.000 miliardi di dollari di valore di mercato. Questo improvviso e drastico calo dei prezzi è stato in gran parte attribuito agli algoritmi di trading automatico che hanno reagito alle condizioni di mercato in modo imprevedibile. Un altro esempio è stato il Flash Crash di Knight Capital nel 2012, dove un algoritmo malfunzionante ha fatto perdere alla società 440 milioni di dollari in soli 45 minuti, portandola alla fine alla sua scomparsa.

Questi incidenti servono a ricordare i rischi potenziali posti dal trading algoritmico nei mercati finanziari. Quando gli algoritmi non sono adeguatamente progettati, testati o monitorati, possono avere conseguenze catastrofiche. È fondamentale che le istituzioni finanziarie esaminino a fondo i propri algoritmi e garantiscano l'adozione di pratiche di gestione del rischio adeguate per evitare che disastri simili si verifichino in futuro.

Robot assassini

Le armi autonome alimentate dall'intelligenza artificiale (AI) sono da tempo oggetto di dibattito e di preoccupazione da parte di governi, funzionari militari e sostenitori dei diritti umani. Questi sistemi, noti anche come "robot killer" o "armi autonome letali", hanno la capacità di selezionare e colpire in modo indipendente gli obiettivi senza l'intervento umano. Ciò solleva notevoli problemi etici, legali e di sicurezza, in quanto queste armi sono potenzialmente in grado di prendere decisioni di vita o di morte senza la supervisione dell'uomo.

Lo sviluppo di armi autonome ha subito un'accelerazione negli ultimi anni, in quanto la tecnologia AI è diventata più avanzata e diffusa. Queste armi possono spaziare dai droni senza pilota ai sistemi terrestri in grado di identificare e attaccare autonomamente gli obiettivi. I fautori delle armi autonome sostengono che possono ridurre le vittime umane nelle zone di conflitto e fornire operazioni militari più precise ed efficienti. Tuttavia, i critici sostengono che questi sistemi sollevano gravi questioni etiche e possono avere conseguenze indesiderate, come l'escalation dei conflitti e le vittime civili.

Il pericolo rappresentato dalle armi autonome alimentate dall'intelligenza artificiale è molto reale. Questi sistemi possono essere violati o funzionare male, causando conseguenze indesiderate e perdita di controllo. Inoltre, la mancanza di una supervisione umana nel processo decisionale solleva preoccupazioni circa la responsabilità e la potenziale violazione del diritto umanitario internazionale.

I robot assassini nella fantascienza

Nel 2020, oltre 30 Paesi hanno chiesto di vietare le armi autonome letali, citando le preoccupazioni per il potenziale delle macchine di prendere decisioni di vita o di morte. Nonostante queste preoccupazioni, lo sviluppo e la diffusione di armi autonome alimentate dall'intelligenza artificiale continuano a progredire. Paesi come gli Stati Uniti, la Russia, la Cina e Israele sono noti per gli ingenti investimenti in queste tecnologie. Negli Stati Uniti, il Dipartimento della Difesa ha sviluppato sistemi di armi autonome, tra cui droni semi-autonomi e veicoli terrestri senza pilota.

Superintelligenza incontrollabile

L'intelligenza artificiale supera il cervello umano in vari modi, tra cui la velocità di calcolo, la velocità di comunicazione interna, la scalabilità, la capacità di memoria, l'affidabilità, la duplicabilità, la modificabilità, la condivisione della memoria e le capacità di apprendimento:

  • L'intelligenza artificiale opera a una frequenza potenzialmente multipla di GHz rispetto al limite di 200 Hz dei neuroni biologici.
  • Gli assoni trasmettono segnali a 120 m/s, mentre i computer lo fanno alla velocità dell'elettricità o della luce.
  • L'IA può facilmente scalare aggiungendo altro hardware, a differenza dell'intelligenza umana limitata dalle dimensioni del cervello e dall'efficienza della comunicazione sociale.
  • La memoria di lavoro degli esseri umani è limitata rispetto alla capacità di memoria espansiva dell'IA.
  • L'affidabilità dei transistor nell'IA supera quella dei neuroni biologici, consentendo una maggiore precisione e una minore ridondanza.
  • I modelli di IA possono essere facilmente duplicati, modificati e possono imparare da altre esperienze di IA in modo più efficiente rispetto agli esseri umani.

Un giorno l'IA potrebbe raggiungere un livello di intelligenza di gran lunga superiore a quello degli esseri umani, portando a quella che viene definita un'esplosione dell'intelligenza.

Superintelligenza ed estinzione umana

Questa idea di auto-miglioramento ricorsivo, in cui l'IA migliora continuamente se stessa a un ritmo esponenziale, ha suscitato preoccupazioni sulle potenziali conseguenze della creazione di un'entità superintelligente. Immaginiamo uno scenario in cui l'IA raggiunga un livello di intelligenza tale da superare l'uomo in ogni aspetto immaginabile. Questa superintelligenza potrebbe potenzialmente avere il potere di prendere decisioni che hanno un forte impatto sulla nostra società e sul nostro stile di vita. Così come l'uomo ha in mano il destino di molte specie, il destino dell'umanità potrebbe un giorno essere nelle mani di un'IA superintelligente.

Eccessivo affidamento sull'IA e responsabilità legale

Affidarsi troppo alla tecnologia dell'IA potrebbe comportare una diminuzione dell'influenza e del funzionamento umano in alcuni settori della società. Ad esempio, l'utilizzo dell'IA nel settore sanitario potrebbe portare a una diminuzione dell'empatia e del ragionamento umano. Inoltre, l'utilizzo dell'IA generativa per le attività creative potrebbe soffocare la creatività umana e l'espressione emotiva. Un'eccessiva interazione con i sistemi di IA potrebbe anche portare a un declino della comunicazione tra pari e delle abilità sociali. Se da un lato l'IA può essere utile per automatizzare i compiti, dall'altro ci sono preoccupazioni per il suo impatto sull'intelligenza umana complessiva, sulle capacità e sul senso di comunità.

Inoltre, esistono potenziali pericoli che potrebbero causare danni fisici agli esseri umani. Ad esempio, se le aziende si affidano esclusivamente alle previsioni dell'IA per i programmi di manutenzione senza altre verifiche, potrebbero verificarsi malfunzionamenti dei macchinari che potrebbero danneggiare i lavoratori. Nel settore sanitario, i modelli di IA potrebbero portare a diagnosi errate.

Oltre ai danni fisici, vi sono modi non fisici in cui l'IA potrebbe comportare rischi per gli esseri umani se non adeguatamente regolamentata. Si tratta di problemi di sicurezza digitale, come la diffamazione o la calunnia, di sicurezza finanziaria, come l'uso improprio dell'IA nelle raccomandazioni finanziarie o nei controlli del credito, e di problemi di equità legati a pregiudizi nell'IA che portano a rifiuti o accettazioni ingiuste in vari programmi.

E quando qualcosa va storto, chi deve essere ritenuto responsabile? È l'IA stessa, lo sviluppatore che l'ha creata, l'azienda che l'ha messa in uso o l'operatore se è coinvolto un essere umano?

* * *

In conclusione, se da un lato l'intelligenza artificiale comporta molti rischi e minacce, dall'altro ha il potenziale per apportare grandi benefici alla società e migliorare le nostre vite. È importante riconoscere che gli aspetti positivi spesso superano quelli negativi quando si parla di tecnologia IA. Nel prossimo articolo discuteremo le strategie per mitigare i rischi associati all'IA, assicurandoci di poterne sfruttare appieno il potenziale di cambiamento positivo.