De la ciència ficció a la realitat: els perills reals de la IA
L'auge de la intel·ligència artificial representa un avenç tecnològic significatiu que està a punt de revolucionar la societat com ho han fet Internet, els ordinadors personals i els telèfons mòbils. El seu impacte és generalitzat, infiltrant-se en diversos aspectes de la vida humana, des del treball i l'educació fins a les activitats de lleure. El ràpid avenç de les xarxes neuronals està causant certa preocupació, la qual cosa ens porta a explorar els perills potencials que la intel·ligència artificial pot suposar per a la humanitat en aquest article.
La IA és perillosa? Qui va expressar la seva preocupació?
A les pel·lícules de ciència-ficció, la idea d'una intel·ligència artificial incontrolable decidida a dominar o destruir la humanitat és un tema popular, com es veu a pel·lícules com "The Matrix" i "The Terminator". Amb el ràpid ritme d'avenç tecnològic actual, pot ser un repte per a la persona mitjana mantenir-se al dia. El ràpid progrés de la IA està fent que les nostres societats s'adaptin ràpidament, provocant pors a causa de la complexitat d'aquestes tecnologies i la por humana innata al desconegut.
No només els individus corrents se senten ansiós per la IA, sinó que els experts en la matèria també expressen les seves preocupacions. Per exemple, Geoffrey Hinton, sovint conegut com "el padrí de la IA", ha expressat les seves pròpies aprehensions:
Aquestes coses podrien ser més intel·ligents que nosaltres i podrien decidir prendre el relleu, i ara ens hem de preocupar de com evitar que això passi.
Durant molt de temps vaig pensar que estàvem entre 30 i 50 anys d'això. Així que ho anomeno lluny d'alguna cosa que té una intel·ligència general més gran que una persona. Ara, crec que podem estar molt més a prop, potser només cinc anys d'això.
Hi ha un seriós perill que aconseguim les coses més intel·ligents que nosaltres aviat i que aquestes coses puguin tenir mals motius i prendre el control.
El 22 de març de 2023, es va publicar una carta oberta demanant que s'aturi el desenvolupament d'una intel·ligència artificial més potent que GPT-4 durant un període de sis mesos:
Els sistemes d'IA actuals s'estan tornant competitius per als humans a les tasques generals, i ens hem de preguntar: Hem de deixar que les màquines inundin els nostres canals d'informació amb propaganda i mentides? Hem d'automatitzar tots els treballs, inclosos els que compleixen? Hauríem de desenvolupar ments no humanes que eventualment puguin superar-nos en nombre, ser més astutas, obsoletes i substituir-nos? Ens hem d'arriscar a perdre el control de la nostra civilització? Aquestes decisions no s'han de delegar a líders tecnològics no elegits. Els sistemes d'IA potents només s'han de desenvolupar quan estiguem segurs que els seus efectes seran positius i que els seus riscos seran manejables. Aquesta confiança ha d'estar ben justificada i augmentar amb la magnitud dels efectes potencials d'un sistema.
La carta va ser signada per 1800 líders d'empreses tecnològiques, 1500 professors, estudiosos i investigadors en el camp de la IA:
- Elon Musk, CEO de SpaceX, Tesla i Twitter
- Steve Wozniak, cofundador d'Apple
- Emad Mostaque, CEO, Stability AI
- Jaan Tallinn, cofundador d'Skype, Centre per a l'estudi del risc existencial, Future of Life Institute
- Evan Sharp, cofundador de Pinterest
- Craig Peters, director general de Getty Images
- Mark Nitzberg, Center for Human-Compatible AI, UC Berkeley, director executiu
- Gary Marcus, Universitat de Nova York, investigador d'IA, professor emèrit
- Zachary Kenton, DeepMind, científic de recerca sènior
- Ramana Kumar, DeepMind, investigador científic
- Michael Osborne, Universitat d'Oxford, professor d'aprenentatge automàtic
- Adam Smith, Universitat de Boston, professor d'informàtica, premi Gödel, premi Kanellakis
En total, es van recollir més de 33.000 signatures.
Altres figures destacades, com ara Sam Altman (CEO, OpenAI), Geoffrey Hinton (Guanyador del premi Turing), Dario Amodei (CEO, Anthropic) i Bill Gates, així com més de 350 executius i investigadors d'IA van signar la següent declaració:
Mitigació del risc d'extinció per I.A. hauria de ser una prioritat global juntament amb altres riscos a escala social, com ara les pandèmies i la guerra nuclear.
Perills de la intel·ligència artificial
L'any 2018, un cotxe d'Uber que es conduïa autònom va atropellar i va matar un vianant.
El 2022, els científics van reconfigurar un sistema d'IA dissenyat originalment per crear molècules curatives no tòxiques per produir agents de guerra química. En canviar la configuració del sistema per recompensar la toxicitat en lloc de penalitzar-la, van poder generar ràpidament 40.000 molècules potencials per a la guerra química en només sis hores.
El 2023, els investigadors van demostrar com GPT-4 podia manipular un treballador de TaskRabbit per completar la verificació de Captcha. Més recentment, es va informar d'un tràgic incident en què una persona es va treure la vida després d'una conversa inquietant amb un chatbot.
L'ús de sistemes d'IA, independentment de la finalitat prevista, pot tenir conseqüències negatives, com ara:
- La pèrdua de llocs de treball provocada per l'automatització
- Deepfakes i desinformació
- Violacions de privadesa
- Regulació legal poc clara
- Biaix algorítmic causat per dades incorrectes
- Crisis financeres
- Ciberdelictes
- Automatització d'armes
- Superintel·ligència incontrolable
Els sistemes d'intel·ligència artificial són cada cop més potents i desconeixem les seves limitacions. Aquests sistemes es podrien utilitzar amb finalitats malicioses. Examinem els diferents riscos més de prop.
Pèrdues de llocs de treball a causa de l'automatització de l'IA
Segons la investigació realitzada per Goldman Sachs, la intel·ligència artificial pot afectar significativament els mercats de treball a tot el món. Mitjançant l'anàlisi de bases de dades que detallen el contingut de les tasques de més de 900 ocupacions als EUA i 2000 ocupacions a la base de dades europea ESCO, els economistes de Goldman Sachs estimen que aproximadament dos terços de les ocupacions estan exposades a un cert grau d'automatització per part de la IA.
L'eix vertical mostra la quota de càrrega de treball ocupacional exposada a l'automatització per IA. L'eix horitzontal mostra Percentatge d'ocupació.
Els canvis en els fluxos de treball causats per aquests avenços podrien automatitzar l'equivalent a 300 milions de llocs de treball a temps complet. Tanmateix, no tot aquest treball automatitzat comportarà acomiadaments. Molts llocs de treball i indústries només són parcialment susceptibles a l'automatització, el que significa que és més probable que es complementin amb IA en lloc de substituir-los completament.
Seo.ai porta aquesta predicció encara més enllà, estimant que uns 800 milions de llocs de treball a tot el món podrien ser substituïts per intel·ligència artificial el 2030. Per preparar-se per a aquest proper torn, s'espera que durant els propers tres anys, més de 120 milions de treballadors es recapacitin. .
Si voleu saber quines professions són més susceptibles a l'automatització i quines estan menys amenaçades per l'automatització, consulteu el nostre article sobre el tema.
Desinformació
Fins i tot els grans models de llenguatge més avançats són susceptibles de generar informació incorrecta o sense sentit. Aquests errors (al·lucinacions) sovint són el resultat de la confiança del model en patrons estadístics de les dades sobre les quals s'ha entrenat en lloc de la veritable comprensió o raonament.
En altres paraules, els chatbots de vegades poden inventar fets. Això es va deixar clar el 2023, quan un advocat de Nova York es va posar a l'aigua calenta per utilitzar ChatGPT per dur a terme investigacions legals per a un cas de lesions personals. Va elaborar un resum de 10 pàgines, fent referència a diverses decisions judicials anteriors, que es va demostrar que eren completament fabricades pel chatbot. Com a resultat, l'advocat i un col·lega van ser sancionats per un jutge federal i multats amb 5.000 dòlars cadascun.
El 2024, un altre advocat de Nova York va ser disciplinat per citar un cas inexistent generat per la intel·ligència artificial.
Un altre exemple és Stack Overflow, un lloc web de preguntes i respostes utilitzat principalment per programadors i desenvolupadors per fer preguntes tècniques, buscar ajuda amb problemes de codificació i compartir coneixements a la comunitat de programació.
El lloc va haver de prohibir tot l'ús d'IA generativa, perquè la taxa mitjana d'obtenir respostes correctes de diversos chatbots era massa baixa tot i que les respostes normalment semblaven convincents.
Manipulació social
Les plataformes de xarxes socials estan inundades de tant contingut en aquests dies que pot ser aclaparador estar al dia amb tot. És aquí on entra en joc la curació algorítmica. Bàsicament ajuda a tamisar tot el soroll i presentar als usuaris contingut que és més probable que els interessi en funció del comportament del passat. Tot i que això pot ser útil per gestionar el flux interminable d'informació, també vol dir que la plataforma té molt de control a l'hora de donar forma al que veuen i interactuen els usuaris.
No obstant això, canviar el que apareix al canal de notícies d'algú pot afectar el seu estat d'ànim i com veuen el món en general. El gener de 2012, els científics de dades de Facebook van demostrar com les decisions sobre la cura del canal de notícies podrien canviar el nivell de felicitat dels usuaris. Els esdeveniments del gener de 2021 als Estats Units al Capitoli dels EUA van destacar encara més com el consum de xarxes socials d'algú pot tenir un paper en la radicalització.
A més, com que el material sensacional tendeix a mantenir els usuaris enganxats durant períodes de temps més llargs, els algorismes poden dirigir els usuaris sense voler cap a contingut provocador i nociu per augmentar la implicació. Fins i tot suggerir contingut basat en els interessos d'un usuari pot ser problemàtic, ja que pot consolidar encara més les seves creences dins d'una "bombolla de filtre" en lloc d'exposar-los a perspectives diverses. Això pot provocar, en última instància, una polarització més gran entre els usuaris.
Quan entreguem el nostre poder de decisió a les plataformes, bàsicament els estem donant control sobre el que veiem. Les xarxes socials, amb els seus algorismes avançats, destaquen en el màrqueting dirigit entenent les nostres preferències i pensaments. Investigacions recents estan investigant el paper de Cambridge Analytica i empreses similars en l'ús de dades de 50 milions d'usuaris de Facebook per influir en esdeveniments polítics importants com les eleccions presidencials dels Estats Units de 2016 i el referèndum del Brexit del Regne Unit. Si es demostren que aquestes acusacions són certes, es posa de manifest el potencial de la IA per manipular la societat. Un exemple més recent és Ferdinand Marcos, Jr. que utilitza un exèrcit de trolls de TikTok per influir en els votants més joves a les eleccions presidencials de Filipines del 2022. Mitjançant l'aprofitament de les dades personals i els algorismes, la IA pot orientar-se de manera eficaç a persones amb propaganda específica, ja sigui basada en fets o ficció.
Deepfakes
Els deepfakes es refereixen a vídeos o imatges alterats digitalment que representen de manera realista una persona dient o fent alguna cosa que mai va dir o fer. Aquesta tecnologia utilitza algorismes d'aprenentatge profund per manipular les imatges de vídeo i àudio existents per crear contingut fals convincent.
"Ningú sap què és real i què no", va dir el futurista Martin Ford. "Així que realment condueix a una situació en què literalment no pots creure els teus propis ulls i orelles; no es pot confiar en allò que, històricament, hem considerat com la millor evidència possible... Serà un gran problema".
Un dels principals motius pels quals els deepfakes es consideren perillosos és el seu potencial per utilitzar-se amb finalitats malicioses. Per exemple, els deepfakes es podrien utilitzar per crear proves de vídeo falses en casos legals, enquadrar persones per delictes que no van cometre o fins i tot suplantar la identitat d'una figura política per difondre informació falsa. En manipular els mitjans d'aquesta manera, els deepfakes tenen el poder de trencar la confiança en les fonts d'informació tradicionals i sembrar confusió i discòrdia a la societat.
Segons DeepMedia, una empresa que treballa en eines per detectar mitjans sintètics, es van publicar 500.000 deepfakes a llocs de xarxes socials a tot el món el 2023. Això és 3 vegades més deepfakes de vídeo i 8 vegades més deepfakes de veu en comparació amb el 2022.
Alguns exemples recents d'ús dolent de deepfakes inclouen la creació de pornografia de celebritats falsa, on les cares de celebritats s'insereixen digitalment en vídeos pornogràfics sense el seu consentiment. A més, hi ha hagut casos de vídeos deepfake utilitzats per manipular els preus de les accions, difamar persones o difondre propaganda política. Aquests exemples posen de manifest la possibilitat que els deepfakes s'utilitzin amb finalitats nocives i enganyoses.
La ciberdelinqüència
La ciberdelinqüència engloba una gran varietat d'activitats delictives que utilitzen dispositius i xarxes digitals. Aquests delictes impliquen l'ús de tecnologia per cometre fraus, robatori d'identitat, violacions de dades, virus informàtics, estafes i altres actes maliciosos. Els ciberdelinqüents exploten les debilitats dels sistemes informàtics i les xarxes per obtenir accés no autoritzat, robar informació sensible, interrompre els serveis i causar danys a persones, organitzacions i governs.
Els adversaris utilitzen cada cop més eines d'IA fàcilment disponibles com ChatGPT, Dall-E i Midjourney per a atacs de pesca automatitzats, atacs de suplantació d'identitat, atacs d'enginyeria social i chatbots d'atenció al client falsos.
Segons l'Informe SlashNext State of Phishing Report 2023, hi ha hagut un augment del 1265% dels correus electrònics maliciosos de pesca, atribuït en gran mesura a l'ús d'eines d'IA per a atacs dirigits.
Els atacs de suplantació d'identitat són cada cop més habituals. Els estafadors utilitzen ChatGPT i altres eines per suplantar la identitat de persones i organitzacions reals, involucrant-se en robatoris d'identitat i fraus. De manera similar als atacs de pesca, utilitzen chatbots per enviar missatges de veu fent-se passar per un amic, col·lega o familiar de confiança per obtenir informació personal o accedir als comptes. En un cas notable del març de 2019, el cap d'una filial britànica d'una companyia energètica alemanya va ser víctima d'un estafador que va emular la veu del CEO, la qual cosa va provocar una transferència de gairebé 200.000 £ (243.000 dòlars) a un compte bancari hongarès. Els fons es van traslladar més tard a Mèxic i es van dispersar a diversos llocs. Els investigadors no han identificat cap sospitós.
L'any 2023, l'Internet Crime Complaint Center (IC3) va rebre un nombre sense precedents de queixes del públic nord-americà: es van presentar un total de 880.418 queixes, amb pèrdues potencials superiors als 12.500 milions de dòlars. Això significa un augment de gairebé un 10% en el nombre de queixes rebudes i un augment del 22% de les pèrdues respecte al 2022. Malgrat aquestes xifres sorprenents, és important assenyalar que probablement subestimen l'extensió real de la ciberdelinqüència el 2023. Per exemple, quan L'FBI va desmantellar recentment el grup de ransomware Hive, es va descobrir que només un 20% de les víctimes de Hive havien denunciat el crim a les forces de l'ordre.
Invasió de privacitat
Un bon exemple de vigilància social és l'ús de la tecnologia de reconeixement facial a la Xina a oficines, escoles i altres llocs. Aquesta tecnologia no només permet fer un seguiment dels moviments de les persones, sinó que també permet que el govern reculli dades extenses per controlar les seves accions, activitats, relacions i creences ideològiques.
Ara les persones es poden controlar tant en línia com en la seva vida diària. Cada ciutadà s'avalua en funció dels seus comportaments, com ara caminar, fumar a les zones de no fumadors i el temps que passa jugant a videojocs. Imagineu que cada acció afecta la vostra puntuació personal dins del sistema de crèdit social.
Quan el Gran Germà t'observa i després pren decisions basades en aquesta informació, no només és una invasió de la privadesa, sinó que es pot convertir ràpidament en opressió social.
Crisis financeres
En el món financer actual, l'ús d'algoritmes d'aprenentatge automàtic està molt estès, amb fons de cobertura i empreses d'inversió que depenen molt d'aquests models per analitzar accions i actius. Aquests algorismes s'alimenten constantment amb grans quantitats de dades tradicionals i alternatives per prendre decisions comercials. Tanmateix, hi ha una preocupació creixent que el comerç algorítmic pugui desencadenar la propera crisi financera important.
2010 Flash Crash. 600.000 milions de dòlars es van evaporar en 20 minuts
Un exemple notable dels perills dels algorismes defectuosos és el Flash Crash del 2010, on la borsa va caure de sobte gairebé 1.000 punts en qüestió de minuts abans de recuperar-se ràpidament. Tot i que els índexs de mercat van aconseguir repuntar parcialment el mateix dia, el Flash Crash va esborrar gairebé 1 bilió de dòlars en valor de mercat. Aquesta caiguda sobtada i dràstica dels preus es va atribuir en gran mesura als algorismes de negociació automatitzats que reaccionaven a les condicions del mercat d'una manera imprevisible. Un altre cas va ser el Knight Capital Flash Crash el 2012, on un algorisme que funcionava malament va fer que l'empresa perdés 440 milions de dòlars en només 45 minuts, i finalment va provocar la seva desaparició.
Aquests accidents serveixen com a recordatoris aclaradors dels possibles riscos que suposa el comerç algorítmic als mercats financers. Quan els algorismes no estan dissenyats, provats o supervisats correctament, poden tenir conseqüències catastròfiques. És crucial que les institucions financeres examinin a fons els seus algorismes i s'assegurin que hi hagi pràctiques adequades de gestió de riscos per evitar que es produeixin desastres similars en el futur.
Robots assassins
Les armes autònomes impulsades per intel·ligència artificial (IA) han estat durant molt de temps un tema de debat i preocupació entre els governs, els funcionaris militars i els defensors dels drets humans. Aquests sistemes, també coneguts com a "robots assassins" o "armes autònomes letals", tenen la capacitat de seleccionar i enganxar objectius de manera independent sense intervenció humana. Això planteja importants preocupacions ètiques, legals i de seguretat, ja que aquestes armes tenen el potencial de prendre decisions de vida o mort sense la supervisió humana.
El desenvolupament d'armes autònomes s'ha accelerat en els últims anys, a mesura que la tecnologia d'IA s'ha avançat i s'ha generalitzat. Aquestes armes poden anar des de drons no tripulats fins a sistemes terrestres que poden identificar i atacar objectius de manera autònoma. Els defensors de les armes autònomes argumenten que poden reduir les baixes humanes a les zones de conflicte i proporcionar operacions militars més precises i eficients. Tanmateix, els crítics argumenten que aquests sistemes plantegen greus qüestions ètiques i poden tenir conseqüències no desitjades, com ara l'escalada de conflictes i víctimes civils.
El perill que representen les armes autònomes alimentades per IA és molt real. Aquests sistemes tenen el potencial de ser piratejats o mal funcionament, la qual cosa comporta conseqüències no desitjades i la pèrdua de control. A més, la manca de supervisió humana en la presa de decisions genera preocupacions sobre la responsabilitat i el potencial de violacions del dret internacional humanitari.
L'any 2020, més de 30 països van demanar la prohibició de les armes autònomes letals, citant preocupacions sobre el potencial de les màquines per prendre decisions de vida o mort. Malgrat aquestes preocupacions, el desenvolupament i el desplegament d'armes autònomes impulsades per IA continuen avançant. Se sap que països com els Estats Units, Rússia, la Xina i Israel estan invertint molt en aquestes tecnologies. Als EUA, el Departament de Defensa ha estat desenvolupant sistemes d'armes autònoms, inclosos drons semiautònoms i vehicles terrestres no tripulats.
Superintel·ligència incontrolable
La intel·ligència artificial supera el cervell humà de diverses maneres, com ara velocitat de càlcul, velocitat de comunicació interna, escalabilitat, capacitat de memòria, fiabilitat, duplicabilitat, editabilitat, compartició de memòria i capacitats d'aprenentatge:
- La IA funciona a potencialment diversos GHz en comparació amb el límit de 200 Hz de les neurones biològiques.
- Els axons transmeten senyals a 120 m/s, mentre que els ordinadors ho fan a la velocitat de l'electricitat o la llum.
- La IA pot escalar fàcilment afegint més maquinari, a diferència de la intel·ligència humana limitada per la mida del cervell i l'eficiència de la comunicació social.
- La memòria de treball en humans és limitada en comparació amb la capacitat de memòria expansiva de l'IA.
- La fiabilitat dels transistors en IA supera la de les neurones biològiques, permetent una major precisió i menys redundància.
- Els models d'IA es poden duplicar, modificar fàcilment i aprendre d'altres experiències d'IA de manera més eficient que els humans.
Un dia la IA pot assolir un nivell d'intel·ligència que superi amb escreix el dels humans, donant lloc al que es coneix com una explosió d'intel·ligència.
Aquesta idea de superació personal recursiva, on la intel·ligència artificial millora contínuament a un ritme exponencial, ha despertat preocupacions sobre les possibles conseqüències de la creació d'una entitat superintel·ligent. Imagineu un escenari on la IA assoleixi un nivell d'intel·ligència que li permeti superar i superar els humans de totes les maneres concebibles. Aquesta superintel·ligència podria tenir el poder de prendre decisions que afectin molt la nostra societat i la nostra forma de vida. De la mateixa manera que actualment els humans tenim a les nostres mans el destí de moltes espècies, el destí de la humanitat podria algun dia descansar en mans d'una IA superintel·ligent.
Dependència excessiva de la IA i de la responsabilitat legal
Confiar massa en la tecnologia d'IA podria provocar una disminució de la influència humana i el funcionament en determinades àrees de la societat. Per exemple, l'ús de la IA a l'assistència sanitària pot provocar una disminució de l'empatia i el raonament humà. A més, l'ús d'IA generativa per a activitats creatives podria sufocar la creativitat humana i l'expressió emocional. Una interacció excessiva amb sistemes d'IA també podria provocar una disminució de la comunicació entre iguals i les habilitats socials. Tot i que la intel·ligència artificial pot ser beneficiosa per automatitzar tasques, hi ha preocupacions sobre el seu impacte en la intel·ligència humana, les habilitats i el sentit de comunitat en general.
A més, hi ha perills potencials que poden provocar danys físics a les persones. Per exemple, si les empreses es basen únicament en les prediccions d'IA per als horaris de manteniment sense cap altra verificació, podria provocar un mal funcionament de la maquinària que perjudiqui els treballadors. A la sanitat, els models d'IA podrien conduir a diagnòstics errònia.
A més del dany físic, hi ha maneres no físiques en què la IA podria suposar riscos per als humans si no es regula adequadament. Això inclou problemes amb la seguretat digital, com ara la difamació o la difamació, la seguretat financera com l'ús indegut de la IA en recomanacions financeres o comprovacions de crèdit, i preocupacions d'equitat relacionades amb els biaixos de la IA que condueixen a rebuigs o acceptacions injustos en diversos programes.
I, quan alguna cosa va malament, qui hauria de ser responsable? És la pròpia intel·ligència artificial, el desenvolupador que la va crear, l'empresa que la va posar en ús o és l'operador si hi havia implicat un humà?
* * *
En conclusió, tot i que la intel·ligència artificial comporta molts riscos i amenaces, també té el potencial de beneficiar molt la societat i millorar les nostres vides. És important reconèixer que el bo sovint supera el dolent quan es tracta de tecnologia d'IA. En el nostre proper article, parlarem d'estratègies per mitigar els riscos associats a la IA, assegurant-nos que podem aprofitar plenament el seu potencial de canvi positiu.