De la science-fiction à la réalité : Les vrais dangers de l'IA
L'essor de l'intelligence artificielle représente une avancée technologique significative qui est sur le point de révolutionner la société, comme l'ont fait l'internet, les ordinateurs personnels et les téléphones portables. Son impact est omniprésent, infiltrant divers aspects de la vie humaine, du travail aux loisirs en passant par l'éducation. Les progrès rapides des réseaux neuronaux suscitent des inquiétudes, ce qui nous incite à explorer dans cet article les dangers potentiels que l'intelligence artificielle peut représenter pour l'humanité.
L'IA est-elle dangereuse ? Qui a exprimé des inquiétudes ?
Dans les films de science-fiction, l'idée d'une intelligence artificielle incontrôlable destinée à dominer ou à détruire l'humanité est un thème populaire, comme on peut le voir dans des films tels que "La Matrice" et "Terminator". Aujourd'hui, les progrès technologiques se succèdent à un rythme effréné et il peut être difficile pour le commun des mortels de suivre le mouvement. Les progrès rapides de l'IA obligent nos sociétés à s'adapter rapidement, ce qui suscite des craintes en raison de la complexité de ces technologies et de la peur innée de l'inconnu chez l'homme.
Non seulement les individus ordinaires se sentent anxieux face à l'IA, mais les experts en la matière expriment également leurs inquiétudes. Ainsi, Geoffrey Hinton, souvent considéré comme le "parrain de l'IA", a fait part de ses propres appréhensions :
Ces choses pourraient devenir plus intelligentes que nous et décider de prendre le contrôle, et nous devons nous préoccuper dès maintenant de la manière dont nous pouvons empêcher que cela se produise.
J'ai longtemps pensé que nous étions à 30 ou 50 ans de cela. J'estime donc que nous sommes loin d'une chose dont l'intelligence générale est supérieure à celle d'un être humain. Aujourd'hui, je pense que nous en sommes beaucoup plus proches, peut-être seulement dans cinq ans.
Il y a un sérieux danger que nous ayons bientôt des choses plus intelligentes que nous et que ces choses puissent avoir de mauvaises motivations et prendre le contrôle.
Le 22 mars 2023, une lettre ouverte a été publiée pour demander l'arrêt du développement d'une intelligence artificielle plus puissante que GPT-4 pendant une période de six mois :
Les systèmes d'IA contemporains deviennent maintenant compétitifs sur le plan humain pour les tâches générales, et nous devons nous interroger : Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d'IA puissants ne doivent être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système.
La lettre a été signée par 1800 dirigeants d'entreprises technologiques, 1500 professeurs, universitaires et chercheurs dans le domaine de l'IA :
- Elon Musk, PDG de SpaceX, Tesla et Twitter
- Steve Wozniak, cofondateur d'Apple
- Emad Mostaque, PDG de Stability AI
- Jaan Tallinn, cofondateur de Skype, Centre d'étude du risque existentiel, Future of Life Institute
- Evan Sharp, cofondateur de Pinterest
- Craig Peters, PDG, Getty Images
- Mark Nitzberg, Centre pour l'IA compatible avec l'homme, UC Berkeley, directeur exécutif
- Gary Marcus, Université de New York, chercheur en IA, professeur émérite
- Zachary Kenton, DeepMind, chercheur principal
- Ramana Kumar, DeepMind, chercheur scientifique
- Michael Osborne, Université d'Oxford, professeur d'apprentissage automatique
- Adam Smith, Université de Boston, professeur d'informatique, prix Gödel, prix Kanellakis.
Au total, plus de 33 000 signatures ont été recueillies.
D'autres personnalités, telles que Sam Altman (PDG, OpenAI), Geoffrey Hinton (lauréat du prix Turing), Dario Amodei (PDG, Anthropic) et Bill Gates, ainsi que plus de 350 dirigeants et chercheurs en IA ont signé la déclaration suivante :
L'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires.
Les dangers de l'intelligence artificielle
En 2018, une voiture Uber autopilotée a heurté et tué un piéton.
En 2022, des scientifiques ont reconfiguré un système d'IA initialement conçu pour créer des molécules non toxiques et curatives afin de produire des agents de guerre chimique. En modifiant les paramètres du système pour récompenser la toxicité au lieu de la pénaliser, ils ont pu générer rapidement 40 000 molécules potentielles pour la guerre chimique en seulement six heures.
En 2023, des chercheurs ont démontré comment GPT-4 pouvait manipuler un travailleur de TaskRabbit pour qu'il effectue une vérification Captcha. Plus récemment, un incident tragique a été rapporté dans lequel une personne s'est suicidée après une conversation troublante avec un chatbot.

L'utilisation de systèmes d'IA, quelle que soit leur finalité, peut avoir des conséquences négatives, telles que
- La perte d'emploi due à l'automatisation
- Les "deepfakes" et la désinformation
- Violations de la vie privée
- Réglementation juridique floue
- Biais algorithmique causé par de mauvaises données
- Crises financières
- La cybercriminalité
- Automatisation des armes
- Une superintelligence incontrôlable
Les systèmes d'intelligence artificielle deviennent de plus en plus puissants et nous ne connaissons pas leurs limites. Ces systèmes peuvent être utilisés à des fins malveillantes. Examinons de plus près les différents risques.
Pertes d'emplois dues à l'automatisation par l'IA
Selon une étude menée par Goldman Sachs, l'intelligence artificielle pourrait avoir un impact significatif sur les marchés de l'emploi dans le monde entier. En analysant des bases de données qui détaillent le contenu des tâches de plus de 900 professions aux États-Unis et de 2000 professions dans la base de données européenne ESCO, les économistes de Goldman Sachs estiment qu'environ deux tiers des professions sont exposées à un certain degré d'automatisation par l'IA.

L'axe vertical indique la part de la charge de travail professionnelle exposée à l'automatisation par l'IA. L'axe horizontal indique le pourcentage de professions.
Les changements dans les flux de travail provoqués par ces avancées pourraient potentiellement automatiser l'équivalent de 300 millions d'emplois à temps plein. Toutefois, ce travail automatisé n'entraînera pas tous les licenciements. De nombreux emplois et secteurs ne sont que partiellement susceptibles d'être automatisés, ce qui signifie qu'ils sont plus susceptibles d'être complétés par l'IA que d'être entièrement remplacés.
Seo.ai pousse cette prédiction encore plus loin, estimant qu'environ 800 millions d'emplois dans le monde pourraient être remplacés par l'intelligence artificielle d'ici à 2030. Pour se préparer à cette évolution, plus de 120 millions de travailleurs devraient se recycler au cours des trois prochaines années.
Si vous souhaitez savoir quelles sont les professions les plus susceptibles d'être automatisées et celles qui sont moins menacées par l'automatisation, consultez notre article sur le sujet.
Informations erronées
Même les grands modèles de langage les plus avancés sont susceptibles de générer des informations incorrectes ou absurdes. Ces erreurs (hallucinations) résultent souvent du fait que le modèle s'appuie sur des modèles statistiques dans les données sur lesquelles il a été formé plutôt que sur une véritable compréhension ou un raisonnement.
En d'autres termes, les chatbots peuvent parfois inventer des faits. C'est ce qui est apparu clairement en 2023, lorsqu'un avocat new-yorkais s'est retrouvé dans l'eau chaude pour avoir utilisé le ChatGPT afin d'effectuer des recherches juridiques dans le cadre d'une affaire de préjudice corporel. Il a rédigé un mémoire de 10 pages, faisant référence à plusieurs décisions de justice antérieures, qui se sont toutes révélées être entièrement fabriquées par le chatbot. En conséquence, l'avocat et un collègue ont été sanctionnés par un juge fédéral et condamnés à une amende de 5 000 dollars chacun.
En 2024, un autre avocat new-yorkais a été sanctionné pour avoir cité une affaire inexistante générée par une intelligence artificielle.

Un autre exemple est celui de Stack Overflow, un site web de questions-réponses utilisé principalement par les programmeurs et les développeurs pour poser des questions techniques, demander de l'aide pour des problèmes de codage et partager des connaissances au sein de la communauté des programmeurs.
Le site a dû interdire toute utilisation de l'IA générative, car le taux moyen d'obtention de réponses correctes de la part des différents chatbots était trop faible, même si les réponses semblaient généralement convaincantes.
Manipulation sociale
Les plateformes de médias sociaux sont aujourd'hui inondées d'une telle quantité de contenu qu'il peut être difficile de s'y retrouver. C'est là qu'intervient la curation algorithmique. Elle permet essentiellement de passer au crible tout ce bruit et de présenter aux utilisateurs le contenu qui est le plus susceptible de les intéresser sur la base de leur comportement antérieur. Si cela peut s'avérer utile pour gérer le flux incessant d'informations, cela signifie également que la plateforme dispose d'une grande marge de manœuvre pour façonner ce que les utilisateurs voient et avec quoi ils interagissent.
Or, modifier ce qui apparaît dans le fil d'actualité d'une personne peut avoir un impact sur son humeur et sa façon de voir le monde en général. En janvier 2012, les scientifiques de Facebook ont montré comment les décisions concernant le fil d'actualité pouvaient modifier le niveau de bonheur des utilisateurs. Les événements de janvier 2021 au Capitole des États-Unis ont encore mis en évidence le rôle que peut jouer la consommation de médias sociaux dans la radicalisation.
En outre, comme les contenus sensationnels ont tendance à retenir l'attention des utilisateurs plus longtemps, les algorithmes peuvent, par inadvertance, orienter les utilisateurs vers des contenus provocateurs et nuisibles afin d'accroître l'engagement. Le fait même de suggérer des contenus en fonction des centres d'intérêt d'un utilisateur peut être problématique, car cela risque d'ancrer davantage ses croyances dans une "bulle de filtre" plutôt que de l'exposer à des perspectives diverses. En fin de compte, cela peut entraîner une polarisation accrue parmi les utilisateurs.

Lorsque nous confions notre pouvoir de décision à des plateformes, nous leur donnons essentiellement le contrôle de ce que nous voyons. Les médias sociaux, avec leurs algorithmes avancés, excellent dans le marketing ciblé en comprenant nos préférences et nos pensées. Des enquêtes récentes portent sur le rôle de Cambridge Analytica et d'entreprises similaires dans l'utilisation des données de 50 millions d'utilisateurs de Facebook pour influencer des événements politiques majeurs comme l'élection présidentielle américaine de 2016 et le référendum sur le Brexit au Royaume-Uni. Si ces allégations sont avérées, elles mettent en évidence le potentiel de l'IA à manipuler la société. Un exemple plus récent est celui de Ferdinand Marcos Jr. qui a utilisé une armée de trolls sur TikTok pour influencer les jeunes électeurs lors de l'élection présidentielle philippine de 2022. En exploitant les données personnelles et les algorithmes, l'IA peut cibler efficacement les individus avec une propagande spécifique, qu'elle soit basée sur des faits ou sur la fiction.
Deepfakes
Les deepfakes désignent des vidéos ou des images modifiées numériquement qui représentent de manière réaliste une personne en train de dire ou de faire quelque chose qu'elle n'a jamais dit ou fait en réalité. Cette technologie utilise des algorithmes d'apprentissage profond pour manipuler des séquences vidéo et audio existantes afin de créer un faux contenu convaincant.
"Personne ne sait ce qui est réel et ce qui ne l'est pas", a déclaré le futurologue Martin Ford. "Cela conduit à une situation où l'on ne peut littéralement pas croire ses propres yeux et ses propres oreilles ; on ne peut pas se fier à ce que, historiquement, nous avons considéré comme la meilleure preuve possible... Ce sera un problème majeur".
L'une des principales raisons pour lesquelles les deepfakes sont considérés comme dangereux est leur potentiel d'utilisation à des fins malveillantes. Par exemple, les deepfakes pourraient être utilisés pour créer de fausses preuves vidéo dans des affaires judiciaires, accuser des individus de crimes qu'ils n'ont pas commis ou même se faire passer pour une personnalité politique afin de diffuser de fausses informations. En manipulant les médias de cette manière, les "deepfakes" ont le pouvoir de perturber la confiance dans les sources d'information traditionnelles et de semer la confusion et la discorde dans la société.
Selon DeepMedia, une entreprise qui travaille sur des outils de détection des médias synthétiques, 500 000 deepfakes ont été publiés sur les sites de médias sociaux dans le monde en 2023. Cela représente trois fois plus de deepfakes vidéo et huit fois plus de deepfakes vocaux qu'en 2022.
Parmi les exemples récents d'utilisation malveillante de deepfakes, on peut citer la création de fausses vidéos pornographiques de célébrités, dans lesquelles les visages de célébrités sont insérés numériquement dans des vidéos pornographiques sans leur consentement. En outre, il y a eu des cas où de fausses vidéos ont été utilisées pour manipuler le cours des actions, diffamer des personnes ou diffuser de la propagande politique. Ces exemples mettent en évidence le potentiel d'utilisation des deepfakes à des fins préjudiciables et trompeuses.
La cybercriminalité
La cybercriminalité englobe un large éventail d'activités criminelles qui utilisent des appareils et des réseaux numériques. Ces crimes impliquent l'utilisation de la technologie pour commettre des fraudes, des vols d'identité, des violations de données, des virus informatiques, des escroqueries et d'autres actes malveillants. Les cybercriminels exploitent les faiblesses des systèmes et des réseaux informatiques pour obtenir un accès non autorisé, voler des informations sensibles, perturber les services et causer des dommages aux individus, aux organisations et aux gouvernements.
Les adversaires utilisent de plus en plus d'outils d'IA facilement disponibles, tels que ChatGPT, Dall-E et Midjourney, pour des attaques automatisées de phishing, d'usurpation d'identité, d'ingénierie sociale et de faux chatbots d'assistance à la clientèle.
Selon le rapport SlashNext State of Phishing Report 2023, les courriels de phishing malveillants ont connu une hausse de 1265 %, largement attribuée à l'utilisation d'outils d'IA pour les attaques ciblées.
Les attaques par usurpation d'identité sont de plus en plus courantes. Les escrocs utilisent le ChatGPT et d'autres outils pour se faire passer pour des personnes et des organisations réelles et se livrer à des vols d'identité et à des fraudes. À l'instar des attaques de phishing, ils utilisent des chatbots pour envoyer des messages vocaux en se faisant passer pour un ami de confiance, un collègue ou un membre de la famille afin d'obtenir des informations personnelles ou l'accès à des comptes. Dans un cas notable datant de mars 2019, le responsable d'une filiale britannique d'une société énergétique allemande a été victime d'un fraudeur qui a imité la voix du PDG, ce qui a conduit à un transfert de près de 200 000 livres sterling (243 000 dollars) sur un compte bancaire hongrois. Les fonds ont ensuite été transférés au Mexique et dispersés dans plusieurs endroits. Les enquêteurs n'ont identifié aucun suspect.

En 2023, l'Internet Crime Complaint Center (IC3) a reçu un nombre sans précédent de plaintes de la part du public américain : un total de 880 418 plaintes ont été déposées, avec des pertes potentielles dépassant 12,5 milliards de dollars. Cela représente une augmentation de près de 10 % du nombre de plaintes reçues et une augmentation de 22 % des pertes par rapport à 2022. Malgré ces chiffres stupéfiants, il est important de noter qu'ils sous-estiment probablement l'ampleur réelle de la cybercriminalité en 2023. Par exemple, lorsque le FBI a récemment démantelé le groupe de ransomwares Hive, il a été découvert que seulement 20 % des victimes de Hive avaient signalé le crime aux forces de l'ordre.
Atteinte à la vie privée
L'utilisation par la Chine de la technologie de reconnaissance faciale dans les bureaux, les écoles et d'autres lieux constitue un excellent exemple de surveillance sociale. Cette technologie permet non seulement de suivre les mouvements des individus, mais elle permet également au gouvernement de collecter de nombreuses données pour surveiller leurs actions, leurs activités, leurs relations et leurs croyances idéologiques.
Les individus peuvent désormais être surveillés à la fois en ligne et dans leur vie quotidienne. Chaque citoyen est évalué sur la base de ses comportements, comme le fait de traverser la rue sans autorisation, de fumer dans des zones non-fumeurs ou de passer du temps à jouer à des jeux vidéo. Imaginez que chaque action affecte votre score personnel dans le système de crédit social.
Lorsque Big Brother vous observe et prend des décisions sur la base de ces informations, il s'agit non seulement d'une atteinte à la vie privée, mais aussi d'une oppression sociale.
Crises financières
Dans le monde financier actuel, l'utilisation d'algorithmes d'apprentissage automatique est très répandue, les fonds spéculatifs et les sociétés d'investissement s'appuyant largement sur ces modèles pour analyser les actions et les actifs. Ces algorithmes sont constamment alimentés par d'énormes quantités de données traditionnelles et alternatives pour prendre des décisions de trading. Cependant, on craint de plus en plus que le trading algorithmique ne déclenche la prochaine grande crise financière.

Flash Crash 2010. 600 milliards de dollars se sont évaporés en 20 minutes
Un exemple notable des dangers des algorithmes défectueux est le Flash Crash de 2010, où le marché boursier a soudainement plongé de près de 1 000 points en quelques minutes avant de rebondir rapidement. Bien que les indices boursiers aient réussi à se redresser partiellement le même jour, le Flash Crash a effacé près de 1 000 milliards de dollars de valeur boursière. Cette chute soudaine et radicale des prix a été largement attribuée aux algorithmes de négociation automatisés qui ont réagi aux conditions du marché de manière imprévisible. Un autre exemple est le flash crash de Knight Capital en 2012, où un algorithme défectueux a fait perdre à l'entreprise 440 millions de dollars en seulement 45 minutes, ce qui l'a finalement menée à sa perte.
Ces accidents nous rappellent les risques potentiels liés au trading algorithmique sur les marchés financiers. Lorsque les algorithmes ne sont pas correctement conçus, testés ou contrôlés, ils peuvent avoir des conséquences catastrophiques. Il est essentiel que les institutions financières vérifient minutieusement leurs algorithmes et veillent à ce que des pratiques de gestion des risques adéquates soient mises en place afin d'éviter que des catastrophes similaires ne se produisent à l'avenir.
Robots tueurs
Les armes autonomes dotées d'une intelligence artificielle (IA) sont depuis longtemps un sujet de débat et de préoccupation pour les gouvernements, les responsables militaires et les défenseurs des droits de l'homme. Ces systèmes, également appelés "robots tueurs" ou "armes autonomes létales", ont la capacité de sélectionner et d'engager des cibles de manière indépendante, sans intervention humaine. Cela soulève d'importantes questions éthiques, juridiques et de sécurité, car ces armes peuvent prendre des décisions de vie ou de mort sans surveillance humaine.
Le développement d'armes autonomes s'est accéléré ces dernières années, à mesure que la technologie de l'intelligence artificielle s'est développée et répandue. Ces armes vont des drones aux systèmes terrestres capables d'identifier et d'attaquer des cibles de manière autonome. Les partisans des armes autonomes affirment qu'elles peuvent réduire les pertes humaines dans les zones de conflit et permettre des opérations militaires plus précises et plus efficaces. Toutefois, leurs détracteurs estiment que ces systèmes soulèvent de graves questions éthiques et peuvent avoir des conséquences inattendues, telles que l'escalade des conflits et des pertes civiles.
Le danger posé par les armes autonomes alimentées par l'IA est bien réel. Ces systèmes sont susceptibles d'être piratés ou de mal fonctionner, ce qui peut avoir des conséquences imprévues et entraîner une perte de contrôle. En outre, l'absence de contrôle humain dans la prise de décision soulève des inquiétudes quant à la responsabilité et au risque de violation du droit humanitaire international.

En 2020, plus de 30 pays ont demandé l'interdiction des armes autonomes létales, invoquant les craintes que des machines puissent prendre des décisions de vie ou de mort. Malgré ces inquiétudes, le développement et le déploiement d'armes autonomes alimentées par l'IA continuent de progresser. Des pays comme les États-Unis, la Russie, la Chine et Israël sont connus pour investir massivement dans ces technologies. Aux États-Unis, le ministère de la défense développe des systèmes d'armes autonomes, notamment des drones semi-autonomes et des véhicules terrestres sans pilote.
Une superintelligence incontrôlable
L'intelligence artificielle surpasse le cerveau humain à plusieurs égards : vitesse de calcul, vitesse de communication interne, évolutivité, capacité de mémoire, fiabilité, duplicabilité, modifiabilité, partage de la mémoire et capacités d'apprentissage :
- L'IA fonctionne potentiellement à plusieurs GHz, alors que les neurones biologiques sont limités à 200 Hz.
- Les axones transmettent des signaux à 120 m/s, alors que les ordinateurs le font à la vitesse de l'électricité ou de la lumière.
- L'IA peut facilement évoluer en ajoutant du matériel, contrairement à l'intelligence humaine limitée par la taille du cerveau et l'efficacité de la communication sociale.
- La mémoire de travail des humains est limitée par rapport à la capacité de mémoire expansive de l'IA.
- La fiabilité des transistors de l'IA dépasse celle des neurones biologiques, ce qui permet une plus grande précision et moins de redondance.
- Les modèles d'IA peuvent être facilement dupliqués et modifiés, et peuvent apprendre d'autres expériences d'IA plus efficacement que les humains.
Un jour, l'IA pourrait atteindre un niveau d'intelligence bien supérieur à celui de l'homme, ce qui conduirait à ce que l'on appelle une explosion de l'intelligence.

Cette idée d'auto-amélioration récursive, où l'IA s'améliore continuellement à un rythme exponentiel, a suscité des inquiétudes quant aux conséquences potentielles de la création d'une entité superintelligente. Imaginez un scénario dans lequel l'IA atteindrait un niveau d'intelligence qui lui permettrait de surpasser les humains dans tous les domaines imaginables. Cette superintelligence pourrait avoir le pouvoir de prendre des décisions qui auraient un impact considérable sur notre société et notre mode de vie. Tout comme l'homme tient actuellement le destin de nombreuses espèces entre ses mains, le destin de l'humanité pourrait un jour reposer entre les mains d'une IA superintelligente.
Dépendance excessive à l'égard de l'IA et responsabilité juridique
Une trop grande dépendance à l'égard de la technologie de l'IA pourrait entraîner une diminution de l'influence et du fonctionnement de l'homme dans certains domaines de la société. Par exemple, l'utilisation de l'IA dans les soins de santé pourrait entraîner une diminution de l'empathie et du raisonnement humains. En outre, l'utilisation de l'IA générative à des fins créatives pourrait étouffer la créativité humaine et l'expression émotionnelle. Une interaction excessive avec les systèmes d'IA pourrait également entraîner un déclin de la communication avec les pairs et des compétences sociales. Si l'IA peut être bénéfique pour l'automatisation des tâches, son impact sur l'intelligence humaine globale, les capacités et le sens de la communauté suscite des inquiétudes.
En outre, il existe des dangers potentiels qui pourraient entraîner des dommages physiques pour les êtres humains. Par exemple, si les entreprises s'appuient uniquement sur les prédictions de l'IA pour les calendriers de maintenance sans autre vérification, il pourrait en résulter des dysfonctionnements de machines qui blesseraient les travailleurs. Dans le domaine de la santé, les modèles d'IA pourraient conduire à des diagnostics erronés.
Outre les dommages physiques, l'IA peut présenter des risques non physiques pour les êtres humains si elle n'est pas correctement réglementée. Il s'agit notamment de questions liées à la sécurité numérique, comme la diffamation, à la sécurité financière, comme l'utilisation abusive de l'IA dans les recommandations financières ou les vérifications de solvabilité, et aux problèmes d'équité liés aux biais de l'IA conduisant à des rejets ou à des acceptations injustes dans divers programmes.
Et lorsque quelque chose tourne mal, qui doit être tenu pour responsable ? Est-ce l'IA elle-même, le développeur qui l'a créée, l'entreprise qui l'a mise en œuvre, ou l'opérateur si un être humain est impliqué ?
* * *
En conclusion, si l'intelligence artificielle comporte de nombreux risques et menaces, elle a aussi le potentiel de profiter grandement à la société et d'améliorer nos vies. Il est important de reconnaître que les avantages l'emportent souvent sur les inconvénients lorsqu'il s'agit de la technologie de l'IA. Dans notre prochain article, nous aborderons les stratégies permettant d'atténuer les risques associés à l'IA, afin de garantir que nous puissions exploiter pleinement son potentiel de changement positif.