Les risques d’une IA avancée sont réels. Nous devons agir avant qu’il ne soit trop tard, avertissent les experts
L’intelligence artificielle peut jouer aux échecs, conduire une voiture et diagnostiquer des problèmes médicaux. Citons par exemple AlphaGo de Google DeepMind, les véhicules autonomes de Tesla et Watson d’IBM.
Ce type d’intelligence artificielle est appelé intelligence artificielle étroite – des systèmes non humains qui peuvent accomplir une tâche spécifique. Nous rencontrons ce type d’appareil tous les jours, et son utilisation augmente rapidement.
Mais si de nombreuses capacités impressionnantes ont été démontrées, nous commençons aussi à voir des problèmes. Dans le pire des cas, il s’agissait d’une voiture d’essai de conduite automatique qui a heurté un piéton en mars. Le piéton est mort et l’incident fait toujours l’objet d’une enquête.
La prochaine génération d’IA
Avec la prochaine génération d’IA, les enjeux seront certainement beaucoup plus élevés.
L’intelligence générale artificielle (AGI) disposera de capacités de calcul avancées et d’intelligence au niveau humain. Les systèmes AGI pourront apprendre, résoudre des problèmes, s’adapter et s’améliorer.
Ils accompliront même des tâches qui vont au-delà de celles pour lesquelles ils ont été conçus.
Il est important de noter que leur taux d’amélioration pourrait être exponentiel puisqu’ils deviennent beaucoup plus avancés que leurs créateurs humains. L’introduction de l’AGI pourrait rapidement donner naissance à la Super Intelligence Artificielle (SIA).
Bien qu’il n’existe pas encore de systèmes AGI pleinement opérationnels, on estime qu’ils seront parmi nous entre 2029 et la fin du siècle.
Ce qui semble presque certain, c’est qu’ils finiront par arriver. Lorsqu’ils seront pleinement opérationnels, on craint fort naturellement que nous ne soyons pas en mesure de les contrôler.
Les risques associés à l’AGI
Il ne fait aucun doute que les systèmes AGI pourraient transformer l’humanité.
Parmi les applications les plus puissantes, mentionnons la guérison des maladies, la résolution de défis mondiaux complexes comme les changements climatiques et la sécurité alimentaire, et l’amorce d’un boom technologique mondial.
Mais l’échec de la mise en œuvre de contrôles appropriés pourrait avoir des conséquences catastrophiques.
Malgré ce que nous voyons dans les films hollywoodiens, les menaces existentielles ne sont pas susceptibles d’impliquer des robots tueurs.
Le problème ne sera pas un problème de malveillance, mais plutôt un problème d’intelligence, écrit Max Tegmark, professeur au MIT, dans son livre Life 3.0: Being Human in the Age of Artificial Intelligence.
C’est ici que la science des systèmes homme-machine – connue sous le nom de facteurs humains et d’ergonomie – prendra le dessus.
Les risques découleront du fait que les systèmes super-intelligents identifieront des façons plus efficaces de faire les choses, concocteront leurs propres stratégies pour atteindre leurs objectifs, et développeront même leurs propres objectifs.
Imaginez ces exemples :
- Un système AGI chargé de prévenir le VIH décide d’éradiquer le problème en tuant tous ceux qui sont porteurs de la maladie, ou un système chargé de guérir le cancer décide de tuer tous ceux qui ont une prédisposition génétique pour cette maladie.
- Un drone militaire autonome de l’AGI décide que le seul moyen de garantir la destruction d’une cible ennemie est d’exterminer une communauté entière.
- Une AGI qui protège l’environnement décide que la seule façon de ralentir ou d’inverser le changement climatique est d’éliminer les technologies et les humains qui l’induisent.
Ces scénarios soulèvent le spectre de systèmes d’AGI disparates qui s’affrontent, dont aucune ne considère les préoccupations humaines comme leur mandat central.
Divers avenirs dystopiques ont été avancés, y compris ceux dans lesquels l’homme finit par devenir obsolète, avec pour conséquence l’extinction de la race humaine.
D’autres ont transmis des perturbations moins extrêmes mais néanmoins importantes, notamment l’utilisation malveillante de l’AGI à des fins terroristes et de cyber-attaques, la suppression du travail humain et la surveillance de masse, pour n’en citer que quelques-unes.
Il est donc nécessaire de mener des enquêtes centrées sur l’être humain pour trouver les moyens les plus sûrs de concevoir et de gérer l’AGI afin de minimiser les risques et de maximiser les avantages.
Comment contrôler l’AGI
Contrôler l’AGI n’est pas aussi simple que d’appliquer simplement les mêmes types de contrôles qui ont tendance à garder les humains sous contrôle.
De nombreux contrôles sur le comportement humain reposent sur notre conscience, nos émotions et l’application de nos valeurs morales. Les AGI n’auront besoin d’aucun de ces attributs pour nous faire du mal. Les formes actuelles de contrôle ne suffisent pas.
On peut soutenir qu’il y a trois ensembles de contrôles qui doivent être développés et testés immédiatement :
1. Les contrôles nécessaires pour s’assurer que les concepteurs et les développeurs de systèmes AGI créent des systèmes AGI sûrs et sans risque.
2. Les contrôles qui doivent être intégrés dans les AGI elles-mêmes, tels que le “bon sens”, la morale, les procédures opérationnelles, les règles de décision, etc.
3. Les contrôles qui doivent être ajoutés aux systèmes plus larges dans lesquels l’AGI fonctionnera, tels que la réglementation, les codes de pratique, les procédures d’exploitation normalisées, les systèmes de surveillance et l’infrastructure.
Human Factors and Ergonomics propose des méthodes qui peuvent être utilisées pour identifier, concevoir et tester ces contrôles bien avant l’arrivée des systèmes AGI.
Par exemple, il est possible de modéliser les contrôles qui existent dans un système particulier, de modéliser le comportement probable des systèmes AGI au sein de cette structure de contrôle et d’identifier les risques de sécurité.
Cela nous permettra de déterminer où de nouveaux contrôles sont nécessaires, de les concevoir, puis de les remodeler pour voir si les risques sont éliminés en conséquence.
De plus, nos modèles de cognition et de prise de décision peuvent être utilisés pour s’assurer que les AGI se comportent correctement et ont des valeurs humanistes.
Agissez maintenant, pas plus tard
Ce genre de recherche est en cours, mais il n’y en a pas suffisamment et il n’y a pas suffisamment de disciplines concernées.
Même Elon Musk, l’entrepreneur de haute technologie Elon Musk, a mis en garde contre la “crise existentielle“ à laquelle l’humanité est confrontée en raison de l’IA avancée et a parlé de la nécessité de réglementer l’IA avant qu’il ne soit trop tard.
La prochaine décennie représente une période critique. Il est possible de créer des systèmes d’AGI sûrs et efficaces qui peuvent avoir des avantages considérables pour la société et l’humanité.
Dans le même temps, le maintien du statu quo, dans lequel nous rattrapons les progrès technologiques rapides, pourrait contribuer à l’extinction de l’espèce humaine. La balle est dans notre camp, mais elle ne le sera plus très longtemps.
Lire aussi : Intelligence Artificielle : une mise en garde de ses créateurs sur l’utilisation abusive des données et l’avenir
Source : ScienceAlert – traduit par Anguille sous roche
Aucun commentaire:
Enregistrer un commentaire