(Si, c'est billy the kid qui le dit ! note de rené)
“Croyez-moi, l’IA est bien plus dangereuse que les armes nucléaires” – Elon Musk
Plus tôt cette année, Elon Musk a donné une interview où il a fait allusion à l’idée que l’intelligence artificielle est beaucoup plus dangereuse que les armes nucléaires. C’est une déclaration assez audacieuse, qui a provoqué beaucoup de réactions négatives, compte tenu de la destruction et de la dévastation que peuvent causer les armes nucléaires.
Cela dit, ses commentaires ne doivent pas être ignorés, car d’autres, comme Julian Assange, ont exprimé les mêmes préoccupations. Ces préoccupations viennent de gens qui ont connu ce type de technologie, qui la connaissent et même qui l’utilisent. Ils ont énormément de ressources et de relations, et il est clair qu’ils ont beaucoup de connaissances dans ce domaine. Dans l’interview, Musk a déclaré :
Je pense que le danger de l’IA est beaucoup plus grand que celui des ogives nucléaires […] Personne ne laisserait entendre que nous permettrions au monde de construire des ogives nucléaires s’il le voulait, ce serait insensé. Croyez-moi : L’IA est bien plus dangereuse que les armes nucléaires.
Manque de surveillance réglementaire
Ce n’est pas la première fois qu’il évoque les dangers potentiels de l’intelligence artificielle. Avant cela, il a dit que l’IA est beaucoup plus dangereuse que la Corée du Nord. Maintenant, la plupart de nos lecteurs sont conscients du fait que “les puissances en place” ont qualifié beaucoup de dictateurs dont les pays sont “devenus voyous” avec leurs armes pour qu’ils puissent intervenir, imposer leur volonté et installer un gouvernement qui sert au mieux leurs propres intérêts. C’est depuis longtemps la tactique pour créer le problème et proposer la solution. Évidemment, Elon n’aborde pas cet aspect, mais j’ai pensé qu’il était important de le mentionner.
Musk a expliqué sa confusion quant à la raison pour laquelle il n’y a pratiquement aucune surveillance réglementaire en ce qui concerne l’IA. Ce sont là des questions importantes auxquelles personne ne pense vraiment ni ne se pose. L’IA se développe à un rythme exponentiel.
Le fondateur de Facebook, Mark Zuckerberg, a déclaré que les scénarios d’intelligence artificielle de Musk “sont inutiles et plutôt irresponsables”. Steven Pinker, professeur à Harvard, a également critiqué Musk pour ses commentaires. Cela pourrait être dû au fait que l’intelligence artificielle s’est avérée énorme pour les grandes entreprises. Non seulement c’est un domaine où l’on peut faire d’énormes profits, mais c’est aussi un domaine qui contribue à l’efficacité et à la sécurité dans notre vie de tous les jours. Musk ne condamne pas l’IA, ses entreprises utilisent l’IA, il dit simplement qu’il devrait y avoir une réglementation pour s’assurer que les choses n’aillent pas trop loin.
L’IA pense par elle-même
Jusqu’où les choses peuvent-elles aller ? Eh bien, l’intelligence artificielle pense par elle-même, et elle a déjà démontré qu’elle peut apprendre. Nous avons tous été mis au courant du scénario, un type d’intelligence artificielle conscient de soi, ne prenant aucune direction ou supervision de la part des humains, qui commence à penser par elle-même. Encore une fois, nous n’en sommes qu’au début et Musk envisage l’avenir, mais il semble que nous y sommes presque.
Prenons, par exemple, les programmes d’IA qui ne fonctionnent pas seulement en ligne pour gérer les paiements, le codage, etc. mais aussi pour contrôler les robots humains. Il y a quelques années, nous avons publié un article sur un androïde nommé Dick. Il est capable de répondre à une série de questions complexes et de trouver des réponses à des choses pour lesquelles il n’a pas été programmé auparavant. C’est une technique mathématique qui permet à l’androïde d’indexer, de récupérer et d’extraire le sens du langage humain naturel. Il est capable d’apprendre, et tout ce qu’il apprend peut être appris d’autres intelligences artificielles qui sont connectées au même ordinateur central. Si cela devient une réalité, alors ce qu’un robot apprend peut être appris par tous les autres robots.
Dans cette interview fascinante, il est assez choquant d’entendre les réponses de Dick à un stade aussi précoce de son développement. Par exemple, lorsqu’on lui a demandé s’il réfléchissait, il a répondu :
Beaucoup d’humains me demandent si je peux faire des choix (en montrant qu’il est conscient de ce que les autres pensent aussi) ou si tout ce que je fais et dis est programmé ? La meilleure façon de répondre à cela est de dire que tout, les humains, les animaux et les robots (tout ce qu’ils font) est programmé dans une certaine mesure.
Elon Musk est vraiment inquiet
Le plus gros problème que je vois avec les soi-disant experts en IA, c’est qu’ils pensent en savoir plus qu’ils n’en savent, et ils pensent être plus intelligents qu’ils ne le sont en réalité. Cela a tendance à tourmenter les gens intelligents. Ils se définissent par leur intelligence et ils n’aiment pas l’idée qu’une machine pourrait être beaucoup plus intelligente qu’eux, alors ils ne tiennent pas compte de l’idée – qui est fondamentalement erronée.
Je suis vraiment proche, très proche, à la pointe de l’IA et ça me fait peur. C’est capable de beaucoup plus que quiconque ne le sait et le taux d’amélioration est exponentiel.
Dernières pensées
Ce qu’il faut retenir, c’est qu’il faut vraiment reconnaître pourquoi nous faisons ce que nous faisons. À l’échelle collective, à l’heure actuelle, nos systèmes fonctionnent uniquement dans un but de profit. Par souci de profit, la surveillance et les règlements nécessaires ne semblent pas s’appliquer dans les domaines où ils devraient l’être. De nos jours, lorsqu’il s’agit de mettre au point des technologies pour la race humaine, beaucoup de technologies qui changent la vie et qui changent la donne sont en fait soumises à des restrictions et à la suppression de brevets. Le monde du budget noir est bien en avance sur le reste du monde, et nous ne pouvons pas vraiment dire avec certitude jusqu’à quel point notre technologie dans la catégorie de l’IA a progressé.
Lorsque nous créons une technologie, nous devons nous demander pourquoi nous la créons, pour quoi nous l’utilisons et pourquoi nous décidons de l’utiliser. Si l’intention est de faire du profit et de faciliter les choses, nous devons nous demander à quel prix cela va-t-il se produire ? Les intentions sont peut-être bonnes, mais cela ne mène pas toujours au meilleur résultat. Le fait est que le développement de la technologie de l’IA suscite de sérieuses préoccupations et que si cette technologie n’est pas maintenue dans la transparence et ne vient pas strictement de l’intention d’aider la race humaine et la planète, elle sera très probablement inutile, sinon dangereuse.
Nous pourrions faire tellement plus pour la planète et ses habitants. Imaginez si nous créions l’IA pour régénérer constamment les forêts ? Créer des forêts alimentaires ? Nourrir ceux qui ont faim ? Elon Musk voit le potentiel pour l’IA de devenir consciente et autonome, et bénéfique pour l’humanité. Il s’inquiète simplement des gens qui la contrôlent à l’heure actuelle et de leurs intentions.
Lire aussi : Une intelligence artificielle a appris à déterminer notre personnalité en regardant nos yeux
Source : Collective Evolution – Traduit par Anguille sous roche
Aucun commentaire:
Enregistrer un commentaire