lundi 8 mai 2023

 (Encore une menace, encore un truc américain, à croire que dans ce monde tout ce qui est maléfique nous vient des Etats-Unis. note de rené)


Un informaticien de Google démissionne pour pouvoir mettre en garde le monde contre une IA « effrayante » et « dangereuse »


Il prévient que de « mauvais acteurs » tenteront d’utiliser l’IA pour faire de « mauvaises choses ».

Un informaticien de Google, surnommé le « parrain » de l’IA, a quitté l’entreprise, déclarant qu’il l’avait fait pour mettre en garde le monde contre les dangers que présente cette technologie, alors que les grandes entreprises technologiques s’engagent dans une course à l’armement en matière d’IA.

Geoffrey Hinton a réagi lundi à un article du New York Times qui insinuait qu’il avait quitté Google pour critiquer l’entreprise, en précisant que la véritable raison était qu’il voulait parler librement des dangers de l’IA.

Extrait de l’interview du Times :

Il pensait toujours que les systèmes étaient inférieurs au cerveau humain à certains égards, mais il pensait qu’ils éclipsaient l’intelligence humaine à d’autres égards. « Peut-être que ce qui se passe dans ces systèmes est en fait bien meilleur que ce qui se passe dans le cerveau », a-t-il déclaré.

Selon lui, à mesure que les entreprises améliorent leurs systèmes d’IA, ceux-ci deviennent de plus en plus dangereux. « Regardez ce qu’il en était il y a cinq ans et ce qu’il en est aujourd’hui », a-t-il déclaré à propos de la technologie de l’IA. « Prenez la différence et propagez-la vers l’avant. C’est effrayant. »

Jusqu’à l’année dernière, Google s’est comporté comme un « bon gestionnaire » de la technologie, veillant à ne pas diffuser quelque chose qui pourrait causer du tort. Mais maintenant que Microsoft a enrichi son moteur de recherche Bing d’un chatbot – ce qui remet en cause le cœur de métier de Google – ce dernier s’empresse de déployer le même type de technologie. Les géants de la technologie sont engagés dans une compétition qu’il pourrait être impossible d’arrêter, a déclaré M. Hinton.

M. Hinton a ajouté qu’il craignait qu’à court terme, l’internet soit rapidement inondé de fausses vidéos, photos et informations, et que bientôt plus personne ne soit en mesure de savoir ce qui est vrai.

Il a ajouté qu’à long terme, il craint que l’IA ne finisse par éclipser l’intelligence humaine.

« L’idée que cette machine puisse devenir plus intelligente que les humains, quelques personnes y ont cru », a-t-il déclaré, avant d’ajouter : « Mais la plupart des gens pensaient que c’était loin d’être le cas. Et je pensais que c’était loin d’être le cas. Je pensais que c’était dans 30 à 50 ans, voire plus. Évidemment, je ne le pense plus. »

M. Hinton a également déclaré à la BBC que l’un des principaux dangers de l’IA est que de « mauvais acteurs » tentent de l’utiliser pour faire de « mauvaises choses ».

L’actuel PDG de Google, Sundar Pichai, a admis que son concurrent ChatGPT, Bard, a développé des « propriétés émergentes », ce qui signifie qu’il apprend des choses qu’il n’a pas été programmé pour savoir, et que le comportement de l’IA est quelque chose qu’il ne « comprend pas complètement ».

Le mois dernier, Elon Musk a révélé que Google prévoyait depuis longtemps de créer un dieu de l’IA et qu’il avait à plusieurs reprises mis en garde les propriétaires de l’entreprise contre ce projet.

Elon Musk a déclaré que l’objectif ultime de Google était de « créer une superintelligence numérique » ou ce qu’il décrit comme un « dieu numérique ».

Le propriétaire de Twitter a déclaré que le cofondateur de Google, Larry Page, lui avait confié en privé, il y a plusieurs années, que l’objectif principal de l’entreprise était de travailler à la création d’une intelligence artificielle générale.

Musk a cofondé OpenAI, la société à l’origine de ChatGPT, avec Larry Page, mais il est manifestement très préoccupé par les progrès rapides de l’IA et par l’impact négatif qu’elle pourrait avoir sur l’humanité.

Musk a déclaré à Tucker Carlson qu’il est « absolument » concevable que l’IA puisse prendre le contrôle et prendre des décisions à la place des gens, ce qui pourrait conduire à la « destruction de la civilisation ».

« Le danger, vraiment, l’IA est peut-être plus dangereux que, disons, une mauvaise conception d’avion ou une mauvaise maintenance de production ou une mauvaise production de voitures, dans le sens où elle a le potentiel, même si vous voulez considérer cette probabilité comme faible, mais elle n’est pas insignifiante », a averti Musk.

Aucun commentaire: