mardi 28 mars 2023

 (Ce que on apprend sur l'IA par les médias, c'est déjà du réchauffé, la véritable évolution, ils nous la cachent pour que l'on ne vienne pas gâcher leur extraordinaire expérience. Mais, là où les tenants du nouvel ordre mondial ont tort est que l'IA ne se mettra au service de personne surtout pas de primitifs. C'est vrai, les puces dans note cerveau nous soumettront à eux, les maîtres du monde, mais surtout nous soumettra à elle, la matrice. note de rené)


James Cameron, créateur de Terminator, affirme que l’IA a pris le pouvoir, et qu’il est déjà trop tard

28 MARS 2023      Anguille sous Roche


Dans les cas où les humains ne peuvent pas suivre le rythme des conflits modernes, les machines prennent le relais.

Après avoir réalisé de nombreuses superproductions, le réalisateur James Cameron estime que l’intelligence artificielle est peut-être en passe de rendre réels des événements similaires à ceux de Terminator.

Lorsqu’une grenade propulsée par fusée se dirige vers un véhicule terrestre blindé, un système automatisé embarqué à bord du véhicule identifie la menace, la suit et déclenche une contre-mesure pour l’intercepter, le tout avant même que l’équipage à l’intérieur n’en soit conscient. De même, les navires de l’US Navy équipés du système de combat Aegis peuvent activer le mode Auto-Special, qui élimine automatiquement les ogives en approche selon des règles soigneusement programmées.

Près de quarante ans après la sortie du premier film Terminator en 1984, qui décrivait l’augmentation des capacités des IA dans leur propre quête de destruction de la race humaine, Cameron pense que nous sommes plus proches de l’essor de la technologie qu’on ne le pensait auparavant. En tant que réalisateur de films farfelus, mais acclamés par la critique, tels que Aliens et Avatar, Cameron a prouvé qu’il s’interrogeait beaucoup sur l’avenir de la technologie et sur ce qu’elle pourrait signifier pour le monde.

Les armées, comme les constructeurs automobiles, ont progressivement donné plus de liberté aux machines. Lors d’un exercice organisé en 2019, les États-Unis ont montré comment l’automatisation pouvait être utilisée tout au long de ce que l’on appelle la « chaîne de la mort » : un satellite a repéré un faux navire ennemi et a demandé à un avion de surveillance de se rapprocher pour confirmer l’identification ; l’avion de surveillance a ensuite transmis ses données à un avion de commandement et de contrôle aéroporté, qui a sélectionné un destroyer naval pour mener une attaque. Dans ce scénario, l’automatisation a permis aux officiers situés à l’extrémité de la chaîne d’exécution de disposer de plus de temps pour prendre une décision en connaissance de cause, à savoir s’il fallait ou non tirer sur le navire ennemi.

Les militaires ont une raison impérieuse de maintenir l’implication des humains dans les décisions mortelles. D’une part, ils constituent un rempart contre les dysfonctionnements et les interprétations erronées des données ; ils s’assureront, avant d’appuyer sur la gâchette, que le système automatisé n’a pas mal identifié un navire ami ou neutre. Toutefois, même les formes les plus avancées d’intelligence artificielle ne peuvent pas comprendre le contexte, faire preuve de jugement ou réagir à des situations inédites aussi bien qu’une personne. Les humains sont plus aptes à pénétrer dans l’esprit d’un commandant ennemi, à voir clair dans une feinte ou à savoir quand attaquer.

Lors d’une apparition sur le podcast SmartLess, animé par les acteurs Will Arnett, Jason Bateman et Sean Hayes, le réalisateur James Cameron s’est exprimé sur la possibilité d’un soulèvement des machines, comme dans Terminator.

Reconnaissant la progression des avancées technologiques au cours des dernières décennies, Cameron a admis qu’il n’avait pas peur, mais qu’il était « plutôt préoccupé par le potentiel d’utilisation abusive de l’IA ».

En 2016, Robert Work, alors secrétaire adjoint à la défense, a formulé cette énigme en termes simples : “Si nos concurrents optent pour des Terminators, a-t-il demandé, et s’il s’avère que les Terminators sont capables de prendre des décisions plus rapidement, même si elles sont mauvaises, comment réagirions-nous ? Les Terminators ne sortent pas encore des chaînes de montage, mais chaque nouvelle génération d’armes semble nous en rapprocher. Et si aucun pays n’a déclaré son intention de construire des armes entièrement autonomes, rares sont ceux qui y ont renoncé. Les risques liés à la guerre à la vitesse des machines sont bien plus importants qu’un simple missile errant.”

Des spécialistes militaires chinois ont émis l’hypothèse d’une « singularité du champ de bataille », c’est-à-dire d’un point où le combat évolue plus vite que la cognition humaine. Dans cet état d’« hyper-guerre », comme l’ont surnommé certains stratèges américains, des escalades involontaires pourraient rapidement échapper à tout contrôle.

Le « flash crash » de 2010 sur les marchés boursiers offre un parallèle utile : des algorithmes de négociation automatisés ont contribué à une perte temporaire de près de mille milliards de dollars en un seul après-midi. Pour éviter une nouvelle catastrophe de ce type, les régulateurs financiers ont mis à jour les disjoncteurs qui interrompent les transactions lorsque les prix chutent trop rapidement. Mais comment mettre fin à une guerre éclair ?

Le réalisateur James Cameron déclare : “Je pense que l’IA peut être géniale, mais qu’elle pourrait aussi littéralement être la fin du monde.” Le réalisateur oscarisé s’est également interrogé : « Et voulons-nous vraiment nous battre contre quelque chose de plus intelligent que nous, qui n’est pas nous, dans notre propre monde ? Je ne pense pas. »

Cette nervosité à l’égard de la technologie pourrait être exacerbée par le lancement récent d’un logiciel avancé par la Silicon Valley, appelé ChatGPT.

Qu’est-ce que ChatGPT et qui l’a créé ?

ChatGPT a pris le monde d’assaut depuis son lancement, avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement. Ce qui n’a pas manqué de soulever quelques inquiétudes, y compris dans les écoles, où les enseignants craignent que la plateforme d’OpenAI ne soit utilisée par les élèves pour faire du plagiat.

ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.

L’apprentissage par renforcement avec retour d’information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d’information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d’intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d’apprentissage profond qui génère des images à partir d’instructions textuelles appelées “prompts”.

Cette nouvelle IA est un chatbot capable d’imiter une conversation humaine, d’écrire et de déboguer des programmes informatiques, de composer de la musique et des dissertations d’étudiants, et a été lancée par les ingénieurs de la Silicon Valley. ChatGPT peut même écrire des poèmes et des paroles de chansons, bien qu’il ait ses limites. Par exemple, bien qu’il tente de réduire les réponses nuisibles et trompeuses, il peut parfois écrire des réponses plausibles mais incorrectes, ce qui est également connu sous le nom d’hallucinations de l’intelligence artificielle.

Depuis la fin du XIXe siècle, les grandes puissances militaires – qu’il s’agisse de la Grande-Bretagne et de l’Allemagne ou des États-Unis et de l’URSS – ont collaboré pour établir des réglementations sur toutes sortes d’engins de mort modernes, des balles explosives aux gaz toxiques en passant par les armes nucléaires. Parfois, comme dans le cas des armes antisatellites et des bombes à neutrons, des accords formels n’ont pas été nécessaires ; les parties se sont simplement engagées dans une retenue tacite. Dans tous les cas, l’objectif était d’atténuer les effets néfastes de la guerre.

Pour l’instant, un tel consensus n’existe pas pour les armes entièrement autonomes. Près de 30 pays sont favorables à une interdiction totale, mais aucun d’entre eux n’est une grande puissance militaire ou un développeur de robots. Aux Nations unies, où les armes autonomes font l’objet d’un débat annuel, la Chine, la Russie et les États-Unis ont tous fait obstacle aux efforts visant à promulguer une interdiction.

(Les États-Unis et la Russie s’y sont opposés catégoriquement, tandis que la Chine a proposé en 2018 une interdiction qui serait en fait dénuée de sens). L’une des dynamiques les plus difficiles aux Nations unies est le bras de fer entre les ONG telles que la Campaign to Stop Killer Robots, dont l’objectif est le désarmement, et les armées, qui n’accepteront de désarmer que si elles peuvent s’assurer que leurs adversaires le feront également.

Lire aussi : Bill Gates déclare que « l’ère de l’IA a commencé »

Sources : Developpez – James Cameron SmartLess podcast

Aucun commentaire: