Un groupe composé de certains des meilleurs joueurs de poker du monde n’est pas parvenu à battre un robot lors d’un tournoi marathon de 20 jours. Le programme d’intelligence artificielle (IA) Libratus développé par l’Université Carnegie Mellon qui a participé au marathon de poker « Heads Up (1 vs. 1) No-Limit Texas Hold’em’ » contre 4 de ces champions de poker, a remporté 1 766 250 de dollars.
Ce n’est pas la première fois que l’élite mondiale d’un jeu particulier est battue par une IA. Un ordinateur IBM a vaincu le maître d’échecs Garry Kasparov il y a déjà 20 ans, tandis qu’AlphaGo, développé par la filiale de Google, DeepMind, a remporté 4 parties de Go contre le meilleur joueur de go du monde, l’année dernière.
Mais cette victoire au poker marque un nouveau jalon, car ce jeu de cartes est plus complexe que d’autres jeux comme les échecs ou jeu de société Go, car on ne peut pas voir le jeu des adversaires, ce qui signifie que l’on ne dispose pas de toutes les informations (ce que l’on qualifie de situation d’information imparfaite).
Et voici ce qui pourra en découler :
L’ordinateur peut nous tromper
Selon le professeur Tuomas Sandholm de Carnegie Mellon, qui a travaillé sur le système Libratus, ce programme pourra aussi avoir des applications dans d’autres situations d’information imparfaite, où les renseignements fournis sont incomplets ou trompeurs, comme dans l’industrie, les négociations commerciales, la stratégie militaire, les transactions à haute fréquence du monde financier, la cyber-sécurité, ou même la médecine.
La victoire de Libratus a des implications énormes
Car l’une des grandes avancées de Libratus est sa capacité à bluffer mieux que ses adversaires. Le poker Heads Up No-Limit Texas Hold ’em est la version la plus compliquée du jeu. Au cours du marathon, Libratus a quotidiennement appris de ses erreurs pour s’améliorer. Chaque jour, les parties étaient analysées par un superordinateur, et les 3 plus grosses faiblesses de la journée étaient corrigées pour améliorer l’algorithme.
Mais cette capacité à tromper l’homme confirme une fois de plus les craintes de l’astrophysicien Stephen Hawking. Ce dernier a signé en 2014 une lettre ouverte avec un groupe de scientifiques, dans laquelle ils mettent garde contre le développement sans contrôle de l’IA, et des effets dévastateurs pour l’humanité qu’une IA omnipotente pourrait comporter:
« On peut imaginer que cette technologie pourrait déjouer les marchés financiers, surpasser les chercheurs humains en matière d’inventions, manipuler les dirigeants humains, et développer des armes que nous ne pouvons même pas comprendre ».
De plus, le patron de Tresla, Elon Musk a fait part à plusieurs reprises de ses inquiétudes concernant le développement de l’IA, qu’il juge « plus dangereux que les armes nucléaires », et il a déclaré qu’il s’agissait de “la plus grande menace existentielle”.
Interdire l’IA ?
Selon Laurent Alexandre, le PDG de DNAVision, une société française spécialisée de biologie moléculaire, le moment est venu de mettre en place un système qui permet de contrôler l’IA.
« Est-il raisonnable d’apprendre aux machines à tromper, dominer, dépasser les hommes ? Est-il sage de leur apprendre à cacher leurs intentions, à déployer des stratégies agressives et manipulatrices comme dans le jeu de go ? (…)Il est sans doute impossible d’interdire l’IA de Google, mais il faut mener une réflexion mondiale sur l’encadrement des cerveaux faits de silicium. Ce d’autant que la victoire de Google va accélérer la bataille industrielle entre les géants d’Internet qui placent l’IA au cœur de notre civilisation. La police de l’IA deviendra cruciale dans les décennies qui viennent. »
Aucun commentaire:
Enregistrer un commentaire