(Ouh, là, là, pas intérêt que kim jong un, le président de la Corée du nord, passe devant autrement, il va se faire arrêter par un robot. note de rené)
La Corée du Sud compte utiliser des caméras dotées d’une IA capable d’anticiper la criminalité
Projet à la Minority Report, dont l’ambition reste discutable
Par Geneviève Fournier - @FournierGenevi1
Publié le 2 janvier 2020 à 17h29 source : Le Siècle Digital
Publié le 2 janvier 2020 à 17h29 source : Le Siècle Digital
© Niv Singer / Unsplash
Parue ce 2 janvier dans ZDnet, la nouvelle nous plonge tout droit dans un film de science-fiction. La Corée du Sud a pour projet d’installer 3000 caméras dotées d’intelligence artificielle dans sa capitale, toutes prétendument capables d’anticiper les crimes sur le point de se commettre.
Les autorités veulent s’appuyer sur l’intelligence artificielle pour prévenir la criminalité
« Des caméras dotées d’un logiciel d’intelligence artificielle (IA) seront ainsi installées à Séoul au cours de l’année, comme l’a fait savoir le gouvernement sud-coréen » a rapporté ZDnet.
Les caméras seraient ainsi capables de repérer un comportement suspicieux, exemple : si quelqu’un marche normalement, ou si une personne est suivie. D’autre part le journal rapporte que les appareils parviendront à détecter ce que les passants portent, autrement dit des accessoires susceptibles d’être utilisés pour commettre un crime.
Les caméras seraient ainsi capables de repérer un comportement suspicieux, exemple : si quelqu’un marche normalement, ou si une personne est suivie. D’autre part le journal rapporte que les appareils parviendront à détecter ce que les passants portent, autrement dit des accessoires susceptibles d’être utilisés pour commettre un crime.
Il semblerait que ces caméras soient conçues pour identifier un taux d’éléments suspicieux à ne pas dépasser, et lorsqu’un certain seuil sera potentiellement atteint, « les caméras alerteront le bureau de district et les postes de police voisins pour qu’ils envoient du personnel sur les lieux. ».
Pour pouvoir réaliser une telle chose, le district de Seocho et ETRI prévoient d’analyser 20 000 contenus (éléments de condamnation ou images de crime) pour entraîner les caméras à reconnaître des « modèles de crime » et à les mémoriser : « Les caméras pourront comparer si ce qui est filmé actuellement correspond à des modèles de criminalité antérieurs. ». C’est à se demander si les autorités ne font pas directement référence au film de S. Spielberg : « Cela fonctionnera comme une forme de déjà-vu », a expliqué un porte-parole de l’ETRI.
Le district de Seocho, capitale de la Corée du Sud, et l’Institut de recherche en électronique et en télécommunications (ERTI), ont ainsi déclaré souhaiter installer 3 000 caméras dans la capitale d’ici juillet 2020 : « Ces caméras utiliseront un logiciel d’IA qui traite l’emplacement, l’heure et le comportement des passants pour mesurer la probabilité qu’un crime soit commis. ».
Le projet est en cours, seulement, et les caméras placées dans la capitale seront sans doute considérées comme un premier test du logiciel en question. Le développement de celui-ci devrait se terminer en 2022 est-il rapporté.
Une technique de prévention remise en cause
Ce type de caméras a déjà été envisagé par d’autres organismes. Ring, filiale d’Amazon depuis 2018, souhaitait intégrer un logiciel d’IA identique à ses sonnettes à reconnaissance faciale aux États-Unis. L’objectif étant d’intégrer un système à ces sonnettes de particuliers, capable de reconnaître un comportement suspicieux.
Néanmoins les experts légaux et avocats privés ont fait part de leurs inquiétudes, à l’instar de Liz O’Sullivan, directrice technologique du Projet de supervision des surveillances technologiques, considérant que « toutes les tentatives IA testées pour détecter des comportements suspicieux à l’aide de la vidéosurveillance sont une supercherie ». Selon elle, la création de listes de surveillances automatisées serait extrêmement dangereuse. Et cette avocate rappelle un principe qui est manifestement ignoré en Corée du Sud : « il n’existe pas de consensus scientifique pour une définition claire d’un comportement suspicieux capable d’être établi sous forme biométrique. La question importante à poser c’est, Qui doit décider si un comportement est suspicieux ? Et la manière dont je vois l’industrie tenter d’y parvenir, relève simplement de l’approximation. ». La police doit être impartiale pour que notre société fonctionne, précise-t-elle, et tous doivent être égaux devant la loi, pas devant les algorithmes.
D’autre part, les inconditionnels de Minority Report se souviennent bien entendu du problème éthique soulevé au cours de la première arrestation : est-on coupable d’un crime qui n’est pas encore commis ? Aucune précision n’est faite sur les éventuelles peines encourues par les personnes qui seront interpelées à l’aide de ces caméras en Corée du Sud…
Aucun commentaire:
Enregistrer un commentaire