Dubaï veut des robots pour composer 25% de sa police d’ici 2030
Dubaï a lancé un nouveau robot policier qui marque la première phase de l’intégration des robots dans la police. Cette version modifiée du robot REEM (conçu par PAL Robotics) est capable d’alimenter la vidéo dans un centre de commandement, transmettre les crimes signalés à la police, régler les amendes, la reconnaissance faciale et parler neuf langues. Il fonctionnera dans la plupart des centres commerciaux et des attractions touristiques.
Dubaï estime que les robots constitueront 25 pour cent de sa force de police d’ici 2030, la prochaine étape étant de les utiliser comme réceptionnistes dans les postes de police. Le brigadier Khalid Nasser Alrazooqi, directeur général du Département des services intelligents de la police de Dubaï, a déclaré à CNN qu’ils voulaient finalement libérer un « robot entièrement fonctionnel qui peut fonctionner comme un policier normal ».
→ Vers une police 3.0 : enjeux et perspectives à l’horizon 2025
→ Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent
→ Patrouille du futur : plutôt cop ou Robocop ?
→ Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent
→ Patrouille du futur : plutôt cop ou Robocop ?
Les policiers ou les soldats robotiques sont une ancienne idée de science-fiction, mais ils sont de plus en plus une réalité. En février, la Chine a commencé à utiliser AnBot qui utilise la reconnaissance faciale pour identifier les criminels et est capable de les suivre jusqu’à l’arrivée de la police. Le robot russe, Final Experimental Demonstration Object Research (FEDOR), a suscité des comparaisons avec Robocop lorsqu’une vidéo l’a montré en tirant avec une précision mortelle, en soulevant des haltères et en marchant.
La plus grande préoccupation éthique soulevée par ces développements concerne les personnes coupables si un robot prend une mauvaise décision et blesse quelqu’un dans une situation criminelle. Elon Musk, Steven Hawking et d’autres scientifiques prolifiques ont identifié l’IA comme un grave risque existentiel, arguant que les robots ne devraient jamais être autorisés à tuer des gens. Alan Winfield, professeur d’éthique robot à l’Université de l’Angleterre de l’Ouest, écrit sur ce sujet sur son blog. « Le problème, c’est que vous ne pouvez pas rendre une machine responsable de ses erreurs », a déclaré Winfeild dans une interview à CNN. « Comment le punir ? Comment le sanctionnez-vous ? Vous ne pouvez pas. »
Aucun commentaire:
Enregistrer un commentaire