(Le bénéfice d'être connecté dissimule la prise mentale qu'elle opère peu à peu. note de rené)
Tesla collecte et rattache aux conducteurs les images issues des caméras en cas d'accident
Tesla demande aux clients accédant au programme bêta Full Self-Driving (FSD) d'accepter que Tesla puisse utiliser les images issues des caméras filmant dans le véhicule et à l'extérieur en cas de risque pour la sécurité ou d'accident, rapporte Electrek. Pour la première fois, Tesla rattache des images à des individus spécifiques.
LES IMAGES SONT RATTACHÉES AUX VÉHICULES
Tesla utilise depuis des années les images issues des caméras de ses voitures. Mais le constructeur a toujours mis en avant le fait que ces vidéos sont anonymes et rattachées à aucun véhicule en particulier. Les images étaient utilisées pour entraîner les algorithmes de machine learning et améliorer ses fonctionnalités Autopilot et FSD. Cela change aujourd'hui.
L'avertissement, qui vient avec la mise à jour de la version bêta du système FSD, a été changé. "En activant la version bêta de FSD, j'autorise la collecte par Tesla d'images associées au VIN à partir des caméras externes du véhicule et de la caméra de cabine en cas de risque grave pour la sécurité ou d'événement de sécurité comme une collision". En précisant que les images sont rattachées au VIN, cela signifie qu'elles sont rattachées au propriétaire du véhicule puisque ce Vehicle Idenitification Number (VIN) est un code unique qui est donné à chaque véhicule.
Cette version 10.5 du système comprend de nombreuses nouvelles fonctionnalités et notamment la possibilité de tester la "manœuvre d'évitement de collision d'urgence" en mode fantôme, ajoute Electrek. Concrètement la manœuvre n'est pas réellement faite par le système mais ce dernier cherche des solutions adaptées à l'environnement et les équipes de Tesla peuvent accéder à ces informations.
AVOIR DES DONNÉES EN CAS D'ACCIDENT
Tesla cherche sans doute à collecter des preuves utilisables en cas d'accident ou de risque pour la sécurité lors desquelles la fonctionnalité FSD est mise en cause. Avant d'ajouter cette mention, le constructeur ne pouvait pas relier des images avec des véhicules sans la permission du conducteur. Plus tôt dans le mois, la National Highway Traffic Safety Administration (NHTSA) a publié un rapport dans lequel le propriétaire d'une Tesla affirme que la bêta FSD a causé un accident, rappelle Electrek.
Le déploiement de cette fonctionnalité FSD en version bêta est scruté de très près par les autorités. Récemment, Tesla a été contraint de rappeler 11704 véhicules en raison d'un problème de communication logiciel entraînant un freinage intempestif de certains véhicules par le déclenchement du système de freinage d'urgence. Le problème a été corrigé depuis.
En parallèle, la NHTSA a lancé une enquête à la suite de 11 accidents durant lesquels le système Autopilot de Tesla était activé. L'organisme prévoit de décortiquer d'autres accidents impliquant des véhicules Tesla afin de vérifier l'incidence du système. Une enquête d'autant plus nécessaire qu'une étude menée par des chercheurs du MIT est venu mettre en lumière le fait que les conducteurs de Tesla sont moins attentifs lorsque le système Autopilot est enclenché.
Aucun commentaire:
Enregistrer un commentaire