Soutenez-nous
Votre soutien nous est indispensable pour continuer à vous fournir le meilleur de l’information internationale alternative. C’est grâce à vos dons que nous pourrons maintenir le cap pour une information plurielle et réellement alternative. Nous comptons sur vous.
par Valentin Solier
Depuis l’intégration massive de l’intelligence artificielle dans les dispositifs médicaux, les signalements d’incidents explosent aux États-Unis. Crânes perforés, AVC provoqués, artères sectionnées : une enquête révèle un bilan alarmant, alors que la FDA peine à réguler un marché en surchauffe.
L’intelligence artificielle promettait une révolution médicale, faite de diagnostics ultra-précis et d’interventions chirurgicales optimisées. La réalité qui se dessine dans les blocs opératoires américains est bien plus sombre. Une enquête de l’agence Reuters, publiée le 9 février, met en lumière une corrélation troublante : depuis que les logiciels d’apprentissage automatique se multiplient à l’hôpital, le nombre d’erreurs et d’accidents chirurgicaux flambe. L’agence américaine du médicament (FDA) est désormais submergée par les signalements.
L’affaire TruDi : un système qui perd le nord
Le cas du système de navigation TruDi, fabriqué initialement par Acclarent (filiale de Johnson & Johnson), cristallise toutes les inquiétudes, rapporte le média belge 7sur7. Cet outil, conçu pour guider les chirurgiens lors d’opérations délicates des sinus ou du crâne, a vu ses dysfonctionnements exploser après son «dopage» à l’IA en 2021. Avant cette mise à jour, l’outil n’avait fait l’objet que de sept signalements mineurs en trois ans. Depuis l’intégration de l’algorithme d’apprentissage automatique, la FDA a reçu une centaine de rapports d’incidents entre 2021 et 2025.
Les conséquences pour les patients sont parfois dramatiques. Au moins dix personnes ont été blessées car le logiciel a fourni des informations erronées sur la position des instruments chirurgicaux à l’intérieur de leur tête. Un patient a eu la base du crâne perforée. Un autre a vu du liquide cérébrospinal s’écouler par le nez. Deux patients ont même subi un AVC après qu’une artère majeure a été accidentellement lésée.
Des victimes attaquent en justice
Face à ces drames, les victimes contre-attaquent, selon 7sur7. Deux patients ayant subi un AVC ont déposé plainte au Texas, incriminant directement la technologie. «Le produit était sans doute plus sûr avant l’intégration des modifications apportées au logiciel pour y incorporer l’intelligence artificielle qu’après la mise en œuvre de ces modifications», peut-on lire dans l’une des plaintes.
Un chirurgien témoigne d’ailleurs que le système ne donnait pas la position exacte des instruments lors d’une sinuplastie, manquant de peu de provoquer une issue fatale en abîmant l’artère carotide.
Une technologie marketing avant d’être médicale ?
Au-delà des erreurs techniques, c’est la stratégie des fabricants qui est pointée du doigt, d’après Clubic. Selon un procès en cours, l’ancien président d’Acclarent aurait poussé à intégrer l’IA «comme outil marketing» pour pouvoir vanter «une technologie nouvelle». Une course à l’innovation qui semble primer sur la sécurité, alors que les spécialistes connaissent bien les risques d’ «hallucinations» des modèles d’IA, capables de générer des données totalement fausses.
Le problème dépasse largement le cas TruDi. La FDA a autorisé 1357 dispositifs médicaux intégrant de l’IA l’an dernier, soit le double de 2022. Parmi eux, des moniteurs cardiaques de Medtronic n’ont pas détecté de rythmes anormaux, et le logiciel d’échographie Sonio Detect de Samsung confond parfois les parties du corps du fœtus. Une étude universitaire révèle que 43% des rappels de produits IA surviennent moins d’un an après leur autorisation, soit le double du taux moyen des autres dispositifs médicaux.
source : Epoch Times

Aucun commentaire:
Enregistrer un commentaire