Cette IA fabrique des études bidon… et l’agence sanitaire américaine l’utilise pour autoriser des médicaments ! (USA)

par Edward Back
Publié le 25 juillet 2025 à 20:07
La FDA américaine a adopté en grande pompe une IA pour accélérer la mise sur le marché de médicaments. Mais voilà, elle hallucine des études scientifiques. La sécurité des médicaments est-elle menacée aux États-Unis ?
L'intelligence artificielle générative est un outil précieux pour analyser rapidement une grande quantité de données, ou résumer des textes. Toutefois, ses réponses doivent être vérifiées, car les chatbots ont tendance à halluciner et à inventer des faits. Dans certains contextes, ce n'est pas très grave et il suffit de rester vigilant. Dans d'autres contextes, les conséquences peuvent être catastrophiques.
C'est ainsi que six personnes, employés ou anciens employés de la FDA (Food and Drug Administration) aux États-Unis, en sont venues à tirer la sonnette d'alarme, selon CNN. En cause : l'adoption par l'agence d'une IA du nom d'Elsa censée accélérer la mise sur le marché de nouveaux médicaments. Comme un chatbot standard, elle permet de générer des résumés et des rapports sur les réunions, ainsi que des e-mails et d'autres documents, et de trouver rapidement des études scientifiques.
Une IA qui invente des études scientifiques
Cependant, Elsa a tendance à halluciner et à inventer des études. « Tout ce que vous n'avez pas le temps de vérifier n'est pas fiable. Elle hallucine avec assurance », a indiqué l'un des employés. « L'IA est censée nous faire gagner du temps, mais je vous garantis que je perds beaucoup de temps supplémentaire simplement à cause de la vigilance accrue que je dois avoir », a déclaré un autre employé.
De plus, l'IA est censée avoir un rôle beaucoup actif dans l'examen des nouveaux médicaments. « L'agence utilise déjà Elsa pour accélérer les examens des protocoles cliniques, raccourcir le temps nécessaire aux évaluations scientifiques et identifier les cibles d'inspection hautement prioritaires », avait déclaré la FDA lors du lancement d'Elsa en juin.
Lorsque l'IA résume des études scientifiques, il est impossible de savoir si elle n'a pas halluciné des détails ou oublié des éléments importants sans une lecture attentive de celles-ci. C'est particulièrement inquiétant pour une organisation qui se base sur ces études pour la pharmacovigilance. Dans sa hâte d'adopter l’IA, la FDA ne risque-t-elle pas d'autoriser la mise sur le marché de médicaments potentiellement dangereux ?
Aucun commentaire:
Enregistrer un commentaire