La FDA prévoit une surveillance des dispositifs médicaux d’IA, en s’attaquant aux préjugés

Une partie du plan d’action de la FDA comprend le soutien au développement des meilleures pratiques d’apprentissage automatique pour évaluer et améliorer les algorithmes de ML pour des sujets tels que la gestion des données, l’interprétabilité et la documentation, ainsi que l’avancement des pilotes de surveillance des performances dans le monde réel.

La FDA a également noté que le plan d’action continuerait d’évoluer pour rester au courant des développements dans le domaine des logiciels basés sur l’IA / ML en tant que dispositif médical (SaMD).

Comme l’agence l’a souligné dans un document de discussion d’avril 2019, la puissance potentielle du SaMD basé sur l’IA / ML réside dans sa capacité à apprendre en continu, où l’adaptation ou le changement de l’algorithme est réalisé après que le SaMD est distribué pour utilisation et a appris de l’expérience du monde réel.

LIRE LA SUITE: L’IA peut augmenter l’efficacité des soins de santé, même en cas de pandémie.

À son tour, la nature autonome et adaptative de ces outils nécessite une nouvelle approche réglementaire du cycle de vie total du produit qui prend en charge un cycle rapide d’amélioration des produits, permettant au SaMD de s’améliorer continuellement.

Pour résoudre ce problème, les soumissions préalables à la commercialisation à la FDA pour le SaMD basé sur l’IA / ML comprendraient un «plan de contrôle des changements prédéterminé», qui décrirait les types de modifications anticipées que l’IA / ML générerait.

En comparaison, les logiciels traditionnels résolvent les problèmes en étant explicitement programmés par l’équipe de développement. L’équipe sait comment résoudre le problème ou consulte un expert possédant une connaissance du domaine et crée l’algorithme logiciel en conséquence, explique Pat Baird, spécialiste principal de la réglementation et responsable des normes logicielles mondiales chez Philips.

«Cependant, pour de nombreux types d’applications d’IA, l’équipe de développement ne sait pas comment résoudre le problème. Au lieu de cela, ils créent un moteur de résolution de problèmes qui apprend des données qui lui sont fournies », explique Baird.

Cette opacité soulève des inquiétudes pour les parties prenantes, y compris les utilisateurs et les patients, donc instaurer la confiance et être en mesure d’expliquer les données utilisées pour former le système et les processus qualité en place seront des facteurs clés dans l’adoption de l’IA dans les soins de santé.

EN RELATION: Découvrez pourquoi les infirmières sont essentielles à l’intégration de l’IA dans les soins de santé.

«  L’IA responsable et explicable est essentielle  »

L’IA médicale a déjà un problème de biais car il n’est pas toujours facile pour les chercheurs d’obtenir des ensembles de données volumineux et suffisamment variés, ce qui peut ensuite conduire à intégrer ces biais dans des algorithmes dès le départ.

«Je pense que la première étape pour réduire les préjugés est de sensibiliser aux différents types de préjugés qui peuvent survenir, de rappeler aux gens de contester les hypothèses qu’ils ont, de partager des techniques sur la façon de détecter et de gérer les préjugés, de partager des exemples, etc.» Baird dit. «Pour améliorer l’apprentissage automatique, nous devons mieux partager notre apprentissage collectif.»