Comment l’apprentissage de l’IA peut protéger la vie privée des patients tout en offrant une recherche précieuse

Les organisations de santé continuent de faire de grands progrès dans leur utilisation des applications d’intelligence artificielle pour améliorer les soins aux patients. Mais pour que les systèmes d’IA produisent des algorithmes de haute qualité, ils ont besoin d’ensembles de données volumineux et diversifiés.

La compilation de ces ensembles de données peut être un défi en raison des obligations réglementaires et éthiques qui restreignent l’accès aux données des patients. Ces obligations peuvent conduire les directeurs de l’informatique médicale à adopter des politiques interdisant aux données de santé de quitter une organisation.

La réticence à compiler de grands ensembles de données, motivée par les risques croissants de pénalités financières et de dommages à la réputation, se heurte à l’intérêt croissant pour la création et le déploiement de modèles d’IA médicale dans les soins de santé. De nouvelles solutions sont nécessaires pour permettre la formation de modèles d’IA tout en protégeant la vie privée des patients.

Formation requise pour l’IA en imagerie médicale

La quantité de données de formation en imagerie médicale, en particulier les données accessibles au public, est une fraction de ce qui est disponible dans d’autres domaines. La pénurie d’ensembles de données organisés et représentatifs est l’un des principaux obstacles au développement de solutions d’IA significatives pour l’imagerie médicale, et la protection de la vie privée des patients ajoute à la difficulté.

Récemment, des entreprises telles que NVIDIA et Google ont créé des outils logiciels pour permettre des techniques de distribution de données pour la formation de l’IA. Un exemple est l’apprentissage fédéré, qui fonctionne en déployant des modèles d’IA dans chaque institution participante dans un groupe distinct (ou « fédération »). Les modèles sont ensuite formés individuellement dans chaque institution grâce à l’exposition aux données locales. Pendant la formation, les modèles sont périodiquement envoyés à un serveur central fédéré, où ils sont agrégés. Le modèle agrégé est ensuite redistribué à chaque établissement pour une formation complémentaire. Il s’agit de l’étape clé pour préserver la confidentialité, car les modèles eux-mêmes ne sont constitués que de paramètres qui ont été adaptés aux données, et non aux données protégées elles-mêmes.

Au fil du temps, ce processus permet aux modèles d’IA de bénéficier des connaissances acquises dans chaque institution de la fédération. Une fois la formation terminée, un seul modèle agrégé est produit qui a été, indirectement, formé sur les données de toutes les institutions de la fédération.

PLUS DE HEALTHTECH: Quelle est la prochaine étape pour l’IA dans le domaine de la santé ?

Des signes de promesse pour l’IA médicale

Dans une étude publiée cette année, notre équipe du laboratoire de diagnostic informatique de l’UCLA a étudié l’utilisation d’une architecture d’apprentissage fédérée pour former un modèle d’IA d’apprentissage en profondeur pour localiser et délimiter la prostate dans les IRM à l’aide de données de différentes institutions. Nous avons constaté que l’apprentissage fédéré produisait un modèle d’IA qui fonctionnait mieux sur les données des institutions participantes et sur les données de différentes institutions par rapport aux modèles formés sur les données d’une seule institution participante.

Pour comprendre l’engouement pour l’apprentissage fédéré, demandez-vous si les organisations d’une fédération étaient des utilisateurs de smartphones qui avaient accepté de permettre à un algorithme d’analyser les images sur leurs téléphones, permettant potentiellement la formation de modèles avec un calcul distribué et les données d’un vaste groupe d’utilisateurs. Dans cette perspective, on peut imaginer des scénarios analogues en médecine dans lesquels les patients peuvent opter pour des fédérations d’indemnisation. Cela pourrait accélérer l’innovation dans l’espace de l’IA médicale.

Le développement réussi d’algorithmes d’IA médicale nécessite une exposition à une grande quantité de données représentatives des patients du monde entier. Nos résultats démontrent une alternative aux complexités financières, juridiques et éthiques que cela a posées : les institutions peuvent s’associer en fédérations et développer des modèles d’IA médicale innovants et précieux qui peuvent fonctionner aussi bien que ceux développés grâce à la création d’ensembles de données massifs et cloisonnés, avec moins de risques pour la vie privée.