Les établissements de santé ont besoin de plus que de simples enclaves d’IA privées et sécurisées. Ils ont besoin de flexibilité pour exploiter différents LLM, de transparence pour retracer les recommandations jusqu'aux sources des modèles et d'un contrôle total sur ces sources et données.
Compléter les LLM avec une génération augmentée par récupération offre ces avantages et bien plus encore. Cette approche offre aux prestataires de soins de santé un moyen rentable et sécurisé de récupérer des informations précises et spécifiques sur le cas d'un patient en temps réel, d'une manière facile à comprendre.
Comment fonctionne la génération augmentée par récupération
RAG complète les données d'un LLM privé avec d'autres sources de connaissances choisies par l'organisme de santé. Ces sources peuvent inclure des dossiers de patients, des directives cliniques ou d’autres types de données. RAG demande à un LLM d'extraire des informations de ces sources sans exposer les données des sources au monde extérieur.
Cela offre deux avantages. Les connaissances générales contenues dans les LLM sont complétées par des informations spécifiques aux besoins du prestataire de soins de santé ou du clinicien individuel. La combinaison du traitement du langage naturel du LLM avec les informations organisées par l'organisation de soins de santé permet d'obtenir des soins aux patients plus complets et plus ciblés. Deuxièmement, les informations sensibles des patients ou des prestataires peuvent rester sur site ou dans un cloud privé sans être exposées à une base de données publique, ce qui contribue à atténuer les risques.
Supposons qu'un patient souffre de vertiges et ne puisse pas obtenir de rendez-vous avec un spécialiste des oreilles, du nez et de la gorge dans un délai raisonnable. Il consulte donc son médecin généraliste pour obtenir de l'aide. Normalement, le médecin généraliste devra peut-être faire une supposition éclairée en fonction des symptômes du patient. Cependant, avec un LLM complété par RAG, il ou elle peut taper une simple requête sur son ordinateur portable et recevoir des recommandations personnalisées et à jour sur les options de traitement basées sur les dernières directives de pratique clinique publiées par l'American Academy of Otolaryngology-Head et Chirurgie du cou.
Cependant, RAG fait plus qu’aider les cliniciens à fournir des soins plus éclairés. Il peut retracer les réponses jusqu'aux sources d'informations, afin que les utilisateurs puissent facilement vérifier si les informations qu'il fournit sont exactes et créer des pistes d'audit si nécessaire. Et cela permet de réduire les coûts en éliminant le besoin de recycler et d’affiner les modèles ; les organisations peuvent simplement introduire de nouvelles données dans leurs LLM existants selon leurs besoins. Ils peuvent même échanger des LLM à mesure que de nouveaux modèles sont introduits, évitant ainsi le verrouillage du LLM.
Les LLM peuvent aider à résoudre le problème de l'API des soins de santé
L’utilisation des LLM et RAG pour l’aide à la décision clinique est un cas d’utilisation évident de l’IA générative dans les soins de santé. Pourtant, c’est loin d’être le seul exemple. La plupart des LLM sont par nature des transformateurs ou des traducteurs. Ils ont le potentiel de résoudre les problèmes d’interopérabilité des données causés par des interfaces de programmation d’applications mal écrites ou mal formées.
Les API ont longtemps été un fléau et une aubaine pour le secteur de la santé. Les prestataires comptent sur eux pour traiter les réclamations d'assurance, entre autres choses, mais de nombreuses réclamations sont rejetées car une API ne comprend pas la demande.
Au lieu de soumettre une demande via une API en espérant qu'elle soit acceptée, les fournisseurs peuvent soumettre des données à une API soutenue par un service LLM. Le LLM traduit les données dans le format attendu par le destinataire, minimisant ainsi les risques de rejet de la réclamation.
Dans ce cas, on ne demande pas au LLM de faire quelque chose de trop complexe. Cependant, l’impact global peut être profond pour le prestataire de soins et le patient. Cela pourrait réduire les coûts associés aux poursuites en cas de refus de réclamation, qu'une enquête estime à plus de 10,5 milliards de dollars par an, et accroître la satisfaction des patients.
Les LLM peuvent atténuer les inquiétudes budgétaires et des patients en 2025
À l’aube de 2025, nous atteignons enfin le sommet du cycle de battage médiatique de l’IA générative dans le domaine de la santé, et ses cas d’utilisation sont devenus plus clairs. C’est le moment idéal pour les organisations de faire le point sur la manière dont elles entendent tirer parti des LLM pour une efficacité maximale.
Cette évaluation aura probablement un impact sur les budgets informatiques de l'année prochaine. Construire des LLM en interne coûte cher et n'est peut-être pas la meilleure solution, car les établissements de santé s'efforcent de réduire leurs coûts en raison des pressions financières croissantes. Une combinaison de LLM open source et de méthodologie RAG est une option plus rentable.
Plus important encore, cette combinaison permettra aux cliniciens de fournir aux patients des soins plus ciblés et plus précis. Les médecins peuvent récupérer des informations et répondre rapidement aux questions, les patients peuvent rentrer chez eux avec des plans de traitement et la promesse de l’IA générative sur le lieu de soins peut être tenue.