LeadingAge 2025 : Comment les organisations de soins aux personnes âgées évoluent avec l'IA

LeadingAge 2025 : Comment les organisations de soins aux personnes âgées évoluent avec l'IA

Une compréhension croissante de l’IA dans les soins aux personnes âgées

Au cours d'une séance, Scott Code, vice-président du Center for Aging Services Technologies chez LeadingAge, a partagé certains enseignements d'une enquête CTO Hotline publiée plus tôt cette année.

Au niveau de l'entreprise, aucune organisation n'a cité de compétences approfondies en IA, la plupart des personnes interrogées partageant soit qu'elles ont des connaissances très limitées en IA, soit que certains membres de leur équipe possèdent des compétences en IA. (Seulement 49 % des personnes interrogées se sentaient assez confiantes pour déployer une IA ciblée.)

Les modèles de langage à grande échelle sont largement adoptés, Microsoft Copilot émergeant comme la solution leader du secteur : 63 % des personnes interrogées utilisent Copilot, tandis que 36 % utilisent ChatGPT, 3 % utilisent Google Gemini et 1 % utilisent Claude. (Pour les répondants qui n'utilisaient pas actuellement de LLM, 53 % prévoient d'en mettre en œuvre un au cours des 12 prochains mois.)

Joe Velderman, directeur de la stratégie chez K4Connect et membre du conseil d'administration du Parker Health Group, a déclaré que son intérêt pour l'IA générative a commencé à peu près au moment où ChatGPT a été lancé au public fin 2022. Au début de ses recherches, il a compris l'importance des données pour de telles solutions.

« Les données sont le carburant de ces LLM, et j'ai donc commencé à réfléchir à la nécessité pour les organisations d'utiliser et d'exploiter les données afin de tirer parti de ces outils de manière efficace et contextuelle », a-t-il déclaré.

Une discussion avec ChatGPT

Lors d'une session précédente, des panélistes humains ont inclus ChatGPT dans leur présentation et leur temps de questions-réponses avec le public. Travis Gleinig, vice-président de l'innovation et CIO chez United Methodist Communities, a déclaré que le chatbot avait été invité à effectuer une session de recherche de 15 minutes sur les principaux rapports, données et autres ressources de l'industrie afin de donner un contexte au panel.

À mesure que l’IA devient de plus en plus ancrée dans l’industrie, a déclaré Gleinig, son organisation se concentre sur le changement de culture pour amener les gens à mieux comprendre l’IA.

« Il y a une grande différence entre l'alphabétisation et la maîtrise », a-t-il déclaré, ajoutant qu'il aimerait que les membres de l'équipe maîtrisent l'IA afin de pouvoir facilement adopter et comprendre la solution sur laquelle le marché se dirige.

Dans le cadre de l'intégration des nouveaux employés, Gleinig a exploré l'utilisation de Google NotebookLM pour créer une sorte de podcast sur l'histoire et la culture de l'organisation, qu'il a trouvé beaucoup plus attrayant que les approches traditionnelles.

Chez Presbyterian Living, le vice-président informatique Raymond Benegas a déclaré que l'IA est utilisée dans les flux de travail cliniques, commerciaux et marketing. Les employés ont également testé l'utilisation de Microsoft Copilot, et les plateformes de cybersécurité incluent des fonctionnalités d'IA qui ont amélioré la visibilité et la réponse de l'organisation, comme la détection rapide d'activités de connexion inhabituelles.

« Nous n'aurions pas détecté cela aussi rapidement sans ces types de solutions d'IA qui examinaient réellement les données à tout moment et ne nous fournissaient que les informations dont nous avons besoin pour agir », a déclaré Benegas.

Interrogée sur les aspects négatifs de l'adoption de l'IA et sur ce que les organisations peuvent faire pour se protéger, la réponse générée par ChatGPT s'est concentrée sur les problèmes de surveillance humaine et de préjugés : « Un exemple du côté obscur est si l'IA est utilisée pour automatiser des décisions qui nécessitent vraiment l'empathie humaine. Par exemple, s'appuyer trop sur l'IA pour les plans de soins des résidents sans une surveillance humaine suffisante pourrait conduire à des décisions qui ne tiennent pas compte des nuances des soins personnels. Un autre risque est la confidentialité des données : si les outils d'IA ne sont pas bien protégés, il est possible d'exposer des informations sensibles sur les résidents. Et enfin, il pourrait y avoir des biais dans l'IA si elle est formée sur des données qui ne représentent pas bien la population résidente. La meilleure protection est toujours de garder un humain au courant, d'assurer de solides protections des données et d'examiner régulièrement les résultats de l'IA pour en vérifier l'équité et l'exactitude.

Les panélistes humains ont également souligné l’importance de la gouvernance des données et de la formation continue, alors que les tentatives de phishing assistées par l’IA deviennent une menace croissante dans tous les secteurs.