HIMSS23 : les leaders de la santé doivent prendre le contrôle alors que l’IA entre dans une nouvelle ère

Tensions entourant les préoccupations liées à l’IA et les considérations éthiques

D’un point de vue juridique et éthique, Firth-Butterfield a souligné les problèmes de préjugés persistants et d’accès. « Comment pensons-nous à l’équité, à la responsabilité ? Qui poursuivez-vous en justice lorsque quelque chose ne va pas ? Y a-t-il quelqu’un à poursuivre? elle a demandé.

Elle a également remis en question le type de données partagées avec les systèmes d’IA générative et a attiré l’attention sur des nouvelles récentes d’employés de Samsung qui divulguaient involontairement des informations confidentielles à ChatGPT. « C’est le genre de chose à laquelle vous allez devoir réfléchir très attentivement lorsque nous commencerons à utiliser ces systèmes », a-t-elle déclaré.

Le mois dernier, Firth-Butterfield a signé une lettre ouverte appelant à une pause de six mois sur le développement de systèmes d’IA « plus puissants que GPT-4 ». Elle a décidé de signer la lettre parce qu’elle a dit qu’il était important de réfléchir profondément à cette prochaine étape majeure du développement de l’IA.

« Ce qui m’inquiète, c’est que nous nous précipitons vers l’avenir sans vraiment prendre de recul et le concevoir par nous-mêmes », a déclaré Firth-Butterfield.

PLONGER PLUS PROFOND: En savoir plus sur le parcours du modèle de données unifié de Banner Health.

Elle a souligné l’importance de définir le problème et d’améliorer la compréhension publique de l’IA. « Qu’est-ce que nous attendons de ces outils pour notre avenir, et pour que cela soit vraiment équitable? » elle a demandé. « Comment concevons-nous un avenir qui permette à tous d’accéder à ces outils ? C’est pourquoi j’ai signé la lettre.

Blackman a soulevé des questions sur la nature de la boîte noire des modèles d’IA et a caractérisé des outils tels que GPT-4 comme « un prédicteur de mots, pas un délibérateur ».

« Quelle est la référence appropriée pour un déploiement sûr ? » demanda Blackman. « Si vous posez un diagnostic de cancer, j’ai besoin de comprendre exactement les raisons pour lesquelles vous me donnez ce diagnostic. »

Lee a poussé contre la perspective de Blackman, suggérant que le problème de la boîte noire pourrait ne pas exister à un moment donné dans le développement futur, et que la description du « prédicteur de mots » simplifie à l’extrême les processus complexes.

En fin de compte, a déclaré Blackman, les gens devraient faire pression pour une gouvernance à l’échelle de l’entreprise sur l’IA, non pas pour arrêter l’innovation, mais pour établir un moyen d’évaluer systématiquement les risques et les opportunités sur la base de cas d’utilisation. Sinon, les choses tomberont entre les mailles du filet, a-t-il dit, et causeront peut-être de grands dommages.

« Vous avez besoin de certains types de surveillance. Il ne peut pas s’agir uniquement des scientifiques des données », a-t-il ajouté. « Il doit s’agir d’une équipe interfonctionnelle. Il y a des risques juridiques, des risques éthiques, des risques pour les droits de l’homme, et si vous n’avez pas les bons experts impliqués dans la réflexion sur un cas d’utilisation particulier dans le contexte dans lequel vous souhaitez déployer l’IA, vous allez rater des choses .”

EXPLORER: Comment les responsables informatiques de la santé parviennent-ils à réussir leur transformation numérique ?

Lee a reconnu que les conversations sur l’IA « touchent un nerf chez les gens ».

« Il y a quelque chose qui dépasse le cadre technique, scientifique, éthique ou juridique à ce sujet », a-t-il déclaré. « C’est quelque chose de très émouvant. »

Pour cette raison, a déclaré Lee, il est important que les gens acquièrent une compréhension pratique de l’IA, l’apprennent de première main, puis travaillent avec le reste de la communauté des soins de santé pour décider si de telles solutions sont appropriées.

Moore a ajouté que les organisations de soins de santé devraient avoir leurs propres équipes qui comprennent l’IA plutôt que de s’appuyer uniquement sur les connaissances et les produits des fournisseurs.

Gardez cette page en signet pour notre couverture continue de HIMSS23. Suivez-nous sur Twitter à @HealthTechMag et rejoignez la conversation sur #HIMSS23.