Cet hôpital pour enfants intègre l’IA aux soins de santé
Alors que le Boston Children’s Hospital embauche un ingénieur rapide et d’autres travailleurs de l’IA, il vaut la peine de se demander ce que tout cela signifie pour la médecine.
Tout comme les hôpitaux sont devenus des vecteurs majeurs de propagation du COVID Début 2020, les hôpitaux commencent déjà à accueillir un autre phénomène viral encore balbutiant : l’IA générative en milieu de travail. Des établissements de santé de haut niveau comme le Boston Children’s Hospital, connectés comme ils le sont à de grandes institutions de recherche, comptent parmi les opérations les plus importantes en contact avec les clients dans le secteur de la santé.
Et étant donné que les soins de santé représentent environ 18% du PIB américainbien sûr, ces organisations voudront tirer parti des dernières technologies qui promettent une révolution de la productivité.
Boston Children’s Hospital, régulièrement classé parmi les meilleurs hôpitaux pour enfants aux États-Unis, emploie un « Chief Innovation Officer », John Brownstein, un épidémiologiste qui dirige une division appelée Innovation & Digital Health Accelerator. Le travail passé de Brownstein combinant technologie et santé comprend la création d’un site appelé « Flu Near You », qui a été réorienté au début de la pandémie sous le nom de « Covid Near You» pour des raisons évidentes, selon le New York Times Magazine. Il existe toujours sous une forme plus générale sous le nom de « Outbreaks Near Me.” C’est un site Web d’une utilité troublante pour suivre les agents pathogènes.
Et maintenant, Brownstein tourne son attention vers l’IA.
Tout d’abord, selon Brownstein : de son point de vue, il n’est pas nécessaire de licencier qui que ce soit simplement parce que l’IA envahit les soins de santé. « Ce n’est pas destiné à remplacer l’humain », a déclaré Brownstein à Indigo Buzz dans une interview en avril. « C’est une augmentation. Il y a donc toujours un humain dans la boucle.
En avril, alors que l’ingénierie rapide devenait un nouveau travail technologique digne d’intérêt, Boston Children’s a informé le public du fait que le changement était en cours lorsqu’il a publié une offre d’emploi. à la recherche d’un ingénieur rapide. En d’autres termes, l’hôpital embauchait un spécialiste pour former des modèles de langage d’IA qui peuvent améliorer les opérations hospitalières, et en théorie, cette personne est censée améliorer les conditions du personnel hospitalier.
Selon Brownstein, c’est parce que son département a une directive pour réduire «l’épuisement professionnel des fournisseurs». Boston Children’s a ce qu’il a appelé « une équipe interne qui construit la technologie ». Leur travail, a-t-il expliqué, est de localiser les endroits du « monde du travail » où la technologie peut jouer un rôle, mais ce n’est pas encore le cas. Ils s’assoient littéralement dans des «points douloureux» au sein de l’hôpital pour enfants de Boston et conçoivent des moyens de soulager la douleur.
Ce que cela signifie en pratique est un peu hallucinant.
Soulager la douleur avec l’IA
Un «point douloureux» dans tout hôpital consiste à diriger les patients d’un point A à un point B, un exercice de communication difficile qui peut inclure des ralentisseurs comme la confusion due à la maladie ou au stress, ou les barrières linguistiques. « Déjà sortis de la porte, nous pouvons interroger ChatGPT avec des questions sur la façon de naviguer dans notre hôpital », a déclaré Brownstein. « C’est en fait choquant, ce que ceux-ci produisent sans aucune formation de notre part. » ChatGPT – et pas une future version mais celle à laquelle vous avez déjà accès – peut vous dire comment vous déplacer « pas seulement dans notre hôpital, mais dans n’importe quel hôpital », selon Brownstein.
Il est donc plus que réaliste d’imaginer un kiosque de machines où les patients peuvent recevoir des réponses utiles à des questions telles que, a proposé Brownstein, « Où puis-je prier ? » Et c’est probablement aussi l’espoir de nombreux travailleurs de la santé de ne pas être arrêtés dans leur élan avec des questions comme celle-là. Tout le monde n’est pas une personne sociable.
Mais Brownstein a également des idées sur de nouvelles façons dont les prestataires peuvent utiliser les données des patients grâce à l’IA.
L’idée que l’IA sera impliquée dans le traitement des données réelles des patients a déclenché des alarmes pour Mildred Cho, professeur de pédiatrie au Centre d’éthique biomédicale de Stanford. Après avoir examiné l’offre d’emploi d’ingénieur rapide, elle a déclaré à Indigo Buzz : « Ce qui me frappe, c’est que les qualifications sont axées sur l’expertise en informatique et en codage et uniquement sur la » connaissance des méthodologies de recherche en soins de santé », tandis que les tâches incluent l’évaluation des performances des invites d’IA. ”
« Pour vraiment comprendre si les résultats de grands modèles de langage sont valides pour les normes élevées nécessaires aux soins de santé, un évaluateur devrait avoir une base de connaissances beaucoup plus nuancée et sophistiquée en médecine ainsi qu’une connaissance pratique des systèmes de prestation de soins de santé et des limites. de leurs données », a déclaré Cho.
Cho a décrit plus en détail un scénario cauchemardesque : que se passe-t-il si l’ingénieur d’invite aide à recycler un modèle de langage ou à modifier un processus automatisé, mais en raison d’hypothèses erronées ? Par exemple, que se passe-t-il s’ils y entraînent des préjugés raciaux ou d’autres erreurs persistantes ? Étant donné que toutes les données collectées par les personnes sont intrinsèquement erronées, un nouveau processus brillant pourrait être construit sur une base d’erreurs.
« Notre ingénieur rapide ne va pas travailler dans une bulle », a déclaré Brownstein. Son équipe consacre du temps, a-t-il dit, à s’inquiéter de « ce que cela signifie d’avoir des données imparfaites ». Il était convaincu que le processus ne serait pas : « mettez un tas de données et, comme, espérez le meilleur ».
Utilisation de l’IA pour personnaliser les instructions de décharge
Mais n’oublions pas que « mettre un tas de données et espérer le meilleur » est une description appropriée du fonctionnement des grands modèles de langage, et les résultats sont souvent, eh bien, horribles.
Pour un exemple où les données doivent être exactes, ne cherchez pas plus loin que la vision absolument fascinante de Brownstein pour les instructions de décharge du futur. Vous avez probablement reçu – et rapidement jeté – de nombreuses instructions de décharge.
Peut-être avez-vous eu une bosse sur la tête dans un accident de voiture. Après avoir été examiné à l’hôpital et avoir été autorisé à rentrer chez vous, vous avez probablement reçu quelques pages agrafées d’informations sur les signes d’une commotion cérébrale, comment utiliser une compresse froide et la quantité d’ibuprofène à prendre.
Avec un LLM formé sur les informations individuelles de votre patient, a déclaré Browstein, le système sait, entre autres choses, où vous vivez, donc il peut dire où aller pour acheter votre ibuprofène, ou ne pas acheter du tout d’ibuprofène, parce que vous êtes allergique . Mais ce n’est que la pointe de l’iceberg.
« Tu es en cure de désintoxication et tu as besoin de faire une promenade. Il vous dit de faire cette promenade autour de cette zone particulière autour de votre maison. Ou cela pourrait être contextuellement utile, et il peut changer en fonction de votre âge et de divers attributs vous concernant. Et cela peut donner cette sortie dans la voix qui est la plus convaincante pour vous assurer que vous respectez ces instructions.
La nouvelle technologie a historiquement trouvé son chemin dans les hôpitaux rapidement
David Himmelstein, professeur à la CUNY School of Public Health et éminent critique du système de santé américain à but lucratif, a déclaré que bien qu’il ait entendu parler d’utilisations potentielles de l’IA dans les hôpitaux qui le concernaient, celui-ci ne l’a pas frappé comme « attaque. » Il a noté que les instructions de décharge sont «presque passe-partout» de toute façon et ne semblait pas préoccupé par le changement potentiel.
Cependant, il s’inquiète de ce que ces systèmes pourraient signifier pour la vie privée. « Qui obtient ces informations ? » se demanda-t-il. « On dirait que cela met les informations entre les mains de Microsoft – ou de Google s’ils utilisent leur moteur d’IA. »
Dans une utilisation généralisée, ce sont des préoccupations majeures pour les hôpitaux à l’avenir, mais Brownstein a déclaré que l’hôpital pour enfants de Boston, pour sa part, « construit en fait des LLM internes », ce qui signifie qu’il ne s’appuiera pas sur des sociétés comme Google, Microsoft ou la société mère de ChatGPT. OpenAI. « Nous avons en fait un environnement que nous construisons, de sorte que nous n’avons pas à pousser les données des patients n’importe où en dehors des murs de l’hôpital. »
Himmelstein, cependant, a souligné que les systèmes d’automatisation des hôpitaux sont loin d’être nouveaux et n’ont pas créé de paradis sans bureaucratie, où le travail se déroule de manière fluide et efficace, même s’il a noté que les entreprises faisaient de telles promesses depuis les années 1960. Il a fourni un document historique fascinant pour illustrer ce point : une vidéo IBM de 1961 qui promet des systèmes électroniques qui réduiront la bureaucratie et « élimineront les erreurs ».
Mais au cours du mois qui s’est écoulé depuis que Indigo Buzz a parlé pour la première fois à Brownstein, la situation de l’IA a progressé au Boston Children’s Hospital. Dans un e-mail, Browstein a signalé « une tonne de progrès » sur les grands modèles de langage, et un ingénieur rapide « incroyable » en cours d’intégration.