Un expert en IA de Cerner discute d’importantes «  idées fausses  » sur la technologie


Le Dr Tanuj Gupta, vice-président de Cerner Intelligence, est un expert en intelligence artificielle et en apprentissage automatique dans le domaine de la santé. Une partie de son travail consiste à expliquer, de son point de vue d’expert, ce qu’il considère comme des idées fausses avec l’IA, en particulier les idées fausses dans le domaine de la santé.

Dans cette interview avec Actualités informatiques de la santé, Gupta discute de ce qu’il dit être des idées fausses populaires concernant les préjugés sexistes et raciaux dans les algorithmes, l’IA remplaçant les cliniciens et la réglementation de l’IA dans les soins de santé.

Q. En termes généraux, pourquoi pensez-vous qu’il y a des idées fausses sur l’IA dans le secteur de la santé et pourquoi persistent-elles?

HIMSS20 numérique

Apprenez à la demande, gagnez du crédit, trouvez des produits et des solutions. Commencer >>

UNE. J’ai donné plus de 100 présentations sur l’IA et le ML au cours de la dernière année. Il ne fait aucun doute que ces technologies sont des sujets d’actualité dans le domaine de la santé qui ouvrent de grands espoirs pour l’avancement de notre industrie.

Bien qu’elles aient le potentiel de transformer les soins aux patients, la qualité et les résultats, on s’inquiète également de l’impact négatif que cette technologie pourrait avoir sur l’interaction humaine, ainsi que du fardeau qu’elle pourrait imposer aux cliniciens et aux systèmes de santé.

Q. Devrions-nous nous préoccuper des préjugés sexistes et raciaux dans les algorithmes de ML?

UNE. Traditionnellement, les prestataires de soins de santé tiennent compte de la situation unique d’un patient lors de la prise de décisions, ainsi que des sources d’information, telles que sa formation et ses expériences cliniques, ainsi que les recherches médicales publiées.

Désormais, avec le ML, nous pouvons être plus efficaces et améliorer notre capacité à examiner de grandes quantités de données, à signaler les problèmes potentiels et à suggérer les prochaines étapes de traitement. Bien que cette technologie soit prometteuse, il existe certains risques. Bien que l’IA et le ML ne soient que des outils, ils ont de nombreux points d’entrée qui sont vulnérables aux biais, de la conception à l’utilisation finale.

Au fur et à mesure que le ML apprend et s’adapte, il est vulnérable aux entrées et aux modèles potentiellement biaisés. Les préjugés existants – surtout s’ils sont inconnus – et les données qui reflètent des inégalités sociétales ou historiques peuvent entraîner un biais intégré dans les données utilisées pour entraîner un algorithme ou un modèle de ML pour prédire les résultats. Si elle n’est pas identifiée et atténuée, la prise de décision clinique fondée sur des biais pourrait avoir un impact négatif sur les soins et les résultats des patients. Lorsqu’un biais est introduit dans un algorithme, certains groupes peuvent être ciblés sans le vouloir.

Des préjugés sexistes et raciaux ont été identifiés dans les systèmes commerciaux de reconnaissance faciale, connus pour identifier à tort les visages noirs et asiatiques 10 à 100 fois plus que les visages caucasiens, et ont plus de difficulté à identifier les femmes que les hommes. Le biais est également observé dans le traitement du langage naturel qui identifie le sujet, l’opinion et l’émotion.

Si les systèmes dans lesquels nos outils d’intelligence artificielle et d’apprentissage automatique sont développés ou mis en œuvre sont biaisés, leurs résultats en matière de santé peuvent être biaisés, ce qui peut perpétuer les disparités en matière de santé. Bien que la suppression du biais systémique puisse être difficile, il est important que nous fassions tout notre possible pour l’identifier et le corriger dans toutes ses manifestations. C’est le seul moyen d’optimiser l’IA et le ML dans les soins de santé et de garantir la meilleure qualité d’expérience des patients.

Q. L’IA pourrait-elle remplacer les cliniciens?

UNE. La réponse courte est non. L’IA et le ML ne remplaceront pas le jugement du clinicien. Les prestataires devront toujours être impliqués dans le processus décisionnel, car nous les tenons responsables des soins aux patients et des résultats.

Nous avons déjà des garde-corps réussis dans d’autres domaines de la santé vers lesquels nous allons probablement évoluer pour l’IA et le ML. Par exemple, un parallèle est celui des ordres verbaux. Si un médecin donne à une infirmière une ordonnance verbale pour un médicament, l’infirmière le lui répète avant de l’inscrire dans le dossier et le médecin doit le signer. Si ce médicament finit par nuire au patient, le médecin ne peut pas dire que l’infirmière est en faute.

De plus, tout ordre de protocole permanent qu’un hôpital souhaite instituer doit être approuvé par un comité de médecins qui dispose ensuite d’une période d’examen régulière pour s’assurer que les protocoles sont toujours sûrs et efficaces. De cette façon, si l’infirmière exécute un ordre protocolaire et qu’il y a un problème de sécurité des patients, ce comité médical est responsable et redevable – pas l’infirmière.

La même chose va être là avec les algorithmes AI et ML. Il n’y aura pas d’algorithme qui s’exécute arbitrairement sur un outil ou une machine traitant un patient sans la surveillance d’un médecin.

Si nous jetons un tas d’algorithmes dans le dossier de santé électronique qui disent: « Traitez le patient de cette façon » ou « diagnostiquez-le avec ceci », nous devrons tenir le clinicien – et peut-être le fabricant d’algorithmes si cela devient réglementé par le US Food and Drug Administration – responsable des résultats. Je ne peux pas imaginer une situation où cela changerait.

Les cliniciens peuvent utiliser et utilisent l’IA et le ML pour améliorer les soins – et peut-être rendre les soins de santé encore plus humains qu’ils ne le sont aujourd’hui. L’IA et le ML pourraient également permettre aux médecins d’améliorer la qualité du temps passé avec les patients.

En bout de ligne, je pense qu’en tant que secteur de la santé, nous devrions adopter la technologie de l’IA et du ML. Cela ne nous remplacera pas; il deviendra simplement un nouvel ensemble d’outils efficace à utiliser avec nos patients. Et utiliser cette technologie de manière responsable signifie toujours rester au courant des risques potentiels pour la sécurité des patients.

Q. Que faut-il savoir sur la réglementation de l’IA dans les soins de santé?

UNE. L’IA introduit des préoccupations importantes concernant la propriété, la sûreté et la sécurité des données. Sans norme sur la façon de traiter ces problèmes, il y a le potentiel de causer des dommages, que ce soit au système de santé ou au patient individuel.

Pour ces raisons, il faut s’attendre à des réglementations importantes. Les industries pharmaceutique, des traitements cliniques et des dispositifs médicaux fournissent un précédent sur la façon de protéger les droits des données, la confidentialité et la sécurité et de stimuler l’innovation dans un système de santé fondé sur l’IA.

Commençons par les droits sur les données. Lorsque les gens utilisent un kit de test ADN à domicile, ils ont probablement donné un large consentement pour que vos données soient utilisées à des fins de recherche, comme défini par le ministère américain de la Santé et des Services sociaux dans un document d’orientation de 2017.

Bien que ces directives établissent des règles pour donner le consentement, elles créent également le processus de retrait du consentement. Gérer le consentement dans un système de santé habilité par l’IA peut être un défi, mais il existe un précédent pour réfléchir à cette question à la fois pour protéger les droits et stimuler l’innovation.

En ce qui concerne la sécurité des patients, la Food and Drug Administration a publié deux documents pour résoudre ce problème: un projet de guide sur les logiciels d’aide à la décision clinique et un projet de guide sur le logiciel en tant que dispositif médical. Le premier guide définit un cadre pour déterminer si un algorithme ML est un dispositif médical.

Une fois que vous avez déterminé que votre algorithme ML est en fait un appareil, le deuxième guide fournit des «bonnes pratiques d’apprentissage automatique». Des réglementations similaires de la FDA sur les diagnostics et les thérapies nous ont préservés du danger sans entraver l’innovation. Nous devrions nous attendre au même résultat pour l’IA et le ML dans les soins de santé.

Enfin, regardons la sécurité et la confidentialité des données. L’industrie veut protéger la confidentialité des données tout en libérant plus de valeur dans les soins de santé. Par exemple, HHS s’appuie depuis longtemps sur la loi sur la portabilité et la responsabilité de l’assurance maladie, qui a été promulguée en 1996.

Alors que la HIPAA est conçue pour protéger les informations de santé protégées, l’innovation croissante dans le domaine des soins de santé – en particulier en ce qui concerne la confidentialité – a conduit à la proposition de règle récemment publiée par HHS pour empêcher le blocage des informations et encourager l’innovation dans le domaine des soins de santé.

Il est prudent de conclure que l’IA et le ML dans les soins de santé seront réglementés. Mais cela ne signifie pas que ces outils ne seront pas utiles. En fait, nous devrions nous attendre à la croissance continue des applications de l’IA pour les soins de santé à mesure que davantage d’utilisations et d’avantages de la technologie se manifestent.

Twitter: @SiwickiHealthIT
Envoyez un courriel à l’écrivain: bsiwicki@himss.org
Healthcare IT News est une publication de HIMSS Media.



Laisser un commentaire