Surveillance du gouvernement dans la gestion des risques de l’IA dans les soins de santé


Les noms de sociétés et de cabinets d’avocats indiqués ci-dessus sont générés automatiquement sur la base du texte de l’article. Nous améliorons cette fonctionnalité au fur et à mesure que nous continuons à tester et à développer en version bêta. Nous apprécions les commentaires, que vous pouvez fournir en utilisant l’onglet commentaires sur la droite de la page.

12 janvier 2022 – Pour comprendre comment l’intelligence artificielle (« IA ») peut être utilisée dans les soins de santé, nous devons d’abord comprendre ce que c’est. L’IA comprend non seulement la capacité de reconnaître et d’analyser des données, mais également de « déduire » ou de « prédire » ce que signifient ces données dans certains contextes. Il existe une myriade de façons dont l’IA peut aider dans le contexte des soins de santé, à la fois pour le diagnostic de la maladie et son traitement.

En tant que telle, l’IA promet d’aider efficacement les cliniciens dans ce que font les cliniciens : compiler, examiner et analyser les données recueillies sur leurs patients, et faire des déductions quant à ce que ces données signifient pour le patient et comment traiter le patient ou guérir la maladie.

La promesse de l’IA est qu’elle peut effectuer ces tâches à grande vitesse et efficacité. Les prestataires et les payeurs subissent une pression considérable pour réduire les coûts des soins de santé dans la mesure du possible. Les payeurs sont plus exigeants que jamais en termes d’articles et de services pour lesquels ils paieront. L’IA dans le diagnostic ou le traitement d’une maladie présente une opportunité de réduire les coûts des soins de santé et d’améliorer la gestion des ressources de soins de santé.

Inscrivez-vous maintenant pour un accès GRATUIT et illimité à Reuters.com

S’inscrire

Cependant, l’IA présente également des défis, notamment un biais potentiel dans les algorithmes utilisés, les vulnérabilités en matière de confidentialité et de sécurité introduites par l’utilisation de très gros volumes de données, et la difficulté de déterminer et d’évaluer la sécurité des produits et services basés sur l’IA.

Les applications de l’IA dans les soins de santé sont potentiellement infinies, mais avec ce potentiel, il existe également un risque. Une façon de gérer les risques dans les soins de santé consiste à adopter un large éventail de lois et de règlements qui régissent les nouvelles technologies. La Food and Drug Administration est la principale agence américaine qui réglemente les nouveaux médicaments, dispositifs, produits biologiques et innovations afin de garantir qu’ils sont sans danger pour les humains et les animaux. En plus de la FDA, certains États ont commencé à promulguer des lois et des réglementations dans ce domaine.

L’IA et l’apprentissage automatique (« ML ») sont des techniques utilisées pour concevoir et former des algorithmes logiciels pour apprendre et agir sur les données. Les logiciels basés sur l’IA/ML destinés à traiter, diagnostiquer, guérir ou prévenir une maladie ou d’autres conditions sont des dispositifs médicaux en vertu de la loi sur les aliments, les médicaments et les cosmétiques (« FD&C Act ») et sont appelés « Software as a Medical Device » (« Software as a Medical Device » (« Logiciel en tant que dispositif médical) » SaMD »). La FDA a le pouvoir de réglementer les SaMD et a mis en place un certain nombre de politiques destinées à guider l’industrie dans les pratiques sûres pour le développement et l’utilisation des SaMD aux États-Unis

Pour commencer la distribution d’un SaMD, un fabricant doit soumettre une demande de commercialisation à la FDA, qui comprend des informations pertinentes relatives au type et aux exigences en matière de données en fonction du risque du SaMD (par exemple, notification 510K, voie de demande d’approbation préalable à la commercialisation ou classification De Novo ). Lorsqu’il y a un changement dans un SaMD, un fabricant doit également soumettre une notification 510K au Center for Devices and Radiological Health de la FDA, qui examinera la demande en utilisant une approche basée sur les risques pour déterminer quand une soumission préalable à la commercialisation est requise.

À ce jour, la FDA a autorisé plusieurs SaMD basés sur l’IA/ML. Pour la plupart, il s’agissait de SaMD qui ont verrouillé des algorithmes avant la commercialisation ; cependant, tous les SaMD ne sont pas verrouillés et les algorithmes peuvent s’adapter au fil du temps. Les types de modifications d’algorithme qui seraient soumis à l’examen de la FDA dépendent de divers facteurs liés aux performances, aux intrants ou à l’utilisation prévue du SaMD.

La FDA a également récemment publié des directives spécifiques à l’IA dans les dispositifs médicaux. Le 27 octobre 2021, la FDA, en coopération avec Santé Canada et l’Agence de réglementation des médicaments et des produits de santé du Royaume-Uni, a publié des principes directeurs sur l’utilisation de l’IA et du ML dans les dispositifs médicaux (les « Principes directeurs »).

Les principes directeurs n’ont pas pour effet de réglementer, mais sont destinés à promouvoir la sécurité et l’efficacité des dispositifs médicaux utilisant l’IA et le ML. De manière générale, les principes directeurs sont un point de départ pour que divers acteurs de l’industrie travaillent ensemble pour promouvoir les bonnes pratiques d’apprentissage automatique.

Bien que la FDA soit le principal organisme de réglementation chargé de superviser l’IA dans les soins de santé, il existe des lois, des règlements et des directives supplémentaires qui devraient être pris en compte. Par exemple, le remboursement est une préoccupation fondamentale pour les fabricants et dans certains cas, lorsqu’un nouveau produit logiciel sera utilisé pour un diagnostic ou un traitement, il sera examiné par un entrepreneur administratif de Medicare (« MAC »). Dans d’autres, un nouveau produit sera substantiellement similaire à un autre produit déjà sur le marché et dans ce cas, une analyse de la terminologie procédurale actuelle (« CPT ») et des codes du système de codage des procédures communes pour les soins de santé (« HCPCS ») révélera la gamme de un remboursement potentiel et une analyse des déterminations de couverture nationale et des décisions de couverture locale seront effectués.

Cependant, si le nouveau SaMD est vraiment nouveau, la meilleure approche consiste à demander au fabricant de contacter le directeur médical du MAC régional pour obtenir des directives sur le remboursement. Ce processus pourrait être prolongé, de sorte que les fabricants sont bien avisés de commencer le processus tôt pour s’assurer que le produit est remboursable lorsqu’il est prêt à être mis sur le marché.

Il existe également des problèmes liés à la confidentialité et à la sécurité dans le cadre des réglementations de la Health Insurance Portability and Accountability Act (« HIPAA »), des réglementations de notification des atteintes à la santé de la Federal Trade Commission (« FTC ») des États-Unis, de diverses lois étatiques et du règlement général sur la protection des données de l’UE ( « RGPD »). Dans la mesure où l’utilisation de SaMD pour le diagnostic et le traitement peut nécessiter l’utilisation et le stockage de données personnelles identifiables, en fonction de l’entité créant les données, de la manière dont elles sont réglementées et des pays à partir desquels les données sont collectées, les lois fédérales et étatiques américaines, et éventuellement le RGPD, entreront en jeu.

De plus, il est important de noter qu’un nombre croissant d’États ont des lois et des réglementations qui exigent des mécanismes de confidentialité et de sécurité accrus pour certaines catégories d’informations (par exemple, les informations génétiques). Il est donc impératif que les fabricants prennent en compte l’ensemble de ces lois et réglementations pour leur SaMD et construisent le logiciel avec les protections de confidentialité et de sécurité appropriées.

Étant donné que l’IA repose sur la collecte de grands ensembles de données et que la capacité de réidentifier même des informations « anonymisées » devient de plus en plus facile avec des algorithmes sophistiqués, il est important d’évaluer et de se protéger contre les vulnérabilités de la vie privée qui surviennent lors de l’utilisation de l’IA.

Selon la fonctionnalité de l’IA, il peut y avoir des lois fédérales et étatiques qui obligent un fournisseur de soins de santé ou un développeur d’IA à demander une licence, des permis et/ou d’autres enregistrements (par exemple, l’IA peut être utilisée d’une manière qui nécessite l’approbation de la FDA si elle fournit un diagnostic sans examen par un professionnel de la santé).

À mesure que les fonctionnalités de l’IA se développent (et remplacent potentiellement celles des médecins dans les services médicaux), des questions peuvent se poser quant à la façon dont ces services sont réglementés et si la fourniture de tels services serait considérée comme une pratique de la médecine sans licence ou une violation de la pratique de la médecine en entreprise. (CPM) interdictions. Certains États (par exemple, New York, New Jersey et Californie) interdisent légalement à une personne ou à une entreprise non autorisée d’exercer la médecine, y compris en employant ou en contractant avec des médecins agréés pour fournir des services médicaux.

Une autre considération importante comprend les implications contractuelles et d’assurance de l’IA dans le diagnostic et le traitement de la maladie. L’assurance faute professionnelle typique d’un fournisseur couvrira-t-elle un fournisseur qui s’appuie sur l’IA dans ses décisions de diagnostic et de traitement ? Y a-t-il une couverture supplémentaire qui devrait être achetée?

De plus, lors de la conclusion d’un contrat de location de SaMD, y aura-t-il des dispositions d’indemnisation ou des limitations de responsabilité que les fabricants demanderont, et les fournisseurs accepteront-ils ces dispositions ? Les fabricants doivent consulter un conseiller juridique pour déterminer la meilleure approche pour la protection de leur propriété intellectuelle ainsi que leur exposition potentielle aux algorithmes qu’ils peuvent créer pour le SaMD.

Enfin, une question examinée avec une attention croissante est celle du biais potentiel dans les algorithmes d’IA. Le ML et l’IA examinent les modèles qui émergent dans les ensembles de données pour prédire certains résultats. Il est difficile de déterminer si ces prédictions sont basées sur des modèles résultant d’un biais, et il est important de discerner la fiabilité des prédictions. La FTC a généralement déclaré que la vente ou l’utilisation d’algorithmes racistes, par exemple, est une pratique trompeuse interdite par la Federal Trade Commission Act.

L’UE a été plus détaillée dans sa surveillance des biais dans l’IA. En avril 2021, la Commission européenne a publié une proposition de règlement sur l’IA qui, entre autres, impose des exigences en matière de tests, de gestion des risques et de surveillance humaine visant à minimiser le risque de décisions erronées ou biaisées assistées par l’IA. La FTC et la Commission européenne ont en commun un désir déclaré de transparence pour éviter les biais.

L’utilisation de l’IA dans le diagnostic et le traitement des maladies et dans d’autres domaines des soins de santé est vraiment passionnante. Avec les possibilités infinies d’application de l’IA dans les soins de santé, il y aura très certainement des risques qui devront être analysés en cours de route. Il y aura des exigences réglementaires qui devront être respectées, et il y aura probablement aussi des implications pour le personnel de santé.

Au minimum, il y aura des responsabilités importantes pour les fabricants de produits et services d’IA et des implications de formation pour les cliniciens et les membres du personnel auxiliaire afin de s’assurer que ces nouvelles technologies sont utilisées de la manière la plus bénéfique pour les individus et que les risques qui leur sont associés sont gérés de manière appropriée. .

Inscrivez-vous maintenant pour un accès GRATUIT et illimité à Reuters.com

S’inscrire

Les opinions exprimées sont celles de l’auteur. Ils ne reflètent pas les points de vue de Reuters News, qui, en vertu des principes de confiance, s’engage à respecter l’intégrité, l’indépendance et l’absence de parti pris. Westlaw Today appartient à Thomson Reuters et opère indépendamment de Reuters News.

Linda A. Malek

Linda A. Malek est associée chez Moses & Singer LLP et présidente des pratiques Santé et confidentialité et cybersécurité du cabinet. Sa pratique se concentre sur les questions réglementaires, technologiques et commerciales dans le secteur des soins de santé. Elle peut être jointe à LMalek@mosessinger.com.

F. Lisa Murtha

F. Lisa Murtha est associée dans la pratique Santé de Moses & Singer LLP et a de l’expérience en tant qu’avocate en soins de santé et en recherche, responsable de la conformité et consultante où elle a servi des organisations de fournisseurs et des sciences de la vie sur la recherche et les soins de santé juridiques et réglementaires questions. Elle peut être jointe à lmurtha@mosessinger.com.

Chanson Kiyong

Kiyong Song est associé chez Moses & Singer LLP dans les groupes de pratique Santé, confidentialité et cybersécurité. Il conseille les clients des secteurs de la fintech, des soins de santé et des technologies de la santé sur les problèmes de réglementation et de conformité liés à la confidentialité et à la sécurité des données en vertu des lois américaines et européennes, de la recherche clinique et des dispositifs médicaux. Il peut être contacté à ksong@mosessinger.com.

Laisser un commentaire