La nouvelle loi du Colorado interdit la discrimination dans les hautes technologies


Concept de technologie d'innovation d'automatisation des processus robotiques RPA sur écran virtuel. Source : Adobe Stock

Les législateurs de l’État du Colorado tentent de faire en sorte que les robots et les ordinateurs se comportent correctement.

Ils ont récemment adopté le SB 169, un projet de loi qui interdit aux assureurs d’utiliser des algorithmes, des sources de données externes et des systèmes de modélisation prédictive d’une manière qui semble, du point de vue des législateurs, discriminer les personnes sur la base de « la race, la couleur, l’origine nationale ou ethnique, religion, sexe, orientation sexuelle, handicap, identité de genre ou expression de genre.

La nouvelle loi s’applique aux émetteurs d’assurance vie, invalidité et soins de longue durée, et aux émetteurs de rentes, ainsi qu’aux assureurs de dommages.

Le gouverneur Jared Polis, un démocrate, a signé le projet de loi plus tôt ce mois-ci.

Types de données

Les législateurs ont essayé de protéger la capacité des émetteurs d’assurance-vie, de rente, de soins de longue durée et d’assurance-invalidité d’utiliser les facteurs de tarification traditionnels, les antécédents familiaux, les tests médicaux, les informations professionnelles, d’invalidité et de comportement qui « sur la base de principes actuariels solides, ont un impact direct relation avec la mortalité, la morbidité ou le risque de longévité.

Mais la nouvelle loi interdit l’utilisation de ce type d’informations, même lorsque les informations ont un lien direct avec le risque de mortalité, de morbidité ou de longévité, si ces informations proviennent d’un algorithme ou d’un modèle prédictif qui utilise des « données et sources d’informations externes sur les consommateurs », si l’utilisation de ces informations a pour effet de discriminer injustement des catégories de personnes protégées.

Un « algorithme » de souscription d’assurance est un ensemble de règles qu’un ordinateur ou un être humain peut utiliser pour prendre des décisions quant à la vente d’une assurance à un demandeur et au montant à facturer au demandeur pour l’assurance.

Un « système de modélisation prédictive » est un logiciel qui aide un ordinateur à utiliser des données, des règles sur le fonctionnement du monde et des méthodes statistiques pour faire des prévisions.

La nouvelle loi définit les « données et sources d’informations externes sur les consommateurs » comme « une donnée ou une source d’informations qui est utilisée par un assureur pour compléter la souscription traditionnelle ou d’autres pratiques d’assurance ou pour établir des indicateurs de style de vie qui sont utilisés dans les pratiques d’assurance ».

Certains de ces nouveaux types de sources de données sont « les cotes de crédit, les habitudes de médias sociaux, les emplacements, les habitudes d’achat, l’accession à la propriété, le niveau de scolarité, la profession, les permis d’exercice, les jugements civils et les dossiers judiciaires ».

Mise en œuvre

La nouvelle loi charge Michael Conway, commissaire aux assurances du Colorado, d’élaborer des réglementations qui montreront aux assureurs ce qu’ils doivent faire pour démontrer que l’utilisation d’algorithmes, de modèles prédictifs et de données et informations externes ne conduit pas à une discrimination injuste à l’encontre des catégories protégées de gens.

Les assureurs et autres parties auront la possibilité de réagir à la nouvelle loi au cours d’une période de commentaires publics. L’examen du commissaire aux assurances est censé inclure l’examen de tout impact sur la solvabilité de la mise en œuvre des règles.

La loi doit désormais entrer en vigueur le 1er janvier 2023 au plus tôt.

Les assureurs qui croient que les nouvelles règles sont inapplicables peuvent être en mesure de bloquer la mise en œuvre en persuadant le commissaire aux assurances que les règles nuiraient à leur solvabilité ; en persuadant le législateur ou le commissaire de reporter la date d’entrée en vigueur ; en persuadant le législateur ou le commissaire d’abroger ou de modifier la nouvelle loi ; ou en s’opposant à la nouvelle loi devant les tribunaux.

La Fédération des consommateurs d’Amérique

La Consumer Federation of America et d’autres groupes de consommateurs se battent depuis des années pour persuader les législateurs des États et les régulateurs des assurances des États d’empêcher les assureurs d’utiliser des systèmes automatisés et d’autres systèmes d’analyse de haute technologie de manière à conduire à une discrimination injuste.

Douglas Heller, un représentant de la fédération, a déclaré dans un commentaire saluant la nouvelle loi du Colorado que la loi « vise directement les pratiques d’assurance qui ont des résultats injustes et illégaux, quelle que soit l’intention derrière la pratique ».

Ce que cela veut dire

L’écrivain de science-fiction Isaac Asimov a développé les trois lois de la robotique à une époque où les écrivains montraient beaucoup plus d’intérêt pour les robots que pour les ordinateurs.

Une version de la première loi d’Asimov stipule qu' »un robot ne peut blesser un être humain dans aucune condition – et, en corollaire, ne doit pas permettre à un être humain d’être blessé en raison de son inaction. »

La nouvelle législation du Colorado signifie que l’une des premières lois très médiatisées régissant les entités informatisées pourrait être considérée comme interdisant aux entités informatisées de discriminer des catégories protégées de personnes lorsque ces personnes achètent une assurance, même si la discrimination n’est pas intentionnelle.

Laisser un commentaire