L’organisme de surveillance des droits de l’UE met en garde contre les pièges de l’utilisation de l’IA


PHOTO DE DOSSIER: Un travailleur de la santé utilise un robot pour effectuer des consultations avec des patients souffrant de la maladie à coronavirus (COVID-19), à l’hôpital NOVA de Monterrey, Mexique, le 18 août 2020. Photo prise le 18 août 2020. REUTERS / Daniel Becerril / Fichier Photo

BRUXELLES (Reuters) – L’organisme de surveillance des droits de l’Union européenne a mis en garde contre les risques liés à l’utilisation de l’intelligence artificielle dans la police prédictive, les diagnostics médicaux et la publicité ciblée alors que le bloc envisage de statuer l’année prochaine pour relever les défis posés par la technologie.

Alors que l’IA est largement utilisée par les forces de l’ordre, les groupes de défense des droits affirment qu’elle est également utilisée abusivement par les régimes autoritaires pour une surveillance de masse et discriminatoire. Les critiques s’inquiètent également de la violation des droits fondamentaux des personnes et des règles de confidentialité des données.

L’Agence des droits fondamentaux de l’UE (FRA) basée à Vienne a exhorté les décideurs politiques dans un rapport publié lundi à fournir plus d’orientations sur la manière dont les règles existantes s’appliquent à l’IA et à garantir que les futures lois sur l’IA protègent les droits fondamentaux.

« L’IA n’est pas infaillible, elle est faite par des gens – et les humains peuvent faire des erreurs. C’est pourquoi les gens doivent savoir quand l’IA est utilisée, comment elle fonctionne et comment contester les décisions automatisées », a déclaré le directeur de la FRA, Michael O’Flaherty, dans un communiqué.

Le rapport de la FRA intervient alors que la Commission européenne, l’exécutif de l’UE, envisage une législation l’année prochaine pour couvrir les secteurs dits à haut risque tels que les soins de santé, l’énergie, les transports et certaines parties du secteur public.

L’agence a déclaré que les règles de l’IA doivent respecter tous les droits fondamentaux, avec des garanties pour le garantir et inclure une garantie que les gens peuvent contester les décisions prises par l’IA et que les entreprises doivent être en mesure d’expliquer comment leurs systèmes prennent les décisions de l’IA.

Il a également déclaré qu’il devrait y avoir davantage de recherches sur les effets potentiellement discriminatoires de l’IA afin que l’Europe puisse s’en prémunir, et que le bloc doit clarifier davantage la manière dont les règles de protection des données s’appliquent à la technologie.

Le rapport de la FRA est basé sur plus de 100 entretiens avec des organisations publiques et privées utilisant déjà l’IA, l’analyse étant basée sur les utilisations de l’IA en Estonie, en Finlande, en France, aux Pays-Bas et en Espagne.

Reportage de Foo Yun Chee; Montage par Alex Richardson

Laisser un commentaire