Une action urgente est nécessaire face aux risques de l’intelligence artificielle pour les droits humains |


Une action urgente est nécessaire car il peut prendre du temps pour évaluer et traiter les risques sérieux que cette technologie pose pour les droits de l’homme, a averti le Haut-Commissaire : « Plus le risque pour les droits de l’homme est élevé, plus les exigences légales pour l’utilisation de la technologie de l’IA devraient être strictes ”.

Mme Bachelet a également appelé à l’interdiction des applications d’IA qui ne peuvent pas être utilisées conformément au droit international des droits de l’homme. « L’intelligence artificielle peut être une force pour le bien, aidant les sociétés à surmonter certains des grands défis de notre époque. Mais les technologies de l’IA peuvent avoir des effets négatifs, voire catastrophiques, si elles sont utilisées sans tenir suffisamment compte de la manière dont elles affectent les droits humains des personnes ».

Révélations du logiciel espion Pegasus

Mardi, la cheffe des droits de l’ONU s’est déclarée préoccupée par le « niveau de surveillance sans précédent à travers le monde par des acteurs étatiques et privés », qu’elle a insisté sur le fait qu’il était « incompatible » avec les droits de l’homme.

Elle s’exprimait lors d’une audition du Conseil de l’Europe sur les implications de la controverse de juillet sur le logiciel espion Pegasus.

Les révélations de Pegasus n’ont pas surpris beaucoup de gens, a déclaré Mme Bachelet à la commission des questions juridiques et des droits de l’homme du Conseil de l’Europe, en référence à l’utilisation généralisée de logiciels espions commercialisés par le groupe NSO, qui a touché des milliers de personnes dans 45 pays à travers quatre continents.

‘Prix élevé’, sans action

L’appel de la Haut-Commissaire est intervenu alors que son bureau, le HCDH, publiait un rapport qui analyse comment l’IA affecte le droit des personnes à la vie privée et d’autres droits, notamment les droits à la santé, à l’éducation, à la liberté de mouvement, à la liberté de réunion pacifique et d’association et à la liberté d’expression. .

Le document comprend une évaluation du profilage, de la prise de décision automatisée et d’autres technologies d’apprentissage automatique.

La situation est « catastrophique », a déclaré Tim Engelhardt, responsable des droits de l’homme, Section Etat de droit et démocratie, qui s’exprimait lors du lancement du rapport à Genève mercredi.

La situation ne s’est « pas améliorée au fil des ans mais s’est aggravée », a-t-il déclaré.

Tout en saluant « l’accord de l’Union européenne pour renforcer les règles de contrôle » et « la croissance des engagements volontaires internationaux et des mécanismes de responsabilité », il a prévenu que « nous ne pensons pas avoir de solution dans l’année à venir, mais les premiers pas doivent être prises maintenant, sinon de nombreuses personnes dans le monde en paieront le prix fort ».

La directrice de l’engagement thématique du HCDH, Peggy Hicks, a ajouté à l’avertissement de M. Engelhardt, déclarant qu’« il ne s’agit pas des risques à l’avenir, mais de la réalité d’aujourd’hui. Sans changements de grande envergure, les dommages se multiplieront avec l’ampleur et la vitesse et nous ne connaîtrons pas l’étendue du problème.

Défaut de diligence raisonnable

Selon le rapport, les États et les entreprises se sont souvent précipités pour intégrer des applications d’IA, sans faire preuve de diligence raisonnable. Il indique qu’il y a eu de nombreux cas de personnes traitées injustement en raison d’une mauvaise utilisation de l’IA, comme se voir refuser des prestations de sécurité sociale en raison d’outils d’IA défectueux ou arrêtées en raison d’un logiciel de reconnaissance faciale défectueux.

Données discriminatoires

Le document détaille comment les systèmes d’IA reposent sur de grands ensembles de données, avec des informations sur les individus collectées, partagées, fusionnées et analysées de manières multiples et souvent opaques.

Les données utilisées pour informer et guider les systèmes d’IA peuvent être défectueuses, discriminatoires, obsolètes ou non pertinentes, soutient-il, ajoutant que le stockage à long terme des données présente également des risques particuliers, car les données pourraient à l’avenir être exploitées de manière encore inconnue. .

« Compte tenu de la croissance rapide et continue de l’IA, combler l’immense écart de responsabilité dans la manière dont les données sont collectées, stockées, partagées et utilisées est l’une des questions les plus urgentes en matière de droits humains auxquelles nous sommes confrontés », a déclaré Mme Bachelet.

Le rapport a également déclaré que de sérieuses questions devraient être soulevées sur les inférences, les prédictions et la surveillance par les outils d’IA, y compris la recherche d’informations sur les modèles de comportement humain.

Il a constaté que les ensembles de données biaisés sur lesquels s’appuient les systèmes d’IA peuvent conduire à des décisions discriminatoires, qui constituent des risques aigus pour des groupes déjà marginalisés. « C’est pourquoi il faut une évaluation et un suivi systématiques des effets des systèmes d’IA pour identifier et atténuer les risques pour les droits humains », a-t-elle ajouté.

Technologies biométriques

Une solution de plus en plus incontournable pour les États, les organisations internationales et les entreprises technologiques sont les technologies biométriques, qui, selon le rapport, constituent un domaine « où davantage de directives en matière de droits de l’homme sont nécessaires de toute urgence ».

Ces technologies, dont la reconnaissance faciale, sont de plus en plus utilisées pour identifier les personnes en temps réel et à distance, permettant potentiellement un suivi illimité des individus.

Le rapport réitère les appels à un moratoire sur leur utilisation dans les espaces publics, au moins jusqu’à ce que les autorités puissent démontrer qu’il n’y a pas de problèmes importants d’exactitude ou d’impacts discriminatoires et que ces systèmes d’IA sont conformes à de solides normes de confidentialité et de protection des données.

Plus de transparence nécessaire

Le document souligne également le besoin d’une plus grande transparence de la part des entreprises et des États dans la manière dont ils développent et utilisent l’IA.

« La complexité de l’environnement de données, des algorithmes et des modèles sous-jacents au développement et au fonctionnement des systèmes d’IA, ainsi que le secret intentionnel du gouvernement et des acteurs privés sont des facteurs qui sapent les moyens significatifs pour le public de comprendre les effets des systèmes d’IA sur les droits de l’homme et la société », indique le rapport.

Garde-corps indispensable

« Nous ne pouvons pas nous permettre de continuer à rattraper le retard concernant l’IA – en autorisant son utilisation avec des limites ou une surveillance limitées ou inexistantes et en traitant les conséquences presque inévitables sur les droits de l’homme après coup.

« Le pouvoir de l’IA de servir les gens est indéniable, mais il en va de même de la capacité de l’IA à alimenter les violations des droits humains à une échelle énorme sans pratiquement aucune visibilité. Des mesures sont nécessaires maintenant pour mettre des garde-fous des droits de l’homme sur l’utilisation de l’IA, pour le bien de nous tous », a souligné Mme Bachelet.

Laisser un commentaire