Une ville indienne envisage la reconnaissance faciale pour repérer les «femmes en détresse» | Actualités technologiques


Un plan de surveillance des expressions des femmes avec la technologie de reconnaissance faciale pour empêcher le harcèlement de rue dans une ville du nord de l’Inde entraînera des contrôles intrusifs et des violations de la vie privée, ont averti des experts des droits numériques.

À Lucknow, capitale de l’État indien d’Uttar Pradesh le plus peuplé, la police a identifié quelque 200 points chauds de harcèlement que les femmes visitent souvent et où la plupart des plaintes sont signalées, a déclaré le commissaire de police DK Thakur.

« Nous installerons cinq caméras basées sur l’IA qui seront capables d’envoyer une alerte au poste de police le plus proche », a-t-il dit, faisant référence à la technologie basée sur l’intelligence artificielle.

«Ces caméras deviendront actives dès que les expressions d’une femme en détresse changeront», a-t-il déclaré aux journalistes cette semaine, sans donner plus de détails sur les expressions qui déclencheraient une alerte.

La technologie de reconnaissance faciale est de plus en plus déployée dans les aéroports, les gares et les cafés à travers l’Inde, avec des plans pour des systèmes nationaux pour moderniser la force de police et ses processus de collecte d’informations et d’identification criminelle.

Mais les analystes technologiques et les experts en protection de la vie privée affirment que les avantages ne sont pas clairs et pourraient porter atteinte à la vie privée des gens ou conduire à une surveillance accrue, avec peu de clarté sur le fonctionnement de la technologie, la manière dont les données sont stockées et qui peut accéder aux données.

«L’idée selon laquelle les caméras vont surveiller les expressions des femmes pour voir si elles sont en détresse est absurde», a déclaré Anushka Jain, avocate associée à la Fondation pour les droits numériques à but non lucratif Internet Freedom Foundation.

«Quelle est l’expression d’une personne en détresse – est-ce de la peur, de la colère? Je pourrais parler à ma mère au téléphone, me mettre en colère et faire la grimace – cela déclenchera-t-il une alerte et enverra-t-il un policier?

Une solution plus faisable consisterait à augmenter le nombre de patrouilles de police, a déclaré Jain à la Fondation Thomson Reuters, ajoutant que la technologie n’a pas été testée et pourrait conduire à une surveillance excessive et au harcèlement des femmes qui déclenchent des alertes.

L’Inde est l’un des endroits les plus dangereux au monde pour les femmes, avec un viol toutes les 15 minutes, selon les données du gouvernement.

L’Uttar Pradesh est l’État le moins sûr, avec le plus grand nombre de crimes contre les femmes signalés en 2019.

La police refuse souvent les femmes qui déposent des plaintes ou ne prennent aucune mesure, a déclaré Roop Rekha Verma, une militante des droits des femmes à Lucknow.

«Et ils veulent nous faire croire qu’ils agiront en regardant nos expressions faciales», a-t-elle déclaré.

L’Inde a lancé une série de réformes juridiques après un viol collectif mortel en 2012, y compris des mécanismes plus simples pour signaler les crimes sexuels, des tribunaux accélérés et une loi sur le viol plus sévère avec la peine de mort, mais les taux de condamnation restent faibles.

Alors qu’il y a une réaction croissante contre la technologie de reconnaissance faciale aux États-Unis et en Europe, les responsables indiens ont déclaré qu’elle était nécessaire pour renforcer un pays gravement sous-surveillé, arrêter les criminels et retrouver des enfants disparus.

Mais les militants des droits numériques affirment que son utilisation est problématique sans loi sur la protection des données, et qu’elle menace le droit à la vie privée, qui a été déclaré comme un droit fondamental par la Cour suprême dans une décision historique en 2017.

«La police utilise la technologie pour résoudre un problème sans considérer que cela deviendra simplement une nouvelle forme de surveillance, une nouvelle forme d’exercice du pouvoir sur les femmes», a déclaré Vidushi Marda, chercheur au groupe de défense des droits humains Article 19.

«L’IA n’est pas une solution miracle et aucune technologie« sophistiquée »ne peut résoudre les problèmes de société», a-t-elle déclaré.



Laisser un commentaire