Revue Coded Bias: Un doc Netflix révélateur face à une technologie raciste


algorithmes à 13 joyaux codés

La scientifique et militante Joy Buolamwini fait face aux conséquences d’algorithmes à préjugés racistes.

7e Empire Media

Quand exactement les ordinateurs ont-ils commencé à prendre des décisions concernant nos soins de santé, nos emplois, notre accès aux opportunités, même si nous pouvons marcher dans la rue sans être arrêtés? Un documentaire perspicace Coded Bias, diffusé sur Netflix à partir du 5 avril, révèle de manière effrayante à quel point la technologie de puissance détient déjà sur nous. Mais cela présente également une génération de militants qui luttent contre cette technologie démesurée façonnée par nos pires échecs humains.

L’histoire commence par Joy Buolamwini. Nous rencontrons cet informaticien infectieusement curieux, né au Canada et élevé au Mississippi, portant des boucles d’oreilles Wakanda dans un bureau du MIT rempli de Lego, lisant non pas une bande dessinée mais un livre sur la façon de faire bandes dessinées. Elle décrit son enthousiasme juvénile pour la technologie comme un moyen de transcender les problèmes du monde – jusqu’à ce qu’un la reconnaissance faciale projet lui a fait réaliser que les échecs humains sont en fait liés aux choses que nous construisons. Le film montre qu’un système d’analyse faciale n’a pas réussi à enregistrer le visage de ce talentueux ingénieur noir, jusqu’à ce qu’elle pose un masque blanc: une métaphore visuelle révélatrice de la façon dont la technologie perpétue les préjugés des personnes qui la fabriquent.

L’analyse faciale devient un point de départ pour la réalisatrice Shalini Kantayya pour élargir habilement la portée. Coded Bias met en lumière la puissance inquiétante non régulée exercée par les algorithmes, la science des données, l’apprentissage automatique et ce que l’on appelle intelligence artificielle, tous faisant appel à des programmeurs, des ingénieurs et des milliardaires qui transmettent leurs préjugés conscients et inconscients. Le résultat est un nouveau monde courageux de machines qui ressemble beaucoup à des structures de pouvoir racistes et sexistes du passé.

Le film se dispense rapidement des comparaisons hollywoodiennes familières avec HAL et le Terminator avant de plonger dans l’histoire d’origine de l’IA: un atelier d’été d’universitaires blancs à l’Université de Dartmouth en 1956. Cela constitue un morceau d’histoire intéressant, mais il met également en place un thème. L’innovation d’aujourd’hui est liée aux décisions non seulement des personnes qui travaillent dans le domaine maintenant, mais des personnes qui ont jeté les bases et nous ont guidés là où nous en sommes aujourd’hui – guidées sciemment ou non par leurs propres attitudes sur ce que la science devrait être et qui c’est pour.

Des théoriciens d’hier (principalement blancs, principalement masculins) aux milliardaires technologiques d’aujourd’hui (principalement blancs, principalement masculins), il y a une continuité marquée entre qui était en charge à l’époque et qui est en charge maintenant. «Les données sont le reflet de notre histoire», comme le dit Buolamwini. « Le passé réside dans nos algorithmes. »

Ce n’est pas une expérience de pensée troublante mais abstraite. L’IA façonne nos vies maintenant. Coded Bias répertorie des exemples réels d’algorithmes qui prennent déjà des décisions concernant votre crédit, votre santé, votre logement, votre université ou vos demandes d’emploi, même votre accès aux possibilités. Le système tient entre ses mains l’espoir d’une vie meilleure – et il n’y a aucun attrait si l’ordinateur dit non.


Lecture en cours:
Regarde ça:

Reconnaissance faciale: découvrez la technologie qui permet de …


5:11

Il est alarmant de voir combien de puissance mondiale s’accumule avec les «neuf grands» géants de la technologie: Amazon, Google, Facebook, Tencent, Baidu, Alibaba, Microsoft, IBM et Apple. Encore plus sinistre est la perspective que les forces de l’ordre s’emparent de la nouvelle technologie avant qu’elle ne soit testée ou pesée par les législateurs. Bien sûr, nous pouvons pointer vers L’inquiétant système de crédit social de style Black Mirror en Chine et dis au moins que nous ne sommes pas comme cette. Mais dans les économies capitalistes prétendument démocratiques, le problème est en fait plus insidieux: plus de 117 millions de personnes aux États-Unis sont enregistrées dans des réseaux de reconnaissance faciale, par exemple.

Dans les rues incrustées de caméras de Londres, le film rencontre le groupe d’activistes Big Brother Watch qui monte des défis juridiques de haut niveau contre la surveillance de masse. et battre le trottoir en aidant les passants qui ont été collés par la police parce qu’une caméra cachée les a signalés. Une scène montre un écolier emballé dans une rue animée par un groupe d’officiers sans uniforme lorsqu’un système d’analyse faciale l’a mal identifié. L’écolier était noir. Une autre scène montre une confrontation absurde alors que la police inflige une amende à un homme qui s’est couvert le visage en passant devant une caméra de reconnaissance faciale. Même si la technologie été précis dans l’identification des suspects – ce n’est vraiment pas – les officiers de justice l’utilisent clairement pour désigner un comportement comme suspect, provoquer ce comportement même et fabriquer une punition.

Si l’analyse faciale ne peut pas reconnaître avec précision les visages noirs et que l’apprentissage automatique ne peut pas déceler les préjugés humains qui s’infiltrent dans les données qui les alimentent, alors la technologie n’a clairement pas sa place pour exercer une influence aussi monumentale sur les gens.

Le film repousse l’idée séduisante mais dangereuse selon laquelle la technologie en général est neutre et peut se voir déléguer des décisions difficiles. Permettre à la technologie de prendre des décisions aussi importantes signifie renoncer à la responsabilité des fractures sociales et culturelles catastrophiques que l’humanité a alimentées au fil des générations. Si nous laissons les ordinateurs réfléchir, même si cela signifie qu’ils continuent de faire les mêmes erreurs que nous, nous refusons de tenir compte de ces erreurs.

Coded Bias est un avertissement essentiel, mais il n’est pas là pour vous plonger dans le désespoir existentiel alors que vous retombez dans le doom-scrolling sur votre smartphone. Buolamwini, qui a fondé le groupe de campagne Algorithmic Justice League pour lutter contre les préjugés dans les systèmes de prise de décision, incarne l’espoir. Tout au long du film, elle et les cinéastes recherchent et s’associent à d’autres militants, de nombreux Noirs, de nombreuses femmes, détruisant des monolithes de contrôle invisibles depuis les immeubles d’appartements et les salons de coiffure et les laboratoires du MIT jusqu’aux couloirs du pouvoir.

S’il y a une chose à retenir du biais codé, c’est que cela doit être contesté maintenant. Nous avons opté pour un projet de surveillance d’une ampleur inimaginable contrôlé par une poignée d’entreprises à but lucratif, de milliardaires et d’États dans lequel les législateurs démocratiquement élus et les citoyens eux-mêmes sont en retard, et nous n’avons pas lu les termes et conditions. Mais Buolamwini et une ligue d’activistes du monde entier ont déjà affecté un réel changement en tant que les géants de la technologie repensent leurs systèmes et les législateurs s’attaquent aux implications.

Le documentaire perspicace Coded Bias ne commence pas seulement par la reconnaissance faciale: il reconnaît les femmes confrontées à l’avenir.



Laisser un commentaire