Le LAPD essaie de prédire les crimes avec de mauvaises données – encore une fois | La technologie


En 2011, le service de police de Los Angeles a déployé une nouvelle approche de la police appelée Opération Laser. Laser – qui signifiait Los Angeles Strategic Extraction and Restoration – était le premier programme de police prédictive de ce type aux États-Unis, permettant au LAPD d’utiliser des données historiques pour prédire avec une précision laser (d’où le nom) où de futurs crimes pourraient être commis et qui pourrait les commettre.

Mais c’était tout sauf précis. Le programme a utilisé des données historiques sur la criminalité telles que des arrestations, des appels de service, des cartes d’entretien sur le terrain – que la police a remplies avec des informations d’identification chaque fois qu’elle arrêtait quelqu’un, quelle qu’en soit la raison – et plus encore pour cartographier les « domaines à problèmes » sur lesquels les agents pourraient concentrer leurs efforts. ou attribuer des scores de risque criminel aux individus. Les informations recueillies au cours de ces efforts de maintien de l’ordre ont été introduites dans un logiciel informatique qui a contribué à automatiser davantage les efforts de prédiction de la criminalité du département. L’image de la criminalité présentée par le logiciel, selon des groupes d’activistes tels que la Stop LAPD Spying Coalition, a simplement validé les modèles et décisions de police existants, criminalisant intrinsèquement les lieux et les personnes sur la base d’une hypothèse controversée (c’est-à-dire que là où des crimes ont déjà eu lieu, ils se reproduiront ). Les données utilisées par le LAPD pour prédire l’avenir étaient truffées de biais, conduisant à un contrôle excessif et à un ciblage disproportionné des communautés noires et brunes – souvent les mêmes qu’elles ciblaient depuis des années, selon les experts.

Environ cinq ans après le début du programme, le LAPD s’est concentré sur une intersection dans un quartier du sud de LA où le regretté rappeur Nipsey Hussle était connu pour fréquenter, ont révélé des documents que mon collègue Sam Levin et moi avons examinés et rapportés pour la première fois en novembre. C’était l’intersection le long de laquelle il a grandi et a ouvert plus tard un magasin de vêtements phare comme une ode à son quartier et un moyen de faire avancer la communauté sur le plan économique. Là, à la recherche d’un suspect de vol qualifié uniquement comme un homme noir âgé de 16 à 18 ans, le LAPD a arrêté 161 personnes en l’espace de deux semaines. Nipsey Hussle s’était également plaint du harcèlement constant de la police avant cette date, affirmant dès 2013 que les agents du LAPD « sortez, posez des questions, prenez votre nom, votre adresse, votre numéro de téléphone portable, votre réseau social, quand vous n’êtes pas rien fait. Juste pour qu’ils connaissent tout le monde dans le quartier. Dans une interview avec Sam Levin, le frère de Nipsey, Samiel Asghedom, a déclaré que personne ne pouvait se rendre au magasin sans être arrêté par la police. Les frères et copropriétaires du magasin The Marathon Clothing ont même envisagé de déménager le magasin pour éviter le harcèlement.

En fin de compte, le LAPD a été contraint de fermer le programme, concédant que les données ne donnaient pas une image complète.

Avance rapide près de 10 ans plus tard : le LAPD travaille avec une société appelée Voyager Analytics à titre d’essai. Les documents que le Guardian a examinés et écrits en novembre montrent que Voyager Analytics a affirmé qu’il pouvait utiliser l’IA pour analyser les profils de médias sociaux afin de détecter les menaces émergentes en fonction des amis, des groupes, des publications, etc. d’une personne. C’était essentiellement l’Opération Laser pour le monde numérique. Au lieu de se concentrer sur des lieux ou des personnes physiques, Voyager a examiné les mondes numériques des personnes d’intérêt pour déterminer si elles étaient impliquées dans des réseaux criminels ou prévoyaient de commettre de futurs crimes, en fonction des personnes avec lesquelles elles ont interagi, des choses qu’elles ont publiées et même leurs amis d’amis. « C’est un système de » culpabilité par association «  », a déclaré Meredith Broussard, professeur de journalisme de données à l’Université de New York.

Voyager revendique que toutes ces informations sur les individus, les groupes et les pages permettent à son logiciel d’effectuer une « analyse des sentiments » en temps réel et de trouver de nouvelles pistes lors de l’enquête sur la « solidarité idéologique ». « Nous ne nous contentons pas de connecter des points existants », lit-on dans un document promotionnel de Voyager. « Nous créons de nouveaux points. Ce qui semble être des interactions, des comportements ou des intérêts aléatoires et sans conséquence, deviennent soudainement clairs et compréhensibles.

Mais des systèmes comme Voyager Labs et Operation Laser ne sont bons que par les données sur lesquelles ils sont basés – et les données biaisées produisent des résultats biaisés.

Dans une étude de cas montrant comment le logiciel de Voyager pourrait être utilisé pour détecter les personnes qui « s’identifient le plus complètement à une position ou à un sujet donné », la société a examiné les façons dont elle aurait analysé la présence sur les réseaux sociaux d’Adam Alsahli, qui a été tué en dernier. année en tentant d’attaquer la base navale de Corpus Christi au Texas. Voyager a déclaré que le logiciel considérait que le profil d’Alsahli montrait une forte propension au fondamentalisme. La preuve qu’ils ont signalée incluait que 29 des 31 publications d’Alsahli sur Facebook étaient des images avec des thèmes islamiques et que l’un des comptes Instagram d’Alsahli, qui a été expurgé dans les documents, reflétait « sa fierté et son identification avec son héritage arabe ». La société a également souligné que parmi les comptes qu’il suivait sur Instagram « la plupart sont en arabe » et « semblent généralement » être des comptes publiant du contenu religieux. Sur son compte Twitter, a écrit Voyager, Alsahli a principalement tweeté sur l’islam.

Bien que l’étude de cas ait été rédigée, de nombreux aspects de ce que Voyager considérait comme des signaux de fondamentalisme pourraient également être qualifiés de liberté d’expression ou d’autre activité protégée. L’étude de cas, du moins les parties que nous avons pu voir, se lit comme les profils de médias sociaux de votre père musulman moyen.

Bien que l’application puisse sembler différente, ce que montrent les deux cas, c’est le désir constant des forces de l’ordre de faire progresser leur maintien de l’ordre, et les limites – et dans certains cas le biais – profondément ancrées dans les données utilisées dans les systèmes. Certains militants affirment que la police utilise des systèmes censés utiliser l’intelligence artificielle et d’autres technologies de pointe pour faire ce qu’elle n’est vraiment pas capable de faire, c’est-à-dire analyser le comportement humain pour prédire la criminalité future. Ce faisant, ils créent souvent une boucle de rétroaction vicieuse.

La principale différence est qu’il y a maintenant tout un secteur de la technologie qui réclame pour répondre à l’appel des forces de l’ordre pour des systèmes plus avancés. Et les entreprises technologiques qui créent des programmes de surveillance ou de police manifestes, mais aussi des entreprises technologiques grand public avec lesquelles la personne moyenne interagit quotidiennement, comme Amazon, répondent à l’appel. Amazon, de son côté, a spécifiquement travaillé avec le LAPD pour donner à ses agents l’accès à son réseau de caméras Ring. Pour la police, la motivation de tels partenariats est claire, une telle technologie donnant du crédit à leurs décisions policières et rendant potentiellement leur travail plus facile ou plus efficace. Pour les entreprises technologiques, la motivation est de puiser dans les flux de revenus avec un potentiel de croissance. Il est difficile de résister au contrat lucratif du gouvernement avec un financement apparemment sans fin, d’autant plus que de nombreuses autres voies de croissance ont commencé à se tarir. C’est pourquoi l’opposition interne des employés n’a pas dissuadé des entreprises comme Google, qui continue à rechercher des contrats militaires malgré des années de conflits entre les employés.

Du New York Times : « En 2018, des milliers d’employés de Google ont signé une lettre pour protester contre l’implication de l’entreprise dans le projet Maven, un programme militaire qui utilise l’intelligence artificielle pour interpréter des images vidéo et pourrait être utilisé pour affiner le ciblage des frappes de drones. La direction de Google a cédé et a accepté de ne pas renouveler le contrat une fois celui-ci expiré.

Le tollé a conduit Google à créer des lignes directrices pour l’utilisation éthique de l’intelligence artificielle, qui interdisent l’utilisation de sa technologie à des fins d’armes ou de surveillance, et a accéléré le bouleversement de son activité de cloud computing. Maintenant, alors que Google positionne le cloud computing comme un élément clé de son avenir, l’offre pour le nouveau contrat avec le Pentagone pourrait tester les limites de ces principes d’IA, qui le distinguent des autres géants de la technologie qui recherchent régulièrement un travail militaire et de renseignement.

Où va une entreprise comme Google, qui a développé ses activités de telle sorte que ses tentacules se trouvent probablement dans tous les secteurs, pour continuer à développer ses activités ? À l’heure actuelle, la réponse semble fonctionner avec le gouvernement.

Lecteurs, j’aimerais savoir ce que vous pensez des entreprises technologiques travaillant avec les forces de l’ordre pour les équiper de services de police prédictifs ou d’autres technologies de surveillance.

Le TechScape plus large

En parlant de surveillance, le groupe de défense Surveillance Technology Oversight Project a publié une nouvelle carte indiquant où se trouvent toutes les caméras Hikvision compatibles Internet à New York. Il y en a environ 17 000 répartis dans les arrondissements, ce qui, selon le groupe, pourrait facilement être associé à la reconnaissance faciale, que le groupe décrit comme une « technologie sujette aux erreurs, biaisée et invasive qui fait l’objet d’un examen national croissant ». Hikvision est également, comme je l’ai souligné dans le passé, une entreprise qui a fait l’objet d’un examen minutieux pour sa complicité présumée dans la campagne en cours de la Chine contre les Ouïghours. Hikvision a développé des fonctionnalités de détection ouïghoures et a remporté un contrat avec le gouvernement chinois pour installer des caméras de reconnaissance faciale devant les mosquées et les camps de rééducation.

Dans l’actualité non liée à la surveillance, les entreprises technologiques ne sont pas épargnées par la récente vague d’Omicron. Alors qu’Amazon a annulé ses protocoles de sécurité dans les entrepôts, un seul entrepôt de l’Oregon a enregistré un pic de 51 cas entre le 28 novembre et le 12 décembre, selon le Markup. Ils rapportent que depuis le printemps dernier :

Au moins cinq des entrepôts de l’entreprise dans l’État ont connu des épidémies… des épidémies toujours actives durent depuis plus de 565 jours, soit plus longtemps que sur tout autre lieu de travail de l’Oregon, y compris les hôpitaux et les prisons de l’État, selon les dossiers. Mais au lieu de renforcer les mesures de sécurité, Amazon a annulé les protocoles de pandémie dans ses entrepôts de l’Oregon et du pays, citant les vaccinations comme le meilleur moyen de réduire la transmission du virus. »

Dans une déclaration au Markup, Amazon a déclaré que la société se conforme à toutes les directives sanitaires locales et nationales.

Au moins 132 employés du siège de SpaceX à Los Angeles ont été testés positifs pour Covid-19, selon Bloomberg. Cela en ferait la plus grande épidémie sur le lieu de travail dans le comté de Los Angeles. Dans une note aux travailleurs, SpaceX a déclaré que l’épidémie provenait de septembre lorsque « plusieurs employés qui travaillent dans le même domaine ont contracté Covid en dehors du travail lors d’un événement non lié au travail ». Un seul des 132 salariés est suspecté de contracter le virus au travail.

Laisser un commentaire