Alexa devrait-elle lire nos humeurs? | Commentaire


Si Alexa d’Amazon pense que vous avez l’air triste, devrait-elle vous suggérer d’acheter un gallon de crème glacée?

Joseph Turow dit absolument impossible. Turow, professeur à la Annenberg School for Communication de l’Université de Pennsylvanie, a fait des recherches sur des technologies comme Alexa pour son nouveau livre, «The Voice Catchers». Il est reparti convaincu que les entreprises ne devraient pas pouvoir analyser ce que nous disons et notre son pour recommander des produits ou personnaliser les messages publicitaires.

La suggestion de Turow est remarquable en partie parce que le profilage des personnes en fonction de leur voix n’est pas répandu. Ou, ce n’est pas encore le cas. Mais il encourage les décideurs et le public à faire quelque chose que j’aimerais que nous fassions plus souvent: soyez prudent et prévenant sur la façon dont nous utilisons une technologie puissante avant qu’elle ne soit utilisée pour des décisions conséquentes.

Après des années de recherche sur les attitudes évolutives des Américains à propos de nos flux numériques de données personnelles, Turow a déclaré que certaines utilisations de la technologie présentaient tellement de risques pour si peu d’avantages qu’elles devraient être arrêtées avant qu’elles ne prennent de l’ampleur.

Dans ce cas, Turow craint que les technologies vocales, y compris Alexa et Siri d’Apple, ne se transforment de majordomes numériques en devins qui utilisent le son de nos voix pour élaborer des détails intimes tels que nos humeurs, nos désirs et nos conditions médicales. En théorie, ils pourraient un jour être utilisés par la police pour déterminer qui doit être arrêté ou par les banques pour dire qui mérite une hypothèque.

«Utiliser le corps humain pour discriminer les gens est quelque chose que nous ne devrions pas faire», a-t-il déclaré.

Certains paramètres commerciaux tels que les centres d’appels le font déjà. Si les ordinateurs évaluent que vous avez l’air en colère au téléphone, vous pourriez être redirigé vers des opérateurs spécialisés dans l’apaisement des gens. Spotify a également divulgué un brevet sur la technologie pour recommander des chansons basées sur des indices vocaux sur les émotions, l’âge ou le sexe de l’orateur. Amazon a déclaré que son bracelet et son service de suivi de la santé Halo analyseront «l’énergie et la positivité dans la voix d’un client» pour inciter les gens à améliorer leurs communications et relations.

Turow a déclaré qu’il ne voulait pas arrêter les utilisations potentiellement utiles du profilage vocal – par exemple, pour dépister les gens pour des problèmes de santé graves, y compris le COVID-19. Mais il y a très peu d’avantages pour nous, a-t-il dit, si les ordinateurs utilisent les inférences de notre discours pour nous vendre du détergent à vaisselle.

«Nous devons interdire le profilage vocal à des fins de marketing», m’a dit Turow. «Il n’y a aucune utilité pour le public. Nous créons un autre ensemble de données dont les gens ne savent pas comment ils sont utilisés. »

Turow exploite un débat sur la façon de traiter une technologie qui pourrait avoir d’énormes avantages, mais aussi des inconvénients que nous ne verrons peut-être pas venir. Le gouvernement devrait-il essayer de promulguer des règles et des réglementations concernant une technologie puissante avant qu’elle ne soit largement utilisée, comme cela se passe en Europe, ou la laisser la plupart du temps tranquille à moins que quelque chose de mal ne se produise?

Le problème est qu’une fois que des technologies telles que les logiciels de reconnaissance faciale ou les trajets en voiture en appuyant simplement sur un bouton de smartphone deviennent répandues, il est plus difficile de retirer des fonctionnalités qui s’avèrent nuisibles.

Je ne sais pas si Turow a raison de sonner l’alarme sur l’utilisation de nos données vocales à des fins de marketing. Il y a quelques années, il y avait beaucoup de battage médiatique selon lequel la voix deviendrait un moyen majeur de magasiner et de découvrir de nouveaux produits. Mais personne n’a prouvé que les mots que nous disons à nos gadgets sont des prédicteurs efficaces du nouveau camion que nous achèterons.

J’ai demandé à Turow si les gens et les régulateurs gouvernementaux devraient s’inquiéter des risques hypothétiques qui pourraient ne jamais se présenter. Lire nos pensées à partir de nos voix peut ne pas fonctionner dans la plupart des cas, et nous n’avons pas vraiment besoin de plus de choses pour nous sentir paniqués.

Turow a reconnu cette possibilité. Mais je me suis rallié à son argument selon lequel il vaut la peine d’entamer une conversation publique sur ce qui pourrait mal tourner avec la technologie vocale et de décider ensemble où se trouvent nos lignes rouges collectives – avant qu’elles ne soient franchies.

Laisser un commentaire