Jeu d’enfant numérique : protéger les enfants des impacts de l’IA |


Les enfants interagissent déjà avec les technologies d’IA de différentes manières : elles sont intégrées dans des jouets, des assistants virtuels, des jeux vidéo et des logiciels d’apprentissage adaptatif. Leur impact sur la vie des enfants est profond, mais l’UNICEF a constaté que, lorsqu’il s’agit de politiques et de pratiques d’IA, les droits des enfants sont au mieux une réflexion après coup.

En réponse, l’agence des Nations Unies pour l’enfance a élaboré un projet de directives sur l’IA pour les enfants afin de promouvoir les droits de l’enfant et de sensibiliser à la manière dont les systèmes d’IA peuvent défendre ou miner ces droits.

Conor Lennon de UN News a interrogé Jasmina Byrne, responsable des politiques de l’équipe UNICEF Global Insights, et Steven Vosloo, spécialiste des données, de la recherche et des politiques de l’UNICEF, sur l’importance de placer les enfants au centre des politiques liées à l’IA.
La technologie de l’IA va fondamentalement changer la société.


Steven Vosloo, spécialiste des données, de la recherche et des politiques à l'UNICEF

Steven Vosloo, spécialiste des données, de la recherche et des politiques de l’UNICEF, par l’UNICEF

Steven Vosloo À l’UNICEF, nous avons vu que l’IA était un sujet très brûlant et quelque chose qui allait fondamentalement changer la société et l’économie, en particulier pour les générations à venir. Mais lorsque nous avons examiné les stratégies nationales d’IA et les politiques et directives des entreprises, nous nous sommes rendu compte que l’on n’accordait pas assez d’attention aux enfants et à l’impact de l’IA sur eux.

Nous avons donc entamé un vaste processus de consultation, en nous adressant à des experts du monde entier et à près de 250 enfants, dans cinq pays. Ce processus a conduit à notre projet de document d’orientation et, après sa publication, nous avons invité les gouvernements, les organisations et les entreprises à le piloter. Nous développons des études de cas autour de l’orientation, afin que nous puissions partager les leçons apprises.

Jasmina Byrne L’IA est en développement depuis de nombreuses décennies. Il n’est ni nocif ni bienfaisant en soi. C’est l’application de ces technologies qui les rend bénéfiques ou nuisibles.

Il existe de nombreuses applications positives de l’IA qui peuvent être utilisées dans l’éducation pour un apprentissage personnalisé. Il peut être utilisé dans les soins de santé, la simulation et le traitement du langage, et il est utilisé pour soutenir les enfants handicapés.

Et nous l’utilisons à l’UNICEF. Par exemple, cela nous aide à prévoir la propagation des maladies et à améliorer les estimations de la pauvreté. Mais il existe également de nombreux risques associés à l’utilisation des technologies de l’IA.

Les enfants interagissent tout le temps avec les technologies numériques, mais ils ne sont pas conscients, et de nombreux adultes ne le sont pas, que bon nombre des jouets ou des plates-formes qu’ils utilisent sont alimentés par l’intelligence artificielle. C’est pourquoi nous avons pensé qu’il fallait accorder une attention particulière aux enfants et à cause de leurs vulnérabilités particulières.


Enfants utilisant des ordinateurs

UNICEF/Diefaga

Enfants utilisant des ordinateurs

La vie privée et l’appât du gain

Steven Vosloo L’IA pourrait utiliser le traitement du langage naturel pour comprendre les mots et les instructions, et elle collecte donc beaucoup de données de cet enfant, y compris des conversations intimes, et ces données sont stockées dans le cloud, souvent sur des serveurs commerciaux. Donc, il y a des problèmes de confidentialité.

Nous connaissons également des cas où ces types de jouets ont été piratés, et ils ont été interdits en Allemagne, car ils étaient considérés comme suffisamment sûrs.

Environ un tiers de tous les utilisateurs en ligne sont des enfants. Nous constatons souvent que les jeunes enfants utilisent des plateformes de médias sociaux ou des plateformes de partage de vidéos qui n’ont pas été conçues pour eux.

Ils sont souvent conçus pour un engagement maximal et reposent sur un certain niveau de profilage basé sur des ensembles de données qui peuvent ne pas représenter les enfants.


Jasmina Byrne, chef des politiques de l'équipe UNICEF Global Insights

Jasmina Byrne, chef des politiques de l’équipe UNICEF Global Insights, par l’UNICEF

L’analyse prédictive et le profilage sont particulièrement pertinents lorsqu’il s’agit d’enfants : l’IA peut profiler les enfants d’une manière qui les place dans un certain seau, ce qui peut déterminer le type d’opportunités éducatives qu’ils auront à l’avenir ou les avantages auxquels les parents peuvent accéder pour les enfants . Ainsi, l’IA ne les affecte pas seulement aujourd’hui, mais elle pourrait orienter tout leur parcours de vie dans une direction différente.

Jasmina Byrne L’année dernière, ce fut une grande nouvelle au Royaume-Uni. Le gouvernement a utilisé un algorithme pour prédire les notes finales des lycéens. Et parce que les données entrées dans les algorithmes étaient biaisées en faveur des enfants des écoles privées, leurs résultats étaient vraiment épouvantables et ils discriminaient vraiment beaucoup d’enfants issus de communautés minoritaires. Donc, ils ont dû abandonner ce système.

Ce n’est qu’un exemple de la façon dont, si les algorithmes sont basés sur des données biaisées, cela peut en fait avoir des conséquences très négatives pour les enfants.

« C’est une vie numérique maintenant »

Steven Vosloo Nous espérons vraiment que nos recommandations seront filtrées jusqu’aux personnes qui écrivent réellement le code. Les orientations politiques s’adressent à un large public, des gouvernements et des décideurs politiques qui définissent de plus en plus des stratégies et commencent à réfléchir à la réglementation de l’IA, et du secteur privé qui développe souvent ces systèmes d’IA.

Nous voyons des intérêts concurrents : les décisions concernant les systèmes d’IA doivent souvent équilibrer une incitation au profit par rapport à une éthique. Ce que nous préconisons, c’est un engagement envers une IA responsable qui vienne d’en haut : pas seulement au niveau du data scientist ou du développeur de logiciels, de la haute direction et des hauts ministres du gouvernement.

Jasmina Byrne L’empreinte de données que les enfants laissent en utilisant la technologie numérique est commercialisée et utilisée par des tiers pour leur propre profit et pour leur propre gain. Ils sont souvent ciblés par des publicités qui ne leur conviennent pas vraiment. C’est quelque chose que nous suivons et surveillons de très près.

Cependant, je dirais qu’il y a maintenant plus d’appétit politique pour aborder ces questions, et nous travaillons pour les mettre à l’ordre du jour des décideurs politiques.

Les gouvernements doivent réfléchir et placer les enfants au centre de toutes leurs politiques concernant les technologies numériques de pointe. Si nous ne pensons pas à eux et à leurs besoins. Ensuite, nous passons vraiment à côté de grandes opportunités.

Steven Vosloo Le gouvernement écossais a publié sa stratégie d’IA en mars et a officiellement adopté les orientations politiques de l’UNICEF sur l’IA pour les enfants. Et cela s’explique en partie par le fait que le gouvernement dans son ensemble a adopté la Convention relative aux droits de l’enfant. La vie des enfants n’est plus vraiment en ligne ou hors ligne. Et c’est une vie numérique maintenant.

Cette conversation a été modifiée pour plus de longueur et de clarté. Vous pouvez écouter l’interview ici.


L'UNICEF a élaboré des orientations politiques pour protéger les enfants des impacts potentiels de l'IA

UNICEF/ Schverdfinger

L’UNICEF a élaboré des orientations politiques pour protéger les enfants des impacts potentiels de l’IA

Laisser un commentaire