L’IA explicable est essentielle dans l’éducation


L’adoption de l’Edtech dans nos écoles a augmenté pendant la pandémie et, si l’on en croit les rapports, l’adoption de l’intelligence artificielle (IA) a également augmenté régulièrement. Il s’agit d’une évolution largement positive, mais les chefs d’établissement et les enseignants comprennent-ils vraiment la technologie ? L’IA est souvent adaptative et autodidacte, ce qui signifie que ce qu’elle comprend déjà sur un apprenant l’amènera à tirer des conclusions particulières sur les besoins futurs de cet apprenant.

Alors que de plus en plus d’écoles utilisent des technologies basées sur l’IA, il est de plus en plus important que les enseignants sachent comment la technologie prend des décisions. Les enseignants doivent comprendre non seulement ce qu’un enfant a appris, mais aussi comment il l’a appris. Pour que cela soit possible, les fournisseurs de technologies basées sur l’IA doivent expliquer comment ils décident d’un plan d’action particulier. Par exemple, l’IA conçue pour aider à enseigner une langue étrangère peut vous recommander de réviser certains mots plus fréquemment que d’autres, en fonction des données sur les mots que vous avez oubliés le plus rapidement.

Ambiguïté de l’IA

Il peut être difficile d’expliquer comment les programmes d’IA prennent des décisions ou pourquoi ils font ce qu’ils font. Même lorsque vous avez une explication, elle peut être encore floue, des choses comme « L’IA a pris une décision parce que les données passées suggèrent qu’il s’agit d’un choix optimal » n’aidera pas un enseignant à expliquer à un élève pourquoi il doit maintenant revenir à un sujet qu’il pense comprendre.

Cette forme d’IA, souvent appelée « IA boîte noire », peut être incroyablement puissante et efficace. Mais l’éducation est trop importante pour être confiée à une boîte noire impénétrable – au lieu de cela, elle a besoin d’une IA explicable.

L’IA explicable n’est pas un nouveau concept dans les cercles de l’IA ; en effet, l’UE propose de nouvelles réglementations dans ce domaine, mais son importance doit être comprise par les chefs d’établissement et les enseignants. L’IA explicable signifie que les résultats d’une réponse alimentée par l’IA peuvent être compris par les humains. Cela contraste avec l’IA boîte noire où même les concepteurs d’un outil ne peuvent parfois pas expliquer pourquoi un programme d’IA est arrivé à une décision spécifique. Le choix fait par l’IA ne doit pas toujours être le même qu’un humain ferait, mais un humain devrait être capable de comprendre le processus par lequel la décision a été prise.

Le choix fait par l’IA ne doit pas toujours être le même qu’un humain ferait, mais un humain devrait être capable de comprendre le processus par lequel la décision a été prise

AI pour élever, pas déprécier

Pour les ressources de classe comme Sparx, cela signifie qu’un enseignant utilisant l’IA devrait pouvoir demander « Pourquoi est-ce qu’on pose cette question à cet élève ? » et recevez une réponse claire. Si ce n’est pas le cas, alors je me demande s’il a sa place dans la classe. Les enseignants apportent le jugement professionnel et les connaissances de leurs élèves, qui manqueront toujours à l’IA. Une IA percutante et compréhensible doit impliquer les enseignants et leurs connaissances d’experts.

Une IA percutante et compréhensible doit impliquer les enseignants et leurs connaissances d’experts

La croissance de l’IA dans les écoles doit être adoptée ; cela peut faire gagner du temps aux enseignants et fournir un niveau d’apprentissage personnalisé qui serait un défi pour tout enseignant. Cependant, nous devons nous assurer qu’il repose sur des principes qui signifient qu’on peut lui faire confiance à long terme. Les enseignants prennent des décisions en gardant à l’esprit les meilleurs intérêts de leurs élèves et ils doivent être sûrs que tout outil d’IA amplifiera, plutôt que contredira, ces décisions.

J’encourage les chefs d’établissement à mettre au défi les entreprises edtech utilisant l’IA pour décrire comment un enseignant peut comprendre, au niveau d’un élève individuel, pourquoi l’IA a sélectionné une question ou une ressource particulière. C’est une question simple et la réponse doit être facile à comprendre, si c’est le cas, vous pouvez être sûr qu’ils sont attachés à une IA explicable.


Vous aimerez peut-être aussi : Les mégadonnées sont notre amie – voici comment elles peuvent aider à uniformiser les règles du jeu dans l’éducation


Laisser un commentaire