Un célèbre dilemme

Cette semaine, deux importantes annonces ont été faites dans le vaste dossier des technologies à l’école. Pour commencer, on a appris que tous les élèves des cinquième et sixième années du centre de services des Premières-Seigneuries recevront d’ici juin un ordinateur portable. L’objectif de ce programme est de favoriser la réussite.

C’est ce même objectif que vise à sa manière un projet que le ministère de l’Éducation présente comme un « virage numérique sans précédent » et dans lequel il investit 10,6 millions de dollars sur deux ans. On mise cette fois sur l’intelligence artificielle (IA), par laquelle on cherchera à améliorer la réussite scolaire des élèves en repérant ceux qui sont à risque (d’échec et de décrochage) afin d’intervenir efficacement auprès d’eux.

Ce vaste dossier des technologies à l’école, celles d’hier comme celles d’aujourd’hui (l’ordinateur), mais surtout celles de demain (l’IA), est un vrai champ de mines intellectuel.

Le champ de mines

 

Pour y avancer avec un minimum de sécurité, il faudrait bien des choses. Par exemple, il faudrait bien connaître le domaine concerné — l’informatique et l’IA, ici — et ce qu’il peut et ne peut pas promettre, si tant est qu’on le sache. Il faudrait aussi connaître, là où il y en a, les résultats de recherches crédibles concernant les effets avérés, notamment sur les élèves, de telle ou telle pratique ; comparer, le cas échéant, ces résultats à ceux que l’on obtenait ou qu’on aurait pu obtenir sans avoir recours à ces nouveaux outils ; et considérer les coûts des pratiques implantées, tant sur le plan financier qu’en ce qui concerne leurs effets sur le personnel des écoles.

Dans tous ces cas, on devrait garder en état d’alerte notre détecteur de poutine afin de nous prémunir contre les recherches intéressées, de ne pas négliger de prendre en compte le poids des intérêts économiques en jeu et leur impact, et d’évaluer comment joue dans tout cela une certaine technophilie que souvent rien ne justifie. Sans oublier de réfléchir à long terme aux situations où des effets relativement positifs peuvent, en cours de route, le devenir moins.

Ce n’est pas une mince tâche, et j’avoue ne pas avoir les compétences nécessaires pour faire tout ce travail. Prenez l’IA : je m’y intéresse surtout du point de vue philosophique et me questionne avec d’autres sur ce qu’elle pourra apporter au problème de la conscience. Pour citer un bon mot célèbre, s’agit-il d’intelligence artificielle ou de stupidité naturelle ? Mais tout ça n’est pas d’un grand secours pour penser les répercussions possibles de l’IA en éducation — ou ailleurs. À ce sujet, chez des auteurs qui semblent s’y connaître, les conclusions varient du tout au tout et nous annoncent qui l’enfer, qui le paradis, qui le purgatoire.

Je ne pense pas être seul à être incapable de me prononcer avec assurance sur tout ce que j’ai énuméré. Cela dit, s’agissant de l’éducation, certaines choses peuvent être dites avec une relative confiance.

L’histoire montre, par exemple, depuis le lointain audiovisuel jusqu’à l’ordinateur et l’IA en passant par les tableaux interactifs et autres gadgets, qu’on a souvent été coupables de technophilie. Elle montre aussi qu’on a parfois dépensé peu sagement des sommes importantes et que des pressions commerciales n’y étaient pas toujours pour rien.

La recherche montre quant à elle que les bienfaits de l’ordinateur sur l’apprentissage sont faibles et que l’enseignement à distance est un moindre mal auquel on ne devrait avoir recours que quand les circonstances l’exigent. Enfin, le temps a aussi permis de découvrir des effets néfastes, et parfois même très néfastes, des ordinateurs.

Je voudrais suggérer ici (bien modestement) une manière d’avancer un peu plus sûrement dans notre champ de mines. Une manière qui m’est inspirée d’un célèbre dilemme concernant la technologie.

Affronter le dilemme de Collingridge

 

Ce dilemme, formulé en 1980 par David Collingridge, met le doigt sur ce qui me semble être au cœur des problèmes que je soulevais plus haut. Selon Collingridge, nous affrontons une double contrainte dans l’implantation de nouvelles technologies. D’un côté, nous avons un problème d’information, de savoir, qui tient au fait que nous ne connaîtrons pas les véritables répercussions de ces technologies tant que celles-ci n’auront pas été largement implantées. D’un autre côté, nous avons un problème de pouvoir : quand les technologies sont implantées, leur contrôle devient très difficile, comme le changement qu’on voudrait apporter.

Des pistes de solution me semblent s’imposer dès que le problème est ainsi posé. En voici quelques-unes, dont certaines sont déjà (un peu ?) en place.

On devrait sérieusement prendre en compte ce que la recherche dit avant de lancer quelque chose.

 

On devrait d’emblée et constamment évaluer les effets de ce qu’on met en avant.

On devrait s’assurer que ces évaluations se font à l’abri de la partisanerie politique, idéologique ou commerciale.

On devrait, pour cela, recevoir tous les points de vue sur le sujet et partager toutes les connaissances ainsi réunies, sans doute à partir d’une structure autonome conçue à cette fin.

On devrait, enfin, et cela est plus nouveau et important, s’assurer que les instigateurs du changement partagent les risques et les pertes en tous genres, et donc aussi les pertes économiques, qui surviendraient le cas échéant.

À voir en vidéo