Former à l’éthique des technologies émergentes

Le 16/01/2026, par Nicolas Louveton


Comment amener les étudiants à une réflexivité éthique face aux technologies émergentes ? Cette question est devenue essentielle avec l’évolution rapide de certaines technologies et l’imbrication des enjeux (humains, économiques, écologiques, géopolitiques, etc.).

L’arrivée des systèmes génératifs comme ChatGPT a bousculé tout le monde et en particulier le monde de l’enseignement supérieur : (1) comment passer d’une culture de l’évaluation par les documents (rapports, mémoires, etc.) quand ceux-ci peuvent être générés de façon industrielle par des IA ? et (2) comment transmettre les conditions d’un usage éclairé et raisonnable de ces technologies ?

L’IA n’est qu’un exemple. Le métavers, les NFT, etc. sont d’autres sources d’évolutions abruptes.

Il semble difficile de “lutter contre” tant l’usage de ces technologies semble vouloir s’imposer dans le temps et à plus forte raison pour les formations où la technologie joue un rôle essentiel.

Bien sûr, une stratégie possible est de neutraliser ces technologies (éviter l’évaluation sur des documents), ce qui peut être pertinent dans certains cas mais pas toujours (que faire quand l’usage de l’IA est un cas professionnel probable ou même utile ?). Dans d’autres cas, il serait plus pertinent d’apprendre la “technique” derrière ces systèmes : mais ces techniques évoluent elles-mêmes rapidement (qui pense former au prompt engineering par exemple ?).

En effet, ces technologies ont pour caractéristiques d’évoluer très vite, rendant obsolète toute tentative de formalisation. A contrario les régulations évoluent très lentement. Il faut donc doter les étudiants d’une boussole qui ne soit pas dépendante du contexte socio-technique mais qui soit au contraire toujours valable, donc ré-actualisable (énactable ?).

L’axe que j’envisage est donc de développer la réflexivité éthique.

Concrètement, comment former des étudiants du supérieur à cette réflexivité, notamment dans les formations en rapport avec le numérique ? J’ai entrepris des recherches l’an dernier qui m’ont permis d’aboutir à la lecture des travaux de Bruneault et collaborateurs1. Ce travail spécifiquement orienté sur l’IA m’a semblé intéressant du fait de sa proposition d’un référentiel de compétences sur l’enseignement à l’éthique de l’IA dans le supérieur.

Le référentiel de compétences est composé de deux catégories conceptuelles : la première est celle des niveaux de savoir (savoir faire, savoir être, savoir dialoguer) ; la seconde correspond aux niveaux d’applications (aspects techniques, dilemmes moraux, implications sociotechniques et cadres normatifs). Concrètement les deux dimensions peuvent se croiser pour former une matrice de compétences.

Je me suis donc donné comme objectif d’inclure dans ma formation un volet mettant en œuvre ce référentiel. J’ai donc commencé à élaborer des scénarios pédagogiques en ce sens. Ces scénarios peuvent prendre différents thèmes sous la catégorie plus générale des risques informationnels.

Dans une logique de création de contenus “ouverts” (au sens d’open source), j’ai initié la rédaction d’un livret pédagogique à destination des enseignants. Ce document détaille le référentiel de compétences, propose des scénarios pédagogiques ainsi que des exemples de grilles de réponses inspirées de 2.

La dernière version en PDF ainsi que les sources sont disponibles sur GitHub..

J’ai déjà appliqué ces scénarios en situation de cours avec de bons résultats, en termes d’implication et de débat. À court terme, je souhaite donc formaliser la documentation des scénarios. À plus long terme, mon objectif est de collecter des données focalisées sur l’évaluation des compétences.

Si vous avez utilisé ces documents ou que vous les avez trouvés utiles, n’hésitez pas à me faire part de vos retours / commentaires.


  1. Bruneault, F., Sabourin Laflamme, A., et Mondeaux, A. (2022). Former à l’éthique de l’IA en enseignement supérieur : Référentiel de compétence.↩︎

  2. Ibid.↩︎