Intelligence artificielle et éducation : entre promesses et réalités

L’intelligence artificielle est-elle vraiment la baguette magique de l’école du futur ? Les partisans de cette technologie lui prêtent toutes sortes de pouvoirs : libérer les enseignants des tâches répétitives, personnaliser l’apprentissage de chaque élève, prévenir le décrochage scolaire, et même réduire les inégalités. Le tout, d’un coup de baguette… ou d’un simple clic !

En revanche, la réalité est bien plus nuancée.

Dans l’épisode #4 de notre balado, Sylvain Desautels, chargé de projet et conseiller pédagogique chez Campus numérique Québec, nous a invité à prendre du recul sur le sujet. Il est temps de sortir du battage médiatique, d’observer ce que l’IA permet véritablement et surtout ce qu’elle ne permet pas (encore).

Une révolution, vraiment ?

Détrompez-vous ! Sylvain Desautels n’a rien d’un technophobe. D’entrée de jeu, ce dernier nous a amenés à réfléchir à une question indispensable : quelle est la réelle utilité de l’intelligence artificielle générative dans le domaine de l’apprentissage, au-delà de l’effet de nouveauté suscité par les démonstrations initiales ? Bien que la capacité de ces outils à produire du contenu en quelques secondes soit impressionnante, leur impact concret sur la pédagogie, la relation entre enseignants et apprenants, ainsi que sur les méthodes d’apprentissage, demeure à ce jour limité.

Nous avons tendance à projeter sur l’IA des attentes élevées, anticipant qu’elle nous permettra de gagner du temps et de nous recentrer sur des tâches à valeur ajoutée. Pourtant, l’adoption de ces technologies nécessite un investissement considérable en temps, en ressources financières et en littératie numérique, des compétences que peu d’entre nous maîtrisent pleinement. Même lorsqu’on s’engage activement dans leur utilisation, les résultats sont souvent décevants. L’élaboration de requêtes efficaces (ou « prompts »), l’ajustement des réponses et l’évitement de contenus trop génériques demandent en effet un travail conséquent. Parallèlement, l’IA risque d’accentuer la fracture numérique, en renforçant les inégalités entre ceux qui possèdent les compétences et les moyens d’y accéder, et ceux qui en sont exclus. Ce sont généralement les populations les plus fragiles et les minorités qui, dans cette course effrénée à l’innovation, sont les premières à être oubliées.

Une automatisation qui peine à s’adapter à la diversité des apprenants

Parmi les convictions persistantes entourant l’IA, figure celle selon laquelle elle représenterait une solution décisive pour la différenciation pédagogique. Théoriquement, cette perspective est fondée : ces technologies ont la capacité d’adapter les contenus. Toutefois, en pratique, il apparaît que les systèmes déployés reposent majoritairement sur des modèles globalisés, qui peinent à prendre en compte la singularité des contextes éducatifs et la diversité réelle des profils d’apprenants. Ainsi, loin de favoriser une véritable personnalisation, ces outils tendent souvent à appliquer des logiques de catégorisation prédéfinies, émanant des concepteurs d’algorithmes eux-mêmes.

La question linguistique soulève également des enjeux importants dans l’utilisation des intelligences artificielles génératives. Bien que présentées comme « francophones », ces technologies produisent le plus souvent un langage uniforme, neutre et dépourvu de toute couleur locale. Cette homogénéisation contribue à estomper les spécificités régionales et culturelles, voire à les caricaturer. Pour les communautés linguistiques minoritaires, ce phénomène accentue le risque d’effacement : leurs mots, leurs rythmes, leurs nuances s’effacent dans un langage universel lisse, qui ne sait dire ni la richesse de leur culture ni la pluralité de leurs mondes.

Un contenu sans réflexion ?

Une autre préoccupation soulevée par Sylvain Desautels concerne les effets potentiellement néfastes de l’intelligence artificielle sur les processus cognitifs fondamentaux de l’apprentissage. En effet, l’accessibilité immédiate à l’information offerte par l’IA risque de favoriser une forme de dépendance intellectuelle. En rendant l’effort cognitif moins nécessaire, ces outils pourraient nuire aux dimensions essentielles telles que la réflexion, la métacognition et la construction de sens. Des éléments au cœur même de l’acte d’apprendre ! Pour des étudiants déjà sous pression, la tentation de déléguer la pensée à la machine est réelle : sauter l’étape du questionnement, du doute et de l’exploration personnelle. Le risque, à terme, est de former une génération d’apprenants capables de produire du contenu, mais pas nécessairement de le comprendre.

Cette dynamique s’inscrit dans une plus grande déjà en cours ; c’est-à-dire la remise en question de la valeur des évaluations. L’IA amplifie les enjeux liés au plagiat, à la tricherie et à la perte de sens des critères d’évaluation traditionnels auxquelles nous sommes habitués. De ce fait, la question ne se limite plus à « comment empêcher la triche ? », mais interpelle plus largement : « à quoi sert encore l’école si une machine peut effectuer le travail à notre place ? »

Cette situation pourrait néanmoins ouvrir une opportunité de renouveau dans le secteur de l’éducation ! C’est l’occasion de repenser l’évaluation en profondeur ; de dépasser la seule mesure du résultat final pour valoriser davantage le processus, la réflexion critique, la capacité d’autoévaluation et le discernement.

Le miroir de nos biais

Ce n’est pas la première fois que nous abordons ce point. D’ailleurs, tous les invités de notre balado l’ont mentionné : l’IA n’est ni neutre ni objective.

Elle agit comme un miroir déformant et reflétant les biais sociaux, culturels, économiques et politiques intégrés dans les données sur lesquelles elle est entraînée. Inconsciemment ou non, l’IA participe à la reproduction, voire à l’aggravation, des inégalités existantes. De ce fait, sans principes éthiques clairs, elle peut renforcer les dynamiques d’exclusion, marginaliser des identités, ou même invisibiliser certains groupes déjà peu représentés dans les systèmes d’information.

Cette problématique soulève des enjeux majeurs en matière de responsabilité collective : qui décide des données utilisées ? Qui définit les normes implicites de ce qui est considéré comme « neutre » ou « universel » ? Sans une gouvernance inclusive et vigilante, l’IA risque d’uniformiser une vision du monde, portée par ceux qui détiennent les moyens de la concevoir et de la contrôler.

À ces considérations éthiques s’ajoute une dimension écologique trop souvent confinée au second plan. L’IA repose sur des infrastructures numériques extrêmement gourmandes en ressources. Chaque requête, chaque image générée ou texte produit implique des centres de données consommant d’importantes quantités d’électricité, d’eau pour le refroidissement des serveurs, et de métaux rares pour la fabrication des composants. Or, ces coûts environnementaux sont rarement visibles pour l’utilisateur final, et encore moins remis en question face à la facilité d’usage.

D’ailleurs, Sam Altman d’OpenAI, la firme derrière ChatGPT a mentionné dernièrement que dire « s’il vous plaît » ou « merci » à ChatGPT coûtait des dizaines de millions de dollars en frais d’électricité. De plus, « selon l’Agence internationale de l’énergie, une requête sur ChatGPT nécessiterait par exemple dix fois plus d’électricité qu’une recherche sur Google. »

Que justifie une telle consommation de ressources ? Quels besoins réels sont satisfaits ? Une approche responsable doit donc intégrer à la fois des critères d’équité sociale et de sobriété écologique, pour que l’innovation technologique ne se fasse pas au détriment des ressources environnementales.

Conclusion : vers une technosobriété et des usages plus éthiques

Face aux promesses souvent exagérées et aux inquiétudes légitimes que suscite l’intelligence artificielle, une question centrale demeure : que pouvons-nous et que devons-nous en faire ? Sylvain Desautels propose une voie à la fois pragmatique et responsable : celle de la technosobriété. Il ne s’agit pas de rejeter l’IA, mais de l’utiliser à bon escient, là où elle apporte une réelle valeur ajoutée, sans se laisser impressionner par l’attrait du gadget ou de tomber dans la tentation de la facilité.

Cela suppose une montée en compétence collective : former les enseignants, les étudiants, les citoyens à comprendre ce que l’IA est et ce qu’elle n’est pas. Ce n’est ni une intelligence consciente ni un moteur de transformation magique. C’est un outil statistique, puissant, mais fondamentalement limité.

L’enjeu, désormais, n’est plus de savoir si l’IA a sa place à l’école, mais comment lui accorder une place juste. Car si les établissements d’enseignement ont perdu le monopole de la connaissance et celui de la transmission, ils conservent la mission irremplaçable de redonner du sens à l’apprentissage, à l’évaluation et à la relation humaine. L’IA peut contribuer à cette mission, mais elle ne peut ni la définir ni en assumer la responsabilité humaine.

Ce qui ressort de cette réflexion, c’est que l’IA n’est ni la solution à tout, ni le méchant d’un film de science-fiction ! C’est un outil à intégrer avec lucidité, esprit critique et exigence éthique. L’avenir de l’éducation ne dépend pas des algorithmes, mais bien de notre capacité à nous en servir sans renoncer à l’essentiel. Apprendre, c’est d’abord s’engager dans une démarche de sens, de lien, et de pensée.

Pour découvrir notre entrevue en entier avec Sylvain Desautels, écoutez l’épisode #5 de notre balado !