
J’ai été emballé par l’enthousiasme des gamins. On voit bien qu’on est capable d’accrocher le public sur la science. J’ai aussi vu à quel point les thèmes propres au territoire sont importants. Les enfants s’y reconnaissaient parce qu’on ne leur parachutait pas un thème de Métropole. J’ai animé de nombreux ateliers sur les usages de l’IA. Nous avons eu des discussions très animées, très ouvertes. Les jeunes d’ici ne sont pas si différents des autres. Ils ont leurs doutes, leurs certitudes et beaucoup d’envies.
On voit ce que ça apporte à un élève, quand il s’en empare comme un outil. Certains s’en servent pour explorer ou parce qu’ils ont besoin d’un répétiteur. Ils vont poser des questions à l’IA et vont réussir à comprendre des choses. Il y a donc vraiment des usages tout à fait bénéfiques. Mais il y a des usages qui le sont moins. C’est-à-dire "tiens, je vais utiliser l’IA pour faire le boulot à ma place". Et la distance entre les deux usages n’est pas si grande. On peut très vite basculer de l’IA qui m’aide à l’IA qui me remplace. Il y a les élèves matures, qui ont fait la part des choses, et ceux qui ne la font absolument pas.
Côté enseignants, c’est la même chose. On a tout le spectre entre ceux qui voudraient continuer à enseigner comme hier et n’y arrivent pas, et ce n’est pas qu’une question de génération. J’ai vu des profs de 50 ans qui n’ont pas de problème à essayer. Certains inventent, créent, testent et d’autres sont un peu perdus. Il faut prendre l’IA comme un outil et pas comme quelque chose qui remplace le travail. L’enseignant doit se mettre à la place des élèves. Si on offre à un élève un outil qui marche bien pour faire les devoirs, il ne verra pas pourquoi il ne l’utiliserait pas pour ça.
En fait, il y a déjà une personnalisation, c’est-à-dire que chaque élève peut l’interroger à sa façon. Et il y a des outils qui permettent effectivement que chaque élève ait un exercice un peu différent.
C’est compliqué. Quand on le regarde, on est bluffé. Mais il faut faire attention : quand on est bluffé, ça ne veut pas dire que c’est bien. On n’a pas encore de résultats qui montrent que c’est vraiment positif. Il existe des cas où c’est génial. Ça peut être pour une personne qui est malvoyante ou qui est allophone, dont le français n’est pas la première langue. Pour ces gens-là, on voit arriver des applications qui marchent bien.
Mais ça, en soi, ce n’est pas grave. C’est-à-dire que si l’IA se trompe, ça permet à chacun, y compris les élèves, d’être en vigilance. Avoir des IA qui ne se trompent pas, c’est bien pire que d’avoir des IA qui se trompent. Parce que ça nous oblige à être toujours derrière.
Logiquement, non. Sur la partie transmission de la connaissance, l’IA vient compléter son travail, mais l’enseignant fait beaucoup plus que transmettre de la connaissance. L’enseignement est une activité sociale. On apprend avec les autres. Et là-dessus, l’enseignant est totalement irremplaçable. Vous pouvez mettre un adolescent derrière un écran pour apprendre le code de la route, mais sur toutes sortes d’autres sujets, on apprend parce qu’on échange avec l’autre. Donc, si on limite le rôle de l’enseignant à transmettre de la connaissance, effectivement, l’IA devient une concurrence.
Il y a plusieurs raisons. La première, c’est que l’IA va très vite. Et pour pouvoir suivre, les enseignants ont besoin de partager. Il faut vraiment qu’une culture du partage se mette en place. Un enseignant tout seul dans son coin est coincé. Il faut s’appuyer sur les gens qui ont un temps d’avance. Il faut partager à l’intérieur des disciplines. On a vraiment intérêt à être dans une culture du partage parce que l’ancien modèle où on attend que le bouquin arrive de Paris ne marche pas.
À l’Unesco, les petits États sont un enjeu particulier que je ne connaissais pas avant de venir ici. Je vois bien maintenant que, par exemple, les enjeux linguistiques tels qu’on les connaît en Europe sont vraiment différents de ceux ici. Parce que les plus petites langues européennes, c’est 300 000 personnes qui parlent l’islandais par exemple. Et puis il y a beaucoup de documents écrits, etc. Ici, on sent bien que ce n’est pas la même dimension et qu’on ne peut pas, comme ça, se dire : "Tiens, je vais réussir à construire une IA qui va soudainement parler une langue kanak."
Sur le second point, l’IA est un formidable outil, à condition qu’on sache poser des questions. Et là, il peut y avoir aussi des biais culturels. Typiquement, les Nord-Américains sont entraînés depuis tout petits à poser des questions. L’IA est un objet avec lequel ils sont à l’aise. En France, on n’est pas doué pour poser des questions. L’école n’est pas un endroit où on est entraîné à ça. Et ici, j’ai l’impression que c’est encore plus compliqué. Poser une question, ce n’est pas juste faire un copier-coller. C’est avoir un peu d’empathie presque pour la machine, se dire "si je veux une réponse comme ça, qu’est-ce que j’ai intérêt à mettre dans ma question ?" Avoir conscience de mon interlocuteur. Même si ce n’est pas un humain, mais une machine. Et puis, il y a des formes de langage et de culture qui me permettent de poser des questions. Et là, il peut y avoir des différences. Certaines cultures sont dans le questionnement. D’autres peuvent avoir des enjeux hiérarchiques qui font que c’est plus difficile.
Ce qui m’épate quand je regarde ce film, ou d’autres de la même époque, du genre 2001, l’odyssée de l’espace, c’est qu’ils ont anticipé des enjeux éthiques qui sont d’actualité aujourd’hui. Et ils se sont complètement plantés sur d’autres. Par exemple, dans Blade Runner, ils ont décidé qu’en 2019, tout le monde fumait. C’est clair qu’ils se sont plantés. Par contre, pour le reste, comme les débats sur "est-ce qu’on a le droit de torturer un robot ?", ce sont de vraies questions. Souvent, ce sont moins des questions qui se posent par rapport aux robots ou aux IA que par rapport à nous, humains. Qu’est-ce que ça veut dire sur nous si on est capable de torturer un robot ? Est-ce qu’une IA est capable d’avoir un sentiment ? Ou est-elle capable de nous faire croire qu’elle a un sentiment ? La réponse est oui. On va entraîner une IA pour qu’elle nous fasse pleurer ou rire, sans aucun problème. Elle trouvera les codes dans tout ce qui a été écrit, dans les vidéos, elle saura faire. Le fait qu’intérieurement, elle ne ressente rien, c’est un autre problème. Mais par contre, nous, on sera toujours dans cette impression que l’IA a ce sentiment.
La première grande famille de biais pour les IA, c’est tout simplement qu’elle est entraînée sur de la data. Et si la data est biaisée, les biais vont réapparaître. Si je donne de la data à une entreprise qui fait un recrutement, et qu’elle passe son temps à recruter des hommes blancs, l’IA va recruter des hommes blancs. Ensuite, il peut y avoir des biais qui apparaissent parce que quand on entraîne l’IA, il faut lui donner une fonction. Il faut lui dire, ton but, c’est de minimiser le nombre d’erreurs quand tu tries ça, ou tu dois maximiser le gain. Prenons l’éducation. Je ne sais pas mesurer qu’un enfant a bien appris. Donc, si je suis l’IA, je vais maximiser quelque chose comme l’engagement, c’est-à-dire le temps passé devant un écran. Parce que je sais le mesurer. Ensuite, je vais tenir un discours qui dit, si un jeune est derrière l’écran pour apprendre et il y reste, c’est qu’il est content d’apprendre. Donc, c’est que ça marche. Mais vous avez introduit un biais qui est lié au fait que vous avez quelque chose à vendre.
Ceux qui développent l’IA sont de très grandes entreprises qui cherchent à gagner de l’argent. Soyons très clairs là-dessus. Il faut bien faire une différence entre l’IA et le World Wide Web. Le Web a été créé dans les années 1970 par rapport à des objectifs humanistes et internationalistes, avec des gens qui disaient "On va lier la connaissance et permettre au monde entier d’y accéder." Personne ne disait : "Je cherche à gagner plein d’argent avec ça." Aujourd’hui, l’IA cherche à gagner de l’argent.
Quant aux pouvoirs publics, ils sont embêtés. Ils ont peur de rater le coche. On entend toujours, "la France doit être dans le peloton de tête". Et une manière d’être dans le peloton de tête, c’est de faire confiance à ces grandes entreprises. Et donc, de laisser rentrer l’IA dans l’école.
Enfin, il y a les enseignants. Et là, il va falloir naviguer entre l’IA outil qui peut apporter énormément de choses, et l’IA agent, qui fait les choses tout seul et qu’on ne peut pas limiter. Parce que même en essayant de maîtriser au maximum les questions posées à l’IA, il y a toujours des ruses pour les détourner.
Colin de la Higuera est professeur d’informatique à Nantes Université (France). Il enseigne et mène des recherches dans les domaines de l’apprentissage automatique et de l’intelligence artificielle. Il a été président fondateur de la SIF, la Société informatique de France, et administrateur de la fondation Knowledge for All. Colin de la Higuera occupe depuis 2017 la chaire Unesco "Ressources éducatives libres et intelligence artificielle". En 2024, il est devenu coordinateur du réseau Unitwin en éducation ouverte, qui compte seize partenaires issus de quatorze pays. En 2024, il a reçu le prix Open Education Global Leadership Award et le prix Merlot Classics en 2025.