fbpx
    Nouvelle Calédonie
  • Propos recueillis par Julien Mazzoni | Crée le 15.10.2025 à 05h00 | Mis à jour le 31.10.2025 à 16h42
    Imprimer
    Colin de la Higuera, ambassadeur de la Fête de la science 2025, est titulaire d’une chaire à l’Unesco sur l’intelligence artificielle et l’éducation. Photo Julien Mazzoni
    La Fête de la science s’est refermée ce lundi 13 octobre par une conférence animée par son ambassadeur, Colin de la Higuera, sur le thème "intelligence artificielle et éducation". Cette pointure de l’IA, titulaire d’une chaire à l’Unesco dans ce domaine, livre sa vision de ce que la machine peut apporter dans le domaine de l’éducation. Entretien.

    Vous étiez l’ambassadeur de cette édition de la Fête de la science. Quel regard portez-vous sur la relation entre la science et le grand public, ici en Nouvelle-Calédonie ?

    J’ai été emballé par l’enthousiasme des gamins. On voit bien qu’on est capable d’accrocher le public sur la science. J’ai aussi vu à quel point les thèmes propres au territoire sont importants. Les enfants s’y reconnaissaient parce qu’on ne leur parachutait pas un thème de Métropole. J’ai animé de nombreux ateliers sur les usages de l’IA. Nous avons eu des discussions très animées, très ouvertes. Les jeunes d’ici ne sont pas si différents des autres. Ils ont leurs doutes, leurs certitudes et beaucoup d’envies.

    Vous défendez l’idée que l’intelligence artificielle peut être un outil au service de l’éducation. Que peut-elle concrètement apporter aux enseignants et aux élèves ?

    On voit ce que ça apporte à un élève, quand il s’en empare comme un outil. Certains s’en servent pour explorer ou parce qu’ils ont besoin d’un répétiteur. Ils vont poser des questions à l’IA et vont réussir à comprendre des choses. Il y a donc vraiment des usages tout à fait bénéfiques. Mais il y a des usages qui le sont moins. C’est-à-dire "tiens, je vais utiliser l’IA pour faire le boulot à ma place". Et la distance entre les deux usages n’est pas si grande. On peut très vite basculer de l’IA qui m’aide à l’IA qui me remplace. Il y a les élèves matures, qui ont fait la part des choses, et ceux qui ne la font absolument pas.

    Si on offre à un élève un outil qui marche bien pour faire les devoirs, il ne verra pas pourquoi il ne l’utiliserait pas pour ça.

    Côté enseignants, c’est la même chose. On a tout le spectre entre ceux qui voudraient continuer à enseigner comme hier et n’y arrivent pas, et ce n’est pas qu’une question de génération. J’ai vu des profs de 50 ans qui n’ont pas de problème à essayer. Certains inventent, créent, testent et d’autres sont un peu perdus. Il faut prendre l’IA comme un outil et pas comme quelque chose qui remplace le travail. L’enseignant doit se mettre à la place des élèves. Si on offre à un élève un outil qui marche bien pour faire les devoirs, il ne verra pas pourquoi il ne l’utiliserait pas pour ça.

    C’est ce que nous promet un peu l’IA, une personnalisation de l’apprentissage ?

    En fait, il y a déjà une personnalisation, c’est-à-dire que chaque élève peut l’interroger à sa façon. Et il y a des outils qui permettent effectivement que chaque élève ait un exercice un peu différent.

    C’est vraiment un progrès pédagogique, selon vous ?

    C’est compliqué. Quand on le regarde, on est bluffé. Mais il faut faire attention : quand on est bluffé, ça ne veut pas dire que c’est bien. On n’a pas encore de résultats qui montrent que c’est vraiment positif. Il existe des cas où c’est génial. Ça peut être pour une personne qui est malvoyante ou qui est allophone, dont le français n’est pas la première langue. Pour ces gens-là, on voit arriver des applications qui marchent bien.

    L’enseignement est une activité sociale. On apprend avec les autres. Et là-dessus, l’enseignant est totalement irremplaçable.

    Des expériences montrent régulièrement des IA qui se trompent, qui ne donnent pas la bonne réponse à des questions parfois simples…

    Mais ça, en soi, ce n’est pas grave. C’est-à-dire que si l’IA se trompe, ça permet à chacun, y compris les élèves, d’être en vigilance. Avoir des IA qui ne se trompent pas, c’est bien pire que d’avoir des IA qui se trompent. Parce que ça nous oblige à être toujours derrière.

    Est-ce qu’à l’inverse, on peut craindre que l’IA finisse par déshumaniser le lien entre l’enseignant et l’élève ? Et peut-elle finir par remplacer l’enseignant ?

    Logiquement, non. Sur la partie transmission de la connaissance, l’IA vient compléter son travail, mais l’enseignant fait beaucoup plus que transmettre de la connaissance. L’enseignement est une activité sociale. On apprend avec les autres. Et là-dessus, l’enseignant est totalement irremplaçable. Vous pouvez mettre un adolescent derrière un écran pour apprendre le code de la route, mais sur toutes sortes d’autres sujets, on apprend parce qu’on échange avec l’autre. Donc, si on limite le rôle de l’enseignant à transmettre de la connaissance, effectivement, l’IA devient une concurrence.

    Vous portez à l’Unesco la chaire de "Ressources éducatives libres et intelligence artificielle". Pourquoi l’accès libre au savoir est-il crucial à l’heure où les grands modèles d’IA sont privés pour la plupart ?

    Il y a plusieurs raisons. La première, c’est que l’IA va très vite. Et pour pouvoir suivre, les enseignants ont besoin de partager. Il faut vraiment qu’une culture du partage se mette en place. Un enseignant tout seul dans son coin est coincé. Il faut s’appuyer sur les gens qui ont un temps d’avance. Il faut partager à l’intérieur des disciplines. On a vraiment intérêt à être dans une culture du partage parce que l’ancien modèle où on attend que le bouquin arrive de Paris ne marche pas.

    Certaines cultures sont dans le questionnement. D’autres peuvent avoir des enjeux hiérarchiques qui font que c’est plus difficile.

    Quel parti les pays insulaires comme la Nouvelle-Calédonie peuvent-ils tirer de l’IA ? Est-ce qu’elle peut par exemple permettre de réduire certaines inégalités par rapport à l’accès à la connaissance ?

    À l’Unesco, les petits États sont un enjeu particulier que je ne connaissais pas avant de venir ici. Je vois bien maintenant que, par exemple, les enjeux linguistiques tels qu’on les connaît en Europe sont vraiment différents de ceux ici. Parce que les plus petites langues européennes, c’est 300 000 personnes qui parlent l’islandais par exemple. Et puis il y a beaucoup de documents écrits, etc. Ici, on sent bien que ce n’est pas la même dimension et qu’on ne peut pas, comme ça, se dire : "Tiens, je vais réussir à construire une IA qui va soudainement parler une langue kanak."

    Sur le second point, l’IA est un formidable outil, à condition qu’on sache poser des questions. Et là, il peut y avoir aussi des biais culturels. Typiquement, les Nord-Américains sont entraînés depuis tout petits à poser des questions. L’IA est un objet avec lequel ils sont à l’aise. En France, on n’est pas doué pour poser des questions. L’école n’est pas un endroit où on est entraîné à ça. Et ici, j’ai l’impression que c’est encore plus compliqué. Poser une question, ce n’est pas juste faire un copier-coller. C’est avoir un peu d’empathie presque pour la machine, se dire "si je veux une réponse comme ça, qu’est-ce que j’ai intérêt à mettre dans ma question ?" Avoir conscience de mon interlocuteur. Même si ce n’est pas un humain, mais une machine. Et puis, il y a des formes de langage et de culture qui me permettent de poser des questions. Et là, il peut y avoir des différences. Certaines cultures sont dans le questionnement. D’autres peuvent avoir des enjeux hiérarchiques qui font que c’est plus difficile.

    Vous avez animé un ciné-débat autour de Blade Runner lors de la Nuit de la science. Que nous dit aujourd’hui ce film, qui a plus de 40 ans, sur notre rapport à la machine ?

    Ce qui m’épate quand je regarde ce film, ou d’autres de la même époque, du genre 2001, l’odyssée de l’espace, c’est qu’ils ont anticipé des enjeux éthiques qui sont d’actualité aujourd’hui. Et ils se sont complètement plantés sur d’autres. Par exemple, dans Blade Runner, ils ont décidé qu’en 2019, tout le monde fumait. C’est clair qu’ils se sont plantés. Par contre, pour le reste, comme les débats sur "est-ce qu’on a le droit de torturer un robot ?", ce sont de vraies questions. Souvent, ce sont moins des questions qui se posent par rapport aux robots ou aux IA que par rapport à nous, humains. Qu’est-ce que ça veut dire sur nous si on est capable de torturer un robot ? Est-ce qu’une IA est capable d’avoir un sentiment ? Ou est-elle capable de nous faire croire qu’elle a un sentiment ? La réponse est oui. On va entraîner une IA pour qu’elle nous fasse pleurer ou rire, sans aucun problème. Elle trouvera les codes dans tout ce qui a été écrit, dans les vidéos, elle saura faire. Le fait qu’intérieurement, elle ne ressente rien, c’est un autre problème. Mais par contre, nous, on sera toujours dans cette impression que l’IA a ce sentiment.

    Ceux qui développent l’IA sont de très grandes entreprises qui cherchent à gagner de l’argent. Soyons très clairs là-dessus.

    Peut-on dans ce cas dire que l’IA peut aussi, comme nous, être sujette à des biais "cognitifs"?

    La première grande famille de biais pour les IA, c’est tout simplement qu’elle est entraînée sur de la data. Et si la data est biaisée, les biais vont réapparaître. Si je donne de la data à une entreprise qui fait un recrutement, et qu’elle passe son temps à recruter des hommes blancs, l’IA va recruter des hommes blancs. Ensuite, il peut y avoir des biais qui apparaissent parce que quand on entraîne l’IA, il faut lui donner une fonction. Il faut lui dire, ton but, c’est de minimiser le nombre d’erreurs quand tu tries ça, ou tu dois maximiser le gain. Prenons l’éducation. Je ne sais pas mesurer qu’un enfant a bien appris. Donc, si je suis l’IA, je vais maximiser quelque chose comme l’engagement, c’est-à-dire le temps passé devant un écran. Parce que je sais le mesurer. Ensuite, je vais tenir un discours qui dit, si un jeune est derrière l’écran pour apprendre et il y reste, c’est qu’il est content d’apprendre. Donc, c’est que ça marche. Mais vous avez introduit un biais qui est lié au fait que vous avez quelque chose à vendre.

    Comment, dans ce cas, construire une culture de l’IA qui soit éclairée et responsable ?

    Ceux qui développent l’IA sont de très grandes entreprises qui cherchent à gagner de l’argent. Soyons très clairs là-dessus. Il faut bien faire une différence entre l’IA et le World Wide Web. Le Web a été créé dans les années 1970 par rapport à des objectifs humanistes et internationalistes, avec des gens qui disaient "On va lier la connaissance et permettre au monde entier d’y accéder." Personne ne disait : "Je cherche à gagner plein d’argent avec ça." Aujourd’hui, l’IA cherche à gagner de l’argent.

    Quant aux pouvoirs publics, ils sont embêtés. Ils ont peur de rater le coche. On entend toujours, "la France doit être dans le peloton de tête". Et une manière d’être dans le peloton de tête, c’est de faire confiance à ces grandes entreprises. Et donc, de laisser rentrer l’IA dans l’école.

    Enfin, il y a les enseignants. Et là, il va falloir naviguer entre l’IA outil qui peut apporter énormément de choses, et l’IA agent, qui fait les choses tout seul et qu’on ne peut pas limiter. Parce que même en essayant de maîtriser au maximum les questions posées à l’IA, il y a toujours des ruses pour les détourner.

    Note

    Colin de la Higuera est professeur d’informatique à Nantes Université (France). Il enseigne et mène des recherches dans les domaines de l’apprentissage automatique et de l’intelligence artificielle. Il a été président fondateur de la SIF, la Société informatique de France, et administrateur de la fondation Knowledge for All. Colin de la Higuera occupe depuis 2017 la chaire Unesco "Ressources éducatives libres et intelligence artificielle". En 2024, il est devenu coordinateur du réseau Unitwin en éducation ouverte, qui compte seize partenaires issus de quatorze pays. En 2024, il a reçu le prix Open Education Global Leadership Award et le prix Merlot Classics en 2025.

    MERCI DE VOUS IDENTIFIER
    X

    Vous devez avoir un compte en ligne sur le site des Nouvelles Calédoniennes pour pouvoir acheter du contenu. Veuillez vous connecter.

    J'AI DÉJA UN COMPTE
    Saisissez votre nom d'utilisateur pour LNC.nc | Les Nouvelles Calédoniennes
    Saisissez le mot de passe correspondant à votre nom d'utilisateur.
    JE N'AI PAS DE COMPTE

    Vous avez besoin d'aide ? Vous souhaitez vous abonner, mais vous n'avez pas de carte bancaire ?
    Prenez contact directement avec le service abonnement au (+687) 27 09 65 ou en envoyant un e-mail au service abonnement.
  • DANS LA MÊME RUBRIQUE
  • VOS RÉACTIONS