Aller au contenu principal

Quand l'IA permet de reussir ses examens sans etudier, que reste-t-il de l'universite ?

Assisté par IA

90 % des etudiants utilisent l'IA, mais ce n'est que la partie visible. La vraie question est : l'IA revele les contradictions fondamentales du systeme educatif — quand le savoir n'est plus rare et que les examens peuvent etre contournes par la technologie, quel est le sens meme de l'apprentissage ?

AI on campus
Anthropic - Temoignages de quatre etudiants sur leur utilisation de l'IAYouTube

Anthropic a recemment publie une interview reunissant quatre etudiants issus de Princeton, Berkeley, la London School of Economics et l'Arizona State University, pour discuter de la realite de l'IA sur les campus. L'entretien a dure pres de 40 minutes, sans discours marketing — rien que de veritables interrogations, inquietudes et reflexions.

Cette interview revele un enjeu bien plus profond : l'IA ne se contente pas de transformer les methodes d'apprentissage, elle demonte la logique fondamentale de tout le systeme educatif.


Une realite incontournable

Au debut de l'interview, l'animateur pose une question directe : quelle est l'ambiance autour de l'IA sur les campus ?

La reponse : 90 % des etudiants utilisent l'IA. Pas de maniere occasionnelle, mais comme partie integrante de leur quotidien — resumer des notes de cours, repondre a des exercices, obtenir des retours sur leurs devoirs, analyser des etudes de cas, mener des etudes de marche, realiser des recherches financieres. Certains etudiants l'utilisent meme pour passer des quiz, avec une raison tres pragmatique : quand vous etes en master et que vous cumulez plusieurs emplois, vous n'avez pas toujours le temps.

Mais le plus frappant, c'est que si presque tout le monde l'utilise, personne ne connait les regles. Certains cours interdisent formellement l'IA, d'autres l'encouragent activement, et la majorite se situe dans une zone floue. Les etudiants ne savent pas ou se trouve la limite, les professeurs ne savent pas comment gerer la situation. C'est ce qu'on appelle la « zone grise » — on veut utiliser l'IA, mais on craint d'enfreindre les regles ; on ne l'utilise pas, mais on a l'impression de prendre du retard.

Le plus dangereux dans cette zone grise n'est pas le risque de violation des regles par les etudiants, mais le fait qu'elle empeche les discussions vraiment constructives d'avoir lieu. Les etudiants ne peuvent pas partager ouvertement les bonnes pratiques d'utilisation de l'IA, les professeurs ne peuvent pas guider les etudiants vers une utilisation responsable des outils, et toute la communaute academique se retrouve dans un etat embarrassant d'interdiction officielle et d'utilisation clandestine.

Et quand les regles ne peuvent pas etre appliquees efficacement, elles deviennent un filtre qui distingue « ceux qui savent faire semblant » de « ceux qui ne savent pas ». Une interdiction officielle doublée d'un usage generalise en coulisses n'empechera pas les etudiants d'utiliser l'IA, mais les empechera de discuter ouvertement de la meilleure facon de l'utiliser.


L'IA est un miroir

L'un des points de vue les plus percutants de l'interview : l'intelligence artificielle, et en particulier la facon dont les etudiants l'utilisent, est tres revelatrice de leurs motivations.

L'idee sous-jacente : l'IA est devenue un miroir qui reflete la veritable raison pour laquelle vous etes a l'universite.

L'interview classe les objectifs universitaires en trois categories : premierement, approfondir les connaissances dans sa specialite et maitriser la comprehension d'un domaine ; deuxiemement, se preparer a la vie professionnelle, trouver un bon emploi et construire son reseau ; troisiemement, elargir son cercle social, profiter de la vie etudiante et vivre l'experience universitaire. Chaque etudiant accorde un poids different a ces trois objectifs, et la facon dont il utilise l'IA revele precisement ces priorites.

Si vous ne vous souciez que de « reussir les examens » et « obtenir le diplome », vous soumettez directement les reponses generees par l'IA comme devoirs. Ce n'est pas un jugement moral, c'est la realite — quand la technologie vous permet d'atteindre votre objectif au moindre cout, pourquoi feriez-vous un detour ? Si votre but est simplement d'obtenir un diplome pour trouver un emploi, utiliser l'IA pour faire vos devoirs est un choix parfaitement rationnel.

Mais si vous voulez vraiment apprendre, si vous voulez comprendre un domaine en profondeur, vous utilisez l'IA comme partenaire de dialogue. Vous lui posez des questions, vous lui demandez d'expliquer des concepts, puis vous reformulez dans vos propres mots. Vous lui faites ecrire une premiere version du code, puis vous le refactorisez et l'optimisez vous-meme. Vous vous assurez qu'a chaque etape, vous comprenez vraiment ce qui se passe.

Cette polarisation n'existe pas seulement entre differents etudiants, elle existe aussi entre differentes filieres. Les etudiants en sciences humaines tendent a se detourner de l'IA, car leur apprentissage exige une lecture approfondie — lire attentivement le texte original, savourer les subtilites du langage, comprendre l'intention de l'auteur. L'IA perturbe ce processus, car elle fournit des resumes et des reformulations, et non l'experience directe du texte original. Les etudiants en ingenierie et en commerce, en revanche, utilisent massivement l'IA, car elle abaisse les barrieres techniques et permet a des personnes sans formation informatique d'ecrire du code, de creer des sites web et d'analyser des donnees.

Cette polarisation est fondamentalement une divergence de conceptions sur ce qui merite d'etre appris. Pour les etudiants en lettres, l'experience de lire Shakespeare dans le texte original est en soi un apprentissage ; pour les etudiants en ingenierie, ce qui compte c'est de pouvoir resoudre un probleme, pas d'ecrire chaque ligne de code soi-meme. L'IA rend cette difference encore plus flagrante.


Outil ou bequille ? Un critere de jugement simple

L'interview pose une question essentielle : comment distinguer si l'IA est un outil ou une bequille ?

Les etudiants donnent une reponse etonnamment unanime : la capacite a expliquer.

Si vous ne pouvez pas expliquer ce que vous avez cree, si vous ne pouvez pas decrire le role que l'IA y a joue, c'est une bequille. Si vous pouvez l'expliquer comme a un eleve de CM2, si vous etes capable de fournir des explications tant basiques qu'avancees, c'est un outil.

Ce critere parait simple, mais il touche a l'essence meme de l'apprentissage. Le principe fondamental de la methode Feynman est le suivant : si vous ne pouvez pas expliquer un concept en termes simples, c'est que vous ne l'avez pas vraiment compris. L'apprentissage a l'ere de l'IA suit la meme logique — si vous ne pouvez pas expliquer ce que l'IA a fait pour vous, vous ne faites qu'« externaliser votre reflexion », et non l'« augmenter ».

L'interview mentionne un exemple interessant : un etudiant a developpe un outil dans lequel on insere les diapositives du cours, et l'IA genere des annotations de type professoral a cote de chaque diapositive. Cet etudiant explique : « Ca fonctionne bien parce que je l'ai deja oriente pour qu'il sache ce que je veux comprendre — les definitions de certains elements sur les diapositives. Les diapositives sont parfois tres abstraites, manquent de contexte, et ont besoin d'annotations complementaires. »

Le point cle est « je l'ai deja oriente pour qu'il sache ce que je veux comprendre ». Cet etudiant sait exactement ou se situent ses lacunes, quel type d'aide il a besoin, puis il guide activement l'IA pour qu'elle fournisse cette aide. C'est un outil. S'il avait simplement envoye les diapositives a l'IA en demandant « resume-moi ce cours », puis appris le resultat par coeur, ca aurait ete une bequille.

La difference reside dans la proactivite et la comprehension. Celui qui utilise un outil sait ce qu'il fait et controle l'ensemble du processus. Celui qui utilise une bequille a cede le controle a la technologie et est devenu un recepteur passif.


Le retard des etablissements n'est pas un manque de reactivite, c'est une incapacite structurelle

L'interview mentionne quelques initiatives d'etablissements. La London School of Economics a mis en place un cours obligatoire qui enseigne aux etudiants comment utiliser Claude — dialoguer avec lui, lui attribuer differents roles, puis demander aux etudiants de soumettre les historiques de conversation pour voir comment ils interagissent avec l'IA. Le centre de gestion de carriere de l'Arizona State University a cree une bibliotheque de prompts, fournissant des modeles pour differents scenarios. Ce sont de bonnes initiatives dont le principe central est : non pas interdire l'IA, mais apprendre aux etudiants a l'utiliser de maniere responsable.

Mais ce ne sont que des cas isoles. La plupart des etablissements debattent encore de la question « faut-il autoriser les etudiants a utiliser l'IA ? ». Certains professeurs disent oui, a condition d'indiquer comment dans les devoirs ; certains cours l'interdisent directement ; d'autres n'en parlent tout simplement pas, partant du principe que les etudiants ne l'utiliseront pas. Pas de cadre integre, pas de norme unifiee, l'ensemble du systeme est dans un etat de confusion.

Le probleme plus profond est le suivant : cette question ne peut fondamentalement pas etre resolue par des reglements.

La logique de supervision de l'education traditionnelle repose sur : l'etablissement fixe les regles, les etudiants les respectent, les contrevenants sont sanctionnes. Cette logique ne fonctionne que si « les infractions peuvent etre detectees ». Or l'IA brise cette premisse.

Vous pouvez interdire aux etudiants d'utiliser l'IA pour rendre leurs devoirs, mais vous ne pouvez pas surveiller s'ils l'ont utilisee dans leur processus de reflexion. Vous pouvez recourir a des outils de detection de l'IA, mais leur taux de precision est loin d'etre suffisant pour servir de base a des sanctions — le taux de faux positifs est trop eleve, et les etudiants apprendront rapidement a contourner la detection. Plus fondamentalement, il est impossible de distinguer un devoir de qualite realise avec l'aide de l'IA d'un devoir de qualite realise de maniere autonome, car une bonne utilisation de l'IA est censee etre transparente.

L'interview contient cette declaration tres directe : fondamentalement, aucune reglementation ne changera la facon dont les etudiants utilisent l'IA. La responsabilite est entre les mains des etudiants. Ce n'est pas un desengagement, c'est la realite.

Quand la technologie rend possible le fait de « reussir ses examens sans etudier », les etablissements ne font pas face a un probleme de gestion, mais a un probleme existentiel : si les examens ne peuvent plus prouver l'apprentissage, quel est le sens de l'existence de l'universite ?


La logique fondamentale du systeme educatif est brisee

Cette question touche a la contradiction fondamentale du systeme educatif.

L'education traditionnelle repose sur plusieurs postulats centraux : premierement, le savoir est rare et necessite des institutions specialisees (les ecoles) et des professionnels (les professeurs) pour etre transmis ; deuxiemement, les resultats de l'apprentissage peuvent etre mesures par des examens ; troisiemement, un diplome prouve que vous maitrisez les connaissances d'un domaine et que vous etes donc qualifie pour exercer dans ce secteur.

L'IA brise ces postulats un par un.

Le savoir n'est plus rare. YouTube propose gratuitement des cours de Stanford, Claude peut repondre a vos questions a tout moment, GitHub regorge de projets open source a etudier. Vous n'avez pas besoin d'aller a l'ecole pour acceder au savoir, vous n'avez meme pas besoin d'un abonnement payant pour beneficier d'un tutorat IA de base.

Les examens ne mesurent plus l'apprentissage. Quand l'IA peut repondre a la plupart des questions d'examen, l'examen passe d'un « outil mesurant le niveau de comprehension » a un « outil mesurant la capacite a utiliser l'IA ». Cela ne signifie pas que les examens sont totalement inutiles, mais qu'ils ne permettent plus de distinguer avec precision « ceux qui ont vraiment appris » de « ceux qui savent exploiter les outils ».

La valeur du diplome diminue. Quand les employeurs realisent qu'un diplome ne garantit pas que le candidat maitrise reellement les connaissances concernees, ils accordent plus d'importance aux preuves de competences concretes — portfolio, experience de projets, performances en stage. Le diplome passe du statut de « preuve de competence » a celui de « seuil minimal d'entree ».

Quand ces postulats s'effondrent, la proposition de valeur du systeme educatif doit etre redefinie.

L'interview propose une reponse : la valeur de l'universite passe de la « transmission du savoir » a la « fourniture d'un environnement ». Un environnement ou l'on peut se tromper, explorer, confronter ses idees avec celles des autres. Vous pouvez passer un week-end avec vos colocataires a realiser une « bucket list avant la remise des diplomes », tester des idees « peut-etre stupides » lors d'un hackathon, debattre avec vos professeurs, discuter avec vos camarades, apprendre de vos echecs sans risquer votre carriere.

Les projets etudiants mentionnes dans l'interview illustrent bien ce point — un « rappel automatique d'inscription aux cours », un « detecteur de salles vides », un « classement des souhaits de fin d'etudes ». Ces projets ne sont pas techniquement complexes, et beaucoup de leurs createurs n'ont meme pas de formation en informatique. Mais ils naissent d'emotions humaines authentiques : la peur de rater quelque chose, la quete de commodite, l'attachement a la vie universitaire.

Quand les barrieres techniques s'abaissent, l'important n'est plus « savez-vous coder ? », mais « quel probleme voulez-vous resoudre ? » L'universite offre un espace pour explorer librement ces questions, un environnement ou l'on peut transformer ses idees en realite, puis apprendre de ses echecs.

L'IA peut faire vos devoirs a votre place, mais elle ne peut pas vivre a votre place cette periode de « liberte de se tromper et d'explorer ».


Le paradoxe du marche de l'emploi

La seconde moitie de l'interview aborde l'emploi et revele un autre paradoxe.

Les etudiants utilisent l'IA pour rediger leur CV, les entreprises utilisent l'IA pour trier les CV. Tout le cycle de recrutement se transforme en monologue face a un ecran — d'abord face a l'IA pour rediger la lettre de motivation, puis face a une camera pour repondre aux questions, et enfin reception d'une lettre de refus generee par l'IA. De la soumission du CV a la reception du refus, il ne faut parfois que 15 minutes. C'est tres efficace, mais tres peu humain.

Cela cree un marche de l'emploi « IA contre IA ». Les etudiants entrainent l'IA a rediger de « bons » CV, les entreprises entrainent l'IA a selectionner de « bons » candidats. Le role des etres humains dans ce processus diminue de plus en plus. Parler a un ecran ne genere aucune alchimie et ne permet pas de reveler ces qualites difficiles a quantifier mais pourtant essentielles — le sens de l'humour, la capacite d'adaptation, les subtilites du travail en equipe.

Mais l'autre face du paradoxe : la maitrise de l'IA est elle-meme devenue un nouvel avantage competitif. Les quatre grands cabinets de conseil, qui recrutaient autrefois des MBA generalistes, recherchent desormais specifiquement des MBA possedant des competences en IA. Si vous savez appliquer l'IA a differents secteurs, vous devenez leur candidat de premier choix.

Le paradoxe est le suivant : l'IA rend le marche de l'emploi plus froid, mais le marche de l'emploi valorise davantage les competences en IA. Vous ne pouvez pas y echapper, vous ne pouvez qu'apprendre a l'utiliser efficacement.

Cela nous ramene a la question centrale : qu'est-ce qu'une « utilisation efficace » ? Ce n'est pas savoir utiliser ChatGPT pour rediger des e-mails, c'est etre capable d'identifier quels problemes se pretent a une resolution par l'IA, de concevoir des prompts pour guider l'IA vers les resultats souhaites, et d'evaluer la qualite des resultats de l'IA pour apporter les corrections necessaires.

Cette competence ne se developpe pas en interdisant l'IA, mais par une pratique intensive et des essais-erreurs. C'est aussi pourquoi les etablissements qui embrassent activement l'IA, qui creent des Claude Builder Clubs, qui organisent des hackathons, offrent a leurs etudiants une education plus precieuse — ils permettent aux etudiants d'apprendre a collaborer avec l'IA dans un environnement relativement securise.


Le transfert de responsabilite

L'insight le plus essentiel de cette interview est peut-etre celui-ci : quand la technologie permet de « reussir ses examens sans etudier », le sens meme de l'apprentissage devient une question a laquelle chacun doit repondre par lui-meme.

C'est un transfert de responsabilite. De l'etablissement vers l'etudiant, des regles vers la conscience individuelle, de la motivation externe vers la motivation interne.

La motivation de l'education traditionnelle est externe : il faut reussir les examens pour obtenir le diplome, il faut le diplome pour trouver un emploi. Ce systeme d'incitation externe pousse les etudiants a apprendre. Mais quand l'IA permet de reussir les examens sans apprendre, ce systeme d'incitation s'effondre.

Il ne reste plus que la motivation interne : voulez-vous vraiment apprendre ? Ce domaine vous interesse-t-il vraiment ? Voulez-vous vraiment comprendre en profondeur, ou simplement obtenir un diplome ?

L'interview contient un detail tres revelateur. Un etudiant evoque l'aspect negatif des etudes de master — on cumule plusieurs emplois, on manque de temps, alors parfois on utilise l'IA pour terminer rapidement un quiz. Mais il ajoute ensuite : les etudes de master sont censees etre la periode ou l'on developpe sa pensee critique, ou l'on montre un cote plus affirme de soi-meme. Il est conscient de la contradiction, mais il choisit l'efficacite.

Ce n'est pas un jugement moral. Face aux pressions du reel, l'efficacite l'emporte souvent sur l'ideal. Mais ce choix revele une verite : quand la pression externe (terminer un quiz) entre en conflit avec la motivation interne (apprendre en profondeur), beaucoup choisissent la premiere option.

L'IA rend ce conflit encore plus aigu, car elle rend le fait de « se contenter de passer l'examen » extremement facile. A l'epoque pre-IA, meme si vous vouliez seulement boucler un examen, vous deviez tout de meme apprendre un minimum pour le reussir. L'IA supprime cette etape intermediaire — vous pouvez reussir sans rien apprendre du tout.

Cela force chacun a se confronter a cette question : pourquoi etes-vous reellement a l'universite ?

Si la reponse est « pour obtenir un diplome et trouver un emploi », alors utiliser l'IA pour faire ses devoirs est parfaitement logique. Si la reponse est « je veux vraiment apprendre ce domaine », alors vous devez activement resister a la tentation des raccourcis qu'offre l'IA.

L'etablissement ne peut pas faire ce choix a votre place. Les reglements ne peuvent pas vous imposer une motivation interne. C'est votre responsabilite.


La technologie n'attendra pas que vous soyez pret

L'interview se conclut sur une attitude qui traverse tout l'entretien : « On trouvera une solution. »

Les regles de l'ecole ne suivent pas le rythme ? On commence par utiliser l'IA, puis on dit a l'ecole ce qui fonctionne. L'IA peut servir a tricher ? On apprend progressivement a l'utiliser de maniere responsable. Le marche de l'emploi a change ? On s'adapte aux nouvelles regles du jeu.

Ce n'est pas de l'optimisme aveugle, c'est du realisme. La technologie est deja la, elle n'attendra pas que vous soyez pret pour commencer a transformer le monde. Vous pouvez choisir de resister, vous pouvez choisir de vous adapter, mais vous ne pouvez pas choisir d'arreter le temps.

La relation de cette generation d'etudiants avec l'IA n'est ni de la peur, ni une adoption aveugle, mais une exploration tatonnante dans le chaos, un apprentissage par l'experimentation.

Les projets qu'ils realisent au Claude Builder Club — pas techniquement complexes, mais qui resolvent de vrais problemes. Les idees qu'ils testent lors des hackathons — peut-etre absurdes, mais au moins ils essaient. Leur perplexite en cours — les regles ne sont pas claires, mais au moins ils reflechissent.

Cette posture d'apprentissage par la pratique est probablement plus efficace que n'importe quelle reglementation pour les aider a s'adapter a l'ere de l'IA.

Kevin Kelly, dans Ce que veut la technologie, propose le concept de « technium » : la technologie, prise dans son ensemble, semble avoir sa propre volonte et vouloir devenir toujours plus puissante. L'interview fait une observation qui rejoint cette idee : au cours des deux dernieres annees, quoi que l'IA ait besoin pour continuer a se developper, elle l'a obtenu. Le revirement sur l'energie nucleaire, les discussions sur les centres de donnees spatiaux — chaque fois qu'un goulot d'etranglement menace de ralentir l'IA, l'obstacle est leve.

Mais une formulation plus juste serait peut-etre : les etudiants creent ce dont ils ont besoin.

L'IA n'est qu'un outil. Ce qui determinera l'avenir, c'est la facon dont cette generation d'etudiants choisira d'utiliser cet outil — pour fuir la reflexion, ou pour l'augmenter. Pour boucler des examens, ou pour explorer le monde. Pour en faire une bequille, ou un outil.

Ce choix, l'etablissement ne peut pas le controler ; c'est a eux seuls d'en decider.

Et a en juger par cette interview, au moins une partie de ces etudiants reflechit serieusement a cette question. C'est peut-etre suffisant.

Commentaires

Table des matières