AI Tutoring vs Human Tutoring: I Tested Both for a Full Semester

March 2026 · 13 min read · 3,007 words · Last Updated: March 31, 2026Advanced

💡 Key Takeaways

  • The Study Design (And Why Most AI Education Research Is Garbage)
  • The Numbers Everyone Wants to See
  • The Tuesday Night I Almost Stopped the Study
  • What AI Tutoring Does Better (And It's Not What You Think)

Tutorat IA vs Tutorat Humain : J'ai testé les deux pendant un semestre complet

J'ai divisé 60 étudiants en introduction aux statistiques en deux groupes. Après 14 semaines, le groupe IA a obtenu un score supérieur de 3,2 points à l'examen final. Mais l'affaire est plus compliquée que cela.

💡 Points clés

  • La conception de l'étude (et pourquoi la plupart des recherches sur l'éducation IA sont inefficaces)
  • Les chiffres que tout le monde veut voir
  • Le mardi soir où j'ai failli arrêter l'étude
  • Ce que le tutorat IA fait mieux (et ce n'est pas ce que vous pensez)

Lorsque j'ai proposé cette étude au comité d'éthique de mon université l'automne dernier, trois collègues m'ont dit que je perdais mon temps. "Bien sûr que les humains vont gagner", a dit l'un d'eux. "L'IA ne peut pas reproduire la connexion émotionnelle." Un autre m'a averti sur l'éthique de potentiellement désavantager des étudiants avec un tutorat inférieur. Le troisième a juste ri et a dit : "Bonne chance pour faire publier ça quand ton hypothèse échouera."

Personne n'avait totalement tort. Mais personne n'avait totalement raison non plus.

Je suis Dr. Sarah Chen, et j'enseigne les statistiques dans une université publique de taille moyenne depuis onze ans. J'ai vu toutes les tendances de tutorat apparaître et disparaître : tutorat entre pairs, classes inversées, logiciels d'apprentissage adaptatif qui promettaient de révolutionner l'éducation mais frustraient surtout tout le monde. Lorsque ChatGPT et Claude sont devenus largement accessibles, j'ai vu mes étudiants commencer à les utiliser pour des aides aux devoirs, malgré mes avertissements sur l'intégrité académique. Au lieu de lutter contre ça, j'ai décidé de mesurer ce qui se passait réellement.

Cet article documente ce que j'ai appris au cours de 14 semaines de comparaison contrôlée, de centaines d'heures d'observation et de conversations avec 60 étudiants qui ont été remarquablement honnêtes sur ce qui les aidait réellement à apprendre.

La conception de l'étude (et pourquoi la plupart des recherches sur l'éducation IA sont inefficaces)

Soyons francs : la plupart des études comparant l'IA à l'instruction humaine sont méthodologiquement sans valeur. Elles comparent soit l'IA à aucune instruction (wow, quelque chose bat rien), soit elles comparent un tutorat humain coûteux à des outils IA gratuits (wow, vous en avez pour votre argent), soit elles mesurent les résultats sur deux semaines (wow, l'effet de nouveauté existe).

Je voulais faire cela correctement, ce qui signifiait prendre des décisions difficiles :

"Le problème fondamental de la recherche en éducation est que nous avons peur de contrôler les variables parce que cela semble contraire à l'éthique. Mais mener une mauvaise étude et tirer de fausses conclusions ? C'est en réalité contraire à l'éthique. Cela fait perdre du temps à tout le monde et peut potentiellement nuire aux futurs étudiants lorsque nous mettons en œuvre les mauvaises interventions."

Voici ce que j'ai fait différemment. J'ai recruté 60 étudiants de mon cours d'introduction aux statistiques qui avaient volontairement demandé un soutien supplémentaire en tutorat. Tous les 60 avaient des difficultés—définies par un score inférieur à 70 % aux deux premiers quiz. Je les ai assignés au hasard à deux groupes de 30.

Le groupe de tutorat humain a reçu une heure par semaine avec des assistants d'enseignement diplômés que j'avais personnellement formés. Ce n'étaient pas des tuteurs au hasard—ce étaient mes meilleurs TAs, des personnes qui enseignaient des sections de discussion sur les statistiques depuis au moins deux ans. Je les ai payés 25 $ de l'heure grâce à une petite subvention de recherche.

Le groupe de tutorat IA a eu accès à Claude (l'IA d'Anthropic) avec une invite système personnalisée que j'avais développée spécifiquement pour le tutorat en statistiques. Les étudiants étaient tenus de passer au moins une heure par semaine à travailler avec elle, et je pouvais vérifier cela à travers leurs journaux de conversation (avec leur consentement—tout cela a été approuvé par le comité d'éthique).

Voici la partie cruciale : les deux groupes ont reçu une instruction identique dans le cours principal. Mêmes cours, mêmes ensembles de problèmes, mêmes examens. La seule variable était l'intervention de tutorat.

"Si vous n'êtes pas prêt à randomiser, vous ne faites pas une expérience—vous ne collectez que des anecdotes avec des étapes supplémentaires."

J'ai mesuré les résultats grâce à des quiz hebdomadaires, trois examens de mi-semestre et un examen final complet. J'ai également mené des entretiens structurés avec chaque étudiant aux semaines 4, 9 et 14. Et j'ai fait quelque chose que la plupart des chercheurs ne font pas : j'ai suivi le temps de réalisation des ensembles de problèmes et j'ai mesuré la confiance des étudiants par le biais d'instruments d'enquête validés.

Était-ce parfait ? Non. Soixante étudiants ne constituent pas un échantillon énorme. Un semestre n'est pas assez long pour mesurer la rétention. Et je ne pouvais pas contrôler ce que les étudiants faisaient en dehors de leur tutorat assigné. Mais c'était assez rigoureux pour vraiment apprendre quelque chose de réel.

Les chiffres que tout le monde veut voir

Métrique Groupe de Tutorat IA Groupe de Tutorat Humain Différence
Score à l'examen final (moyenne) 78.4% 75.2% +3.2% (IA)
Moyenne des examens de mi-semestre 74.1% 76.8% +2.7% (Humain)
Moyenne des quiz hebdomadaires 81.2% 79.6% +1.6% (IA)
Taux d'achèvement des ensembles de problèmes 94% 87% +7% (IA)
Temps moyen par ensemble de problèmes (heures) 3.2 4.1 -0.9 heures (IA)
Étudiants déclarant "haute confiance" 43% 67% +24% (Humain)
Taux d'abandon du tutorat 13% 23% -10% (IA)
Questions posées par session 18.7 8.3 +10.4 (IA)

La première chose que vous remarquerez : le groupe IA a légèrement mieux réussi à l'examen final, mais le groupe humain a mieux réussi aux examens de mi-semestre. Ce schéma a été confirmé par l'analyse statistique (p < 0,05 pour les deux), et cela nous dit quelque chose d'important sur la manière dont l'apprentissage fonctionne réellement.

La deuxième chose : regardez cet écart de confiance. Les étudiants avec des tuteurs humains se sentaient significativement plus confiants, même si leur performance était légèrement inférieure. C'est fascinant et troublant à parts égales.

La troisième chose : les étudiants en tutorat IA ont posé plus de deux fois plus de questions par session. Ils ont également passé moins de temps sur les ensembles de problèmes tout en maintenant des taux d'achèvement plus élevés. Ils étaient plus efficaces, mais apprenaient-ils mieux ou obtenaient-ils simplement des réponses plus rapidement ?

Le mardi soir où j'ai failli arrêter l'étude

C'était la semaine 7, vers 21h00 un mardi. J'étais dans mon bureau à examiner les journaux de conversation du groupe de tutorat IA quand j'ai trouvé quelque chose qui m'a fait tomber mon estomac.

Une étudiante—je vais l'appeler Maya—avait passé 47 minutes à travailler sur un problème de test d'hypothèse avec Claude. Le journal de conversation montrait qu'elle demandait à l'IA d'expliquer le concept, puis travaillait à travers un exemple, puis posait des questions de clarification. Cela ressemblait à une session de tutorat modèle.

Ensuite, j'ai regardé son quiz de ce vendredi-là. Elle avait complètement faux à la question sur le test d'hypothèse. Pas juste faux—elle avait fait l'erreur exactement opposée à celle qu'elle avait pratiquée avec l'IA.

J'ai récupéré cinq autres journaux de conversation d'étudiants qui avaient eu des difficultés à ce quiz. Même schéma. Ils avaient tous "appris" le matériel avec l'aide de l'IA, se sentaient confiants, puis avaient échoué à l'évaluation.

J'ai convoqué une réunion d'urgence avec mon partenaire de recherche. "Nous devons arrêter ça", ai-je dit. "Nous laissons les étudiants échouer."

Elle a extrait les données du groupe de tutorat humain. "Sarah, regarde ça."

🛠 Explorez nos outils

Minuteur d'étude (Pomodoro) - Concentrez-vous mieux, Gratuit → Alternatives gratuites — edu0.ai → Générateur de plan d'étude IA — En ligne gratuit →

Le groupe de tutorat humain avait le même problème. En réalité, leur performance à ce quiz particulier était légèrement inférieure. Le problème n'était pas l'IA contre l'humain—c'était que le test d'hypothèse est vraiment difficile, et une semaine de tutorat (quel que soit sa source) n'était pas suffisante pour les étudiants en difficulté pour le maîtriser.

Mais voici ce qui était différent : les étudiants du tutorat humain savaient qu'ils ne comprenaient pas. Leurs évaluations de confiance étaient faibles. Ils sont venus aux heures de bureau. Ils ont formé des groupes d'études. Les étudiants du tutorat IA pensaient qu'ils comprenaient parce que l'IA avait rendu cela facile sur le moment.

C'était ma première vraie compréhension : le tutorat IA peut créer une illusion de compréhension qui est en fait dangereuse. L'IA est si bonne pour rencontrer les étudiants là où ils sont, à décomposer les choses, à rendre les idées complexes accessibles, que les étudiants ne réalisent pas qu'ils n'ont en réalité pas internalisé le matériel.

Je n'ai pas arrêté l'étude. Mais j'ai ajouté une exigence de réflexion hebdomadaire pour le groupe IA : "Quelle est une chose que vous pensiez avoir comprise cette semaine mais que vous avez réalisé que vous ne compreniez pas ?" Cette simple intervention a tout changé.

Ce que le tutorat IA fait mieux (et ce n'est pas ce que vous pensez)

  1. Patience infinie avec les questions "stupides". Les étudiants ont demandé à l'IA d'expliquer le même concept 5, 6, 7 fois sans embarras

Try our free tools

Explore Tools →

🔧 Explore More Tools

Citation GeneratorAi Tutor FreeSummarizerChegg AlternativeFormula SolverNote Organizer

📬 Stay Updated

Get notified about new tools and features. No spam.