top of page

Tutoriel

30

mn

Évaluer les acquis (Kirkpatrick 1 & 2)

Tutoriel — Évaluer les acquis avec Kirkpatrick (Niveaux 1 & 2)


1) Aligner objectifs et plan de mesure (avant la formation)


Kirkpatrick 1 & 2 ne “s’ajoutent” pas Ă  la fin : ils se conçoivent au dĂ©part, Ă  partir d’objectifs d’apprentissage observables et d’un plan de mesure lĂ©ger.


Blueprint de mesure (prĂȘt Ă  copier)

  • Objectifs (Bloom rĂ©visĂ©e) : « À l’issue, l’apprenant sera capable de [verbe d’action] [objet] [conditions] [critĂšres]. »
    Ex. : « Configurer un accĂšs VPN sur poste Windows en ≀ 6 min sans alerte de sĂ©curitĂ©. »

  • CritĂšres (3 max) : Exactitude (0 faute critique), ClartĂ© (format exigĂ© respectĂ©), DĂ©lai (≀ X min).

  • Instruments :
    Niveau 1 – RĂ©action : mini-questionnaire (≀ 10 items) → utilitĂ© perçue, conditions d’apprentissage, intention d’application.
    Niveau 2 – Apprentissage : prĂ©-test (diagnostic) + post-test (application), mĂȘmes objectifs, mĂȘmes critĂšres.

  • Seuils : rĂ©ussite si ≄ 80 % au post-test et pas de faute critique ; amĂ©lioration attendue ≄ +30 pts vs prĂ©-test ou gain normalisĂ© g = (post − prĂ©) / (100 − prĂ©) ≄ 0,5.

Liens internes :
→ Écrire de vrais objectifs : Concevoir un module de formation (mĂ©thode Bloom)
→ Construire un quiz propre : CrĂ©er un quiz en ligne


2) Kirkpatrick Niveau 1 — RĂ©action (aprĂšs la formation, 5 minutes)


But : capter ce que les personnes perçoivent de l’utilitĂ© et des conditions, pour amĂ©liorer l’expĂ©rience. La satisfaction n’est pas une preuve d’apprentissage, mais elle conditionne l’engagement.


Questionnaire utile et court (10 items max)

  • Tronc commun (Ă©chelles 1–5)
    UtilitĂ© perçue : « Je vois comment appliquer ce que j’ai appris. »
    Clarté : « Les consignes et exemples étaient clairs. »
    Rythme & charge : « La durée et le rythme étaient adaptés. »
    Interaction : « J’ai eu assez de pratique/feedback. »
    Intention : « Je testerai une pratique vue aujourd’hui d’ici 7 jours. »

  • 2 questions ouvertes
    « Qu’est-ce qui a aidĂ© ton apprentissage ? (1 exemple concret) »
    « Qu’est-ce que tu changerais pour la prochaine session ? (1 proposition actionnable) »

  • Administration & accĂšs : QR code / lien immĂ©diat, mobile-friendly, anonyme par dĂ©faut (sauf suivi volontaire).

  • Lecture rapide : viser ≄ 4/5 sur utilitĂ© et clartĂ© ; dĂ©clencher actions si un item < 3,5/5 ou si > 20 % d’avis “bas”.

À Ă©viter : 30 questions “cosmĂ©tiques”, confusion avec une Ă©valuation du formateur, items vagues du type « Formation intĂ©ressante ? ».


3) Kirkpatrick Niveau 2 — Apprentissage (prĂ©/post & tĂąches notĂ©es)


But : mesurer ce qui a changĂ© chez l’apprenant (connaissances, compĂ©tences, attitudes observables). On Ă©value ce qui a Ă©tĂ© enseignĂ© & entraĂźnĂ© — ni plus, ni moins.


Conception et lecture des résultats (sans usine à gaz)

  • PrĂ©-test (diagnostic, 5–7 min) : 6–8 items situĂ©s (QCM d’analyse, QROC de prĂ©cision, 1 mini-cas). Sert Ă  calibrer et Ă  personnaliser l’entraĂźnement.

  • Post-test (application, 7–10 min) : mĂȘmes objectifs, nouvelles variantes. Inclure 1 tĂąche pratique avec rubrique 3 critĂšres × 4 niveaux (0=non atteint → 3=autonome).
    Ex. Rubrique : Exactitude (0 faute critique), ClartĂ© (format exigĂ©), DĂ©lai (≀ X min). Score /9.

  • Calculs utiles
    Uplift
    = post − prĂ© (pts).
    Gain normalisĂ© g = (post − prĂ©) / (100 − prĂ©) (attendu ≄ 0,5).
    TĂąche pratique : rĂ©ussite si ≄ 7/9 et 0 faute critique.

  • RemĂ©diation
    Si post < seuil → parcours court (capsule 5’ + 3 items) puis re-test A/B.
    Partager exemples de bonnes réponses et erreurs fréquentes (1 slide max).

Trucs de pro

  • Blueprint : chaque objectif ↔ ≄ 2 items (Ă©vite les biais de tirage).

  • ÉnoncĂ©s : un seul verbe d’action, contexte visible, critĂšres rappelĂ©s.

  • FiabilitĂ© : mĂ©langer l’ordre, limiter l’indice de guessing, conserver une banque d’items versionnĂ©e.

Dépannage rapide

  • Satisfaction haute, apprentissage bas → trop de thĂ©orie : augmenter pratique & feedback ; revoir objectifs ↔ activitĂ©s.

  • PrĂ©/post identiques → items mal alignĂ©s ou trop faciles ; renforcer cas d’application.

  • Dispersion des scores → hĂ©tĂ©rogĂ©nĂ©itĂ© de niveau : prĂ©voir pistes diffĂ©renciĂ©es (exercices verts/oranges/rouges).

Validation concrĂšte

  • Niveau 1 : ≄ 80 % rĂ©pondants ; utilitĂ©/clartĂ© ≄ 4/5 ; 2 amĂ©liorations dĂ©cidĂ©es pour la prochaine itĂ©ration.

  • Niveau 2 : gain normalisĂ© moyen ≄ 0,5 ; ≄ 80 % rĂ©ussissent la tĂąche pratique (≄ 7/9, 0 faute critique).

  • TraçabilitĂ© : dossier Evaluation_YYYY-MM (questionnaires, items, seuils, rĂ©sultats, dĂ©cisions v1.2→v1.3).

Ressources internes associées

  • ScĂ©nariser autrement : ScĂ©nariser une classe inversĂ©e

  • Mesurer dans la durĂ©e : Mesurer la progression d’un apprenant/bĂ©nĂ©ficiaire

bottom of page