« Fitzpatrick 2012 » : différence entre les versions
(3 versions intermédiaires par le même utilisateur non affichées) | |||
Ligne 99 : | Ligne 99 : | ||
=== Les modèles d'évaluation ou les théories de l'évaluation === | === Les modèles d'évaluation ou les théories de l'évaluation === | ||
L'auteur cite un certain nombre de références, mais sans développer de sorte que cette section est peu utilisable telle quelle, sinon comme point de départ : | |||
* [[Stufflebeam_1971]] et le [[modèle CIPP]] (contexte - intrants - processus - résultats) | |||
* Patton : utilization-focused evaluation | |||
* Stake : exemple d'approche participative | |||
* Guba et Lincoln : approche naturaliste et évaluation de la quatrième génération | |||
etc. | |||
<br> | |||
=== Les étapes requises === | === Les étapes requises === | ||
* Reprenant 6 étapes tirés de Fitzpatrick, Sanders & Worthen (2011), qu'ils considèrent comme incontournables quel que soit le modèle utilisé. | |||
# La familiarisation avec le programme et son contexte : identifier les parties prenantes, leurs intérêts respectifs, la culture de l'organisation, le programme considéré, etc. | |||
# Les questions de l’évaluation qui serviront à cerner les aspects du programme qui seront étudiés : lister les questions, les classer, établir les priorités. | |||
# La sélection des méthodes pour recueillir les données, l’identification des sources d’information, l’élaboration des procédures pour recueillir les données et les stratégies requises pour les analyser et les interpréter : choix des méthodes de collecte, des sources d'info, fixation des échéances et des responsabilités. | |||
# L’évaluation proprement dite : à mener avec souplesse, en continuant à impliquer / maintenir l'intérêt des acteurs. | |||
# L’analyse et l’interprétation des données et de l’information recueillies : étape la plus sensible surtout si les acteurs n'ont pas été adéquatement préparés à recevoir les résultats. | |||
# La diffusion des résultats : diverses possibilités et canaux, mais informer les personnes en position stratégique d'abord. |
Dernière version du 11 octobre 2014 à 11:12
1. Références
- Référence complète APA : Fitzpatrick, J. (2012). L’évaluation de programme. Quelques considérations de premier plan. IN Hurteau M., Houle S., & Guillemette F. L’évaluation de programme axée sur le jugement crédible. (pp. 15-38). Montréal : Presses de l’Université du Québec.
- Auteur(s) : Jody Fitzpatrick
- Livre : Hurteau_Houle_et_al_2012
2. Copies
- Copie en ligne :
- Copie locale :
- Copie physique : voir l'ouvrage.
3. Mots-clés
4. Résumé officiel / abstract
5. Résumé personnel (facultatif)
La définition de l'évaluation
- Point de vue de différents auteurs sur l'évaluation (en général et malheureusement pas spécifiquement de l'évaluation de programme de formation)
- "activité qui consiste à fournir de l'information à la fois pertinente et cohérente en vue de générer un jugement et d'alimenter une éventuelle prise de décision"
L'objet de l'évaluation
- L'évaluation peut porter sur des programmes, des politiques ou des produits (à nouveau ici, on ne parle pas spécifiquement de formation ou d'enseignement).
La raison de l'évaluation
- Nombreuses raisons possibles :
- amélioration du programme (évaluation "formative")
- reddition de comptes
- prise de décision
- amélioration organisationnelle
- amélioration de la société
Les types d'évaluation
Perspective historique
- L'évaluation contemporaine est issue de 2 vagues successives :
- 1e vague année 1960 et 70 - accent sur l'amélioration de programme
- 2e vague plus récemment - accent sur la reddition de comptes
Evaluations axées sur les visées : évaluation formative et sommative
- On distinguera :
- évaluation formative : vise l'amélioration du programme (cf. 1e vague supra)
- évaluation sommative : vise la prise de décision concernant le lancement ou la continuation du programme (cf. 2e vague supra)
- Les personnes impliquées sont différentes selon la visée : impliquant les acteurs du programme dans le 1er cas, ne les impliquant généralement pas dans le second.
- La distinction peut être moins nette dans la pratique et se modifier en cours de route !
Evaluations axées sur les composantes du programme
L'auteur cite ici quelques démarches qui ne sont pas de l'évaluation de programme stricto sensu mais s'en rapprochent :
- analyse des besoins : aide à prendre une décision de nature sommative à l'étape préliminaire du programme
- suivi/monitoring du programme : vise à déterminer si le programme se déroule comme prévu initialement
- évaluation des résultats ou des effets : s'intéresse aux effets à court, moyen et long terme
Les modèles d'évaluation ou les théories de l'évaluation
L'auteur cite un certain nombre de références, mais sans développer de sorte que cette section est peu utilisable telle quelle, sinon comme point de départ :
- Stufflebeam_1971 et le modèle CIPP (contexte - intrants - processus - résultats)
- Patton : utilization-focused evaluation
- Stake : exemple d'approche participative
- Guba et Lincoln : approche naturaliste et évaluation de la quatrième génération
etc.
Les étapes requises
- Reprenant 6 étapes tirés de Fitzpatrick, Sanders & Worthen (2011), qu'ils considèrent comme incontournables quel que soit le modèle utilisé.
- La familiarisation avec le programme et son contexte : identifier les parties prenantes, leurs intérêts respectifs, la culture de l'organisation, le programme considéré, etc.
- Les questions de l’évaluation qui serviront à cerner les aspects du programme qui seront étudiés : lister les questions, les classer, établir les priorités.
- La sélection des méthodes pour recueillir les données, l’identification des sources d’information, l’élaboration des procédures pour recueillir les données et les stratégies requises pour les analyser et les interpréter : choix des méthodes de collecte, des sources d'info, fixation des échéances et des responsabilités.
- L’évaluation proprement dite : à mener avec souplesse, en continuant à impliquer / maintenir l'intérêt des acteurs.
- L’analyse et l’interprétation des données et de l’information recueillies : étape la plus sensible surtout si les acteurs n'ont pas été adéquatement préparés à recevoir les résultats.
- La diffusion des résultats : diverses possibilités et canaux, mais informer les personnes en position stratégique d'abord.