La théorie derrière l’évaluation multisource est que les différentes catégories d’évaluateurs (patron, collègues, employés) devraient se compléter puisqu’ils sont en mesure d’observer différentes facettes de la performance du participant. La réalité est cependant plus complexe que la théorie. Hoffman, Lance, Bynum et Gentry (2010) ont étudié les résultats de 16 450 participants à deux exercices d’évaluation multisource menés par le Center for Creative Leadership. Ils ont trouvé que la variance dans les évaluations s’explique par les causes suivantes (ils ont arrondi les chiffres, ce qui fait que le total ne donne pas 100%) :
- 4% dépendent de la performance générale de la personne évaluée
- 7% dépendent de la performance particulière aux dimensions évaluées
- 22% dépendent du groupe d’appartenance de l’évaluateur (patron, collègue, employé)
- 55% dépendent du point de vue unique de chaque évaluateur
- 14% s’expliquent par l’erreur de mesure.
Ces 55% indiquent que la plus grande partie de la variance dépend avant tout du point de vue personnel de l’évaluateur, indépendamment de sa position pour juger de la performance du participant. Cela ne signifie pas nécessairement que ces observations ne sont pas valides, mais cela pose une question sérieuse sur ce qu’on mesure vraiment. On peut penser que chacun dispose d’un point de vue particulier sur ce qui constitue le succès au travail. Une autre hypothèse serait celle des biais. Il serait illusoire, finalement, d’ignorer l’intérêt politique de l’évaluateur.
En conclusion, le choix des participants semble plus important que ce qu’on pourrait croire au premier abord. Les organisations qui utilisent les évaluations multisource devraient probablement davantage se soucier du choix des évaluateurs. La recherche en sélection montre que certains sont plus doués que la moyenne pour évaluer les autres, et on peut penser qu’il en va de même pour les évaluations multisource. Tous les subordonnés ou les collègues ne s’équivalent pas!
Commentaires