Erreurs et biais qui influencent l'évaluation du rendement

Etant donné que le jugement humain est trop souvent soumis à l'influence de préjugés, de préjugés et d'autres influences subjectives et externes, il est extrêmement difficile d'obtenir des évaluations objectives et précises non colorées par ces influences. Guilford (1954) a classé les différents types d'erreurs constantes susceptibles de se produire dans le processus de classement et suggère certaines précautions à prendre. Les erreurs constantes sont celles qui résultent d'un biais systématique de la part du juge et sont généralement un peu plus faciles à gérer que les erreurs de marque qui sont non systématiques ou aléatoires.

1. Erreurs de clémence:

Chaque évaluateur a tendance à utiliser son propre ensemble de normes ou son propre cadre de référence intégré, qu'il utilise pour porter des jugements sur l'évaluation du rendement. L'un des problèmes majeurs consiste à faire correspondre différents noteurs à des différences de normes afin de pouvoir comparer leurs notations.

Certains évaluateurs pourraient être mieux décrits comme étant généralement «faciles» ou indulgents, tandis que d'autres pourraient être classés comme «durs» ou sévères dans leurs jugements ou leurs évaluations. Quand un évaluateur est trop sévère, il commet une erreur de clémence négative, tandis que les évaluateurs faciles font l’erreur de clémence positive. Le diagramme ci-dessous illustre la répartition des notations que l’on peut obtenir de deux évaluateurs différents, l’un trop indulgent et l’autre trop sévère.

Les systèmes d’évaluation peuvent être conçus de différentes manières pour éviter l’erreur de clémence. La première méthode consiste à définir clairement les catégories ou «points d'ancrage» utilisés sur l'échelle. Par exemple, si nous demandions aux superviseurs de classer leurs subordonnés sur la «compétence totale», nous pourrions utiliser l'une des deux échelles indiquées ci-dessous.

L'échelle A n'a pas de points d'ancrage ou de référence que l'évaluateur puisse utiliser comme guide; il doit établir le sien. Le risque est que différents évaluateurs définissent les points différemment. Avec l'échelle B, un nombre de points a été défini pour l'évaluateur, avec la probabilité de réduire le problème. Ces points d'ancrage ne résolvent pas complètement le problème de la clémence, car le «faible» d'un évaluateur pourrait être la «moyenne» d'un autre. Cependant, l'échelle verbale introduit la possibilité d'un cadre de référence commun.

Une méthode d'ancrage potentiellement plus efficace que celle donnée à l'échelle B est connue sous le nom de méthode «Key-Man». L'une des méthodes les plus utilisées pour lutter contre l'erreur de clémence consiste à utiliser la technique de la distribution forcée. Il s’agit d’une procédure dans laquelle l’évaluateur doit classer une certaine proportion de ses réponses dans différentes catégories. Une telle distribution est illustrée à la figure 7.1.

Exiger que tous les noteurs adhèrent à une distribution standard en termes de nombre de personnes à attribuer à chaque catégorie est une méthode efficace pour éviter les erreurs de clémence. Cependant, il arrive souvent que les évaluateurs deviennent légèrement mécontents d’être forcés de suivre un modèle de réponse aussi strict. Cela prend aussi beaucoup plus de temps car il faut veiller à avoir le bon numéro dans chaque catégorie.

2. L'effet de halo:

L'erreur de halo est une tendance à laisser notre évaluation d'un individu sur un trait influencer notre évaluation de cette personne sur d'autres traits spécifiques. Par conséquent, si nous estimions que le travailleur X était un employé de premier plan à un égard, nous pourrions avoir tendance à l’évaluer très haut pour tous les traits, même s’il était plutôt médiocre pour certains.

Il s'agit d'un type d'erreur très courant et également très difficile à corriger. Symonds (1925) a suggéré que cela se produirait le plus probablement avec les traits suivants:

1. Traits difficiles à observer

2. Traits inconnus

3. Traits difficiles à définir

4. Traits impliquant des réactions interpersonnelles

5. traits de caractère

3. Erreurs de classement logique:

Cette erreur est assez similaire à l'erreur de halo. Dans l'erreur de halo, l'évaluateur laisse involontairement son jugement sur certains traits être influencé par son évaluation de l'individu sur d'autres traits. Une erreur logique implique un évaluateur qui a tendance à donner à une personne un score élevé pour un trait spécifique simplement parce qu'il estime que la personne possède beaucoup d'un second trait spécifique et qu'il estime que les deux traits sont logiquement liés. Lorsqu'un évaluateur a tendance à surestimer la relation réelle entre les traits, il commet probablement cette erreur d'évaluation.

4. Erreurs de contraste et de similarité:

L'erreur de contraste est un type de biais plutôt intéressant. Il fait référence à une tendance générale de la part d'un évaluateur à juger les autres, dans un navigateur, de la manière dont il se perçoit lui-même. S'il se perçoit comme très honnête, par exemple, il aurait tendance à attribuer à d'autres une note légèrement inférieure à la normale en ce qui concerne la dimension «honnêteté».

Le contraire d'une erreur de contraste, que l'on pourrait appeler une erreur de similarité, consiste pour l'évaluateur à évaluer les autres personnes de la même manière qu'il se perçoit. Une illustration de ceci serait un évaluateur se sentant très honnête, qui attribue également une grande honnêteté à tous les autres individus. En d'autres termes, les évaluateurs doivent être formés pour évaluer les autres et non eux-mêmes.

5. Erreurs de tendance centrale:

Certains juges ou évaluateurs sont souvent très réticents à porter des jugements extrêmes sur d’autres personnes. Cette réticence les amène à ne pas utiliser les scores d'échelle extrêmes de l'instrument d'évaluation. Ceci, à son tour, entraîne un changement substantiel de forme dans la distribution des scores pour cet évaluateur, comme le montre la figure 7.2. Notez que la dispersion (variabilité) des jugements est bien moindre pour l’évaluateur qui fait une erreur de tendance centrale. Ce type d'erreur entraîne donc une restriction de la plage des scores des critères, ce qui peut avoir un effet sur les coefficients de validité ultérieurs. L'un des meilleurs moyens d'éviter cette erreur consiste à utiliser le système de distribution forcée décrit précédemment.

6. Erreurs de proximité:

La dernière erreur que nous prendrons en compte provient généralement de la manière dont les divers articles ont été placés ou commandés sur le formulaire d’évaluation. Parfois qualifiée d'effet d'ordre, cette erreur illustre l'influence des éléments environnants sur la notation attribuée à une personne pour un élément particulier.

Si l'élément précédent était un trait sur lequel l'individu avait reçu une évaluation très favorable, l'évaluateur peut avoir tendance à laisser la réponse favorable «en série» se reporter à l'élément suivant de la liste. Le résultat sera une note légèrement plus élevée pour le prochain élément que ce qui pourrait autrement être attribué. Il y a toujours la possibilité que la réaction inverse se produise. Si les éléments précédents ont trait à des traits pour lesquels le travailleur a généralement été jugé élevé, lorsque l'évaluateur obtient un caractère dans lequel le travailleur ne mérite vraiment qu'un classement «modéré», il peut attribuer un score plutôt défavorable simplement en raison de l'effet de contraste. des éléments précédents.

La procédure la plus courante pour minimiser les erreurs de proximité consiste à utiliser plusieurs formes différentes de l'échelle d'évaluation, les éléments étant placés dans un ordre différent sur chaque formulaire. Malheureusement, lorsque le nombre d'articles devient important, le contrôle systématique de l'ordre des articles devient extrêmement complexe et difficile dans la plupart des situations pratiques. Pour éviter cette erreur, la pratique courante consiste généralement à ne créer que deux formulaires, les éléments attribués à chaque formulaire utilisant un tableau de nombres aléatoires.