Différence entre l'analyse de routine et l'analyse ADHOC

Différence entre l'analyse de routine et l'analyse ADHOC!

Deux types d'analyses sont généralement nécessaires pour obtenir des informations sur les données de performance de service. Ce sont des analyses de routine et des analyses ad hoc. Comme son nom l'indique, l'analyse de routine fait référence à l'analyse systématique et systématique effectuée à chaque période de reporting afin d'évaluer la performance du service en termes de métrique d'efficacité, de capacité et d'efficacité. L'analyse ad hoc est le test de diagnostic détaillé nécessaire pour rechercher les raisons des modifications de performances inattendues. La nature et la complexité de l'analyse ad hoc varieront d'une situation à l'autre.

Les activités d'analyse de routine doivent être planifiées de manière à pouvoir être réalisées avec le moins d'effort possible. Beaucoup d’équipes sont tellement fatiguées par l’effort nécessaire pour produire des résultats chaque mois qu’il reste peu de temps pour l’interprétation ou l’analyse ad hoc.

Cependant, l’équipe de gestion des services devrait s’intéresser principalement aux analyses ad hoc, car c’est grâce aux détails de cette analyse que l’on peut obtenir les informations les plus importantes sur les performances des services. D'autre part, les procédures d'analyse de routine doivent être reproductibles, documentées et décentralisées.

Répétable signifie qu'il devrait être possible de suivre les mêmes étapes d'analyse à chaque période. Certaines équipes changent de métrique tous les quelques mois, ce qui rend très difficile l'obtention d'un tableau complet de la performance du service au fil du temps.

Dans la mesure du possible, les procédures d'analyse doivent rester inchangées pendant au moins douze mois afin que les tendances puissent être étudiées. Les procédures d'analyse de routine doivent être documentées afin que toutes les personnes effectuant l'analyse suivent les mêmes étapes dans le même ordre.

Une documentation appropriée aide également à la formation du nouveau personnel. Dans la mesure du possible, les tâches les plus répétitives d'analyse de routine doivent être automatisées afin de pouvoir être reproduites régulièrement avec une intervention minimale. La décentralisation signifie que presque toutes les analyses de routine (et autant que possible d’analyses ponctuelles) doivent être effectuées à proximité du lieu où le travail est effectué.

Procédures de partage des résultats d'analyse:

Si la prestation de service est répartie sur plusieurs zones géographiques ou si différents sous-processus sont gérés par différentes organisations, vous devez développer des accords détaillant la manière dont les résultats de l'analyse seront envoyés à l'équipe de gestion des services et sous quel format.

En règle générale, les résultats des différentes organisations doivent être consolidés et agrégés par l'équipe de gestion des services. Toute analyse ad hoc nécessaire peut être réalisée par l'équipe ou par l'organisation responsable appropriée. L’équipe de gestion des services peut également effectuer des vérifications ponctuelles ou des audits des résultats départementaux et régionaux de temps à autre.

Une fois toutes les analyses ad hoc terminées, l’équipe doit dresser une liste des interventions pouvant être nécessaires pour stabiliser les performances d’un ou de plusieurs processus, puis les renvoyer aux organisations appropriées pour la mise en œuvre.

En règle générale, les procédures d'analyse doivent être conçues pour permettre à l'équipe de gestion des services d'accéder à toutes les informations dont elle a besoin sans qu'il soit obligé d'effectuer elle-même une grande quantité d'analyses de données. Les procédures doivent également garantir que toutes les régions et tous les départements chargés de la gestion des divers composants de service participent de manière égale à la fourniture d’informations et de recommandations à l’équipe de gestion des services.

Outils d'analyse:

Les résultats peuvent être affichés sous forme de nombre dans des tableaux ou sous forme graphique. Avec le grand nombre d'outils graphiques maintenant disponibles pour les ordinateurs de bureau, il est facile de produire des résultats sous forme de graphiques. L’avantage des affichages graphiques ou visuels est qu’il est possible de présenter de manière pratique de grandes quantités d’informations de manière facilement assimilable.

L'inconvénient de ces écrans est qu'ils peuvent être manipulés pour donner au téléspectateur une première impression biaisée ou erronée des données. Par exemple, l’échelle d’un graphique peut être ajustée de telle sorte que les petites différences entre les points de données soient amplifiées, ce qui laisse penser à l’utilisateur que de grandes différences sont présentées.

Même si les données ne sont pas manipulées intentionnellement, une présentation négligente ou incompétente peut amener les téléspectateurs à tirer des conclusions indésirables. Les présentateurs de données graphiques doivent donc veiller à ce que la méthode d'affichage choisie soit la plus appropriée pour représenter les informations et à ce que les biais visuels soient minimisés.

Nous décrivons maintenant brièvement quatre méthodes polyvalentes d'affichage graphique de données pouvant être utilisées dans une grande variété d'applications: histogrammes, diagrammes d'exécution, diagrammes de dispersion et diagrammes de contrôle.

Ces méthodes nous permettent de répondre visuellement aux questions courantes suivantes posées lors de toute analyse de données:

Comment les données sont-elles distribuées?

Comment variable est la performance?

Comment les résultats ont-ils changé au fil du temps?

Quels facteurs affectent les résultats observés?

Quelle est la stabilité des performances par rapport aux normes?

À quel point la performance est-elle conforme aux normes?

Histogrammes:

Un histogramme est un graphique à barres qui indique le nombre de fois où chaque valeur d'une variable apparaît dans un échantillon d'observations. La tabulation du nombre d'occurrences de chaque valeur s'appelle une distribution de fréquence et un histogramme est une représentation graphique de cette distribution. Les variables peuvent être discrètes (en prenant des valeurs ordinales telles que 1, 2, 3) ou continues.

Les histogrammes de variables discrètes sont également appelés histogrammes. Les variables continues telles que le temps de cycle sont segmentées en groupes et le nombre d'observations dans chaque groupe est représenté sur un graphique. Le point médian de chaque groupe est généralement utilisé comme valeur représentative du groupe, bien que toute autre valeur puisse également être utilisée. L'histogramme est une image visuelle de la forme de la distribution des données.

Certaines questions auxquelles il est possible de répondre à partir d’un histogramme sont les suivantes:

La distribution est-elle symétrique?

Y at-il de longues queues (c.-à-d. Grand nombre de valeurs à chaque extrémité de l’échelle?)

Y a-t-il plusieurs pics?

Quelle est l'étendue de la dispersion des données (c.-à-d. La variable prend-elle plusieurs valeurs ou quelques-unes?)

Des versions spéciales des histogrammes sont utiles pour des applications spécifiques. Un graphique de Pareto est un histogramme où les barres sont classées de la plus grande fréquence à la plus petite. Ce graphique peut être utilisé pour identifier les quelques facteurs critiques qui contribuent le plus à la variabilité des données.

Les diagrammes de Pareto sont utiles pour analyser les principales causes de défauts, pour identifier les activités qui entraînent les coûts les plus importants ou pour déterminer les facteurs qui ont le plus grand impact sur la satisfaction du consommateur. Un cas particulier d'un diagramme à barres est un diagramme à barres en cluster ou empilé qui peut être utilisé pour comparer une variable à travers plusieurs dimensions discrètes.

Run Chart:

Un graphique d'analyse est un graphique qui montre les performances d'une variable dans le temps.

Ces parcelles servent les objectifs suivants:

Identifier les modèles de performances cycliques ou les variations saisonnières.

Déterminer les tendances historiques de la performance.

Évaluer l'effet des améliorations de service sur les performances.

Identifier le décalage entre les améliorations de service et les modifications de performances.

Déterminer les effets de l'usure ou de l'expérience entraînant une dérive des performances dans le temps

Évaluer l'écart entre la performance souhaitée et la performance réelle dans le temps.

Nuage de points:

Un nuage de points montre la relation entre deux variables telles que le taux de défauts et l'expérience des employés, ou le temps nécessaire pour effectuer une transaction de service et la satisfaction du client.

Le diagramme de dispersion montre ce qui suit:

Si une relation existe entre deux variables.

La forme de la relation (c'est-à-dire linéaire, incurvée).

La quantité de variabilité aléatoire dans la relation entre deux variables.

Si cette variabilité diffère pour des valeurs différentes des deux variables.

Un nuage de points est un graphe, avec les valeurs de la variable dépendante (dont la valeur est prédite) sur l'axe des ordonnées et celles du prédicteur ou de la variable indépendante (qui prédit la valeur de la variable dépendante) sur l'axe des x. Chaque point du graphique représente une paire de valeurs des variables dépendante et prédictive.

La pente d'un nuage de points montre l'étendue de la relation moyenne entre deux variables. Si la pente est plate, aucune relation n'existe. La quantité de dispersion dans le graphique (c.-à-d. Si les valeurs y sont assez proches pour chaque valeur de x ou si elles forment un «nuage») montre l'étendue de la variabilité aléatoire dans les données et constitue une mesure de la force de la relation entre les deux variables. Un nuage de points est souvent une première étape utile avant d'estimer une équation de régression, car il donne une indication de la nature, de la force et de la forme de la relation entre deux variables.

Le nuage de points peut également être utilisé pour valider les hypothèses formulées lors de la conception d'un service. Supposons qu'une équipe de conception tente de développer une fonction de performance pour un attribut de service particulier pour lequel la forme fonctionnelle exacte est inconnue. Supposons que l’équipe de conception réalise une approximation de la fonction en combinant expérience et jugement.

Une fois le service en service, un nuage de points peut être utilisé pour valider la forme fonctionnelle supposée. L'équipe de gestion des services peut collecter des données sur les performances des attributs à différents niveaux de caractéristiques de fonctionnement. La conception peut devoir être modifiée si la fonction de performance réelle est très différente de celle supposée.

Carte de contrôle:

Une carte de contrôle est un outil graphique faisant partie d'une méthodologie connue sous le nom de «contrôle de processus statistique (SPC)». Cette méthodologie est utilisée pour mesurer la variabilité des processus de fabrication et de service en vue de déterminer si cette variabilité est imputable à des causes systématiques ou aléatoires.

Une carte de contrôle compare les performances d'une variable continue ou discrète à des «limites de contrôle» calculées statistiquement. L'idée des limites de contrôle découle du fait que la performance de tout attribut de service est intrinsèquement variable en raison d'une variété de causes aléatoires qui ne peuvent pas être identifiées ou contrôlées. Cette variabilité aléatoire devrait être la seule source de variabilité dans un service conçu pour produire un niveau de performance moyen stable, robuste aux changements dans une plage de fonctionnement donnée.

De plus, cette variabilité devrait rester dans les limites spécifiées par la conception. Une carte de contrôle teste la stabilité des performances tout au long du fonctionnement du service. Si la performance est normalement distribuée, alors, d'après les propriétés de la distribution normale, nous nous attendrions également à ce que 99, 7% des valeurs de performance se situent de manière aléatoire dans les trois écarts types de la valeur moyenne. Si ces données sont satisfaites par les données collectées, on dit que la performance du service est sous contrôle. Les valeurs de performance représentées par trois écarts-types sont appelées limites de contrôle.

La procédure pour tracer une carte de contrôle comprend deux étapes: l'étalonnage et le contrôle. Au cours de l'étape d'étalonnage, la moyenne et la variabilité des données sont calculées à partir des données de performances de processus historiques et les limites de contrôle sont déterminées.

Les limites de contrôle sont les valeurs de performance à trois écarts types de part et d'autre de la moyenne. Il existe différentes méthodes pour estimer l'écart-type des données. Une transformation de la plage des observations, qui correspond à la différence entre la valeur maximale et minimale, est une estimation couramment utilisée.

Lors de la phase de contrôle, les observations actuelles des performances du processus sont régulièrement représentées sur la carte de contrôle calibrée. Si le processus est sous contrôle, nous nous attendons à ce que plus de 99% des points du graphique se situent entre les limites de contrôle supérieure et inférieure. Nous nous attendions également à ce que les points soient distribués de manière aléatoire, c'est-à-dire qu'aucun motif inhabituel ne devrait être observé dans les données. Des tests standard existent pour vérifier les modèles inhabituels au moyen d'une inspection visuelle.

Distribution du rapport:

Une fois l'analyse des données terminée, les résultats et les actions suggérées doivent être partagés avec les responsables de leur mise en œuvre. Les résultats peuvent également être envoyés à la haute direction. Les résultats ne doivent pas nécessairement être présentés au même niveau de détail pour tous les membres de l'organisation.

Pour les cadres supérieurs, il suffit de présenter un résumé court et succinct qui répertorie les performances actuelles et passées des indicateurs clés, les actions à entreprendre et leur effet prévu sur les performances futures, ainsi que des détails sur leur processus (par exemple, efficacité). et capacité par lieu de travail, région, commande ou type de client). Pour les gestionnaires d’un lieu de travail, un résumé de la performance globale doit être complété avec les détails de leur propre lieu de travail.

L'idée devrait être de fournir à toutes les parties prenantes un aperçu des performances de tous les composants du service et de fournir des détails spécifiques aux responsables. Les informations nécessaires aux différents niveaux de l’organisation sont présentées au tableau 16.3.