Analyse de variance (ANOVA)

Cet article traitera de l'application de l'analyse de la variance au problème important et souvent rencontré de déterminer l'importance de la différence entre les moyennes.

La variance, au sens habituel, est une mesure de la dispersion d'un ensemble de scores. Il décrit dans quelle mesure les scores diffèrent les uns des autres. Il est défini comme la moyenne de l'écart au carré des scores individuels extraits de la moyenne.

où x = X - M ou écart du score par rapport à la moyenne, c'est-à-dire, variance = carré du SD

ou, variance = σ 2 donc σ =

Une mesure de la variance nous donne une idée de l'homogénéité du groupe. La variance de l'ensemble des scores sera moindre lorsque le groupe aura des résultats homogènes. D'autre part, la variance de l'ensemble des scores sera plus grande si le groupe est hétérogène en termes de réalisation.

L'analyse de variance est un outil très utile pour analyser les résultats d'enquêtes scientifiques, de recherches en sciences sociales et physiques. Pour obtenir des réponses aux questions de recherche dans les études expérimentales ou pour tester les hypothèses, la variance est analysée en différentes composantes et les variances de différentes sources sont comparées. En recherche, nous rencontrons différents modèles expérimentaux et nous formulons des hypothèses nulles.

Nous utilisons la technique de «l'analyse de variance» (ANOVA ou ANOVAR) pour étudier si le rapport de variance (F) est significatif ou non, et l'hypothèse nulle est soit acceptée, soit rejetée.

La notion de variance et d’ANOVA est clarifiée à travers un exemple.

Exemple 1:

Calculer la variance de la distribution suivante des scores 4, 6, 3, 7, 5.

Ici, l'expression Zx 2 est appelée «somme des carrés de l'écart des scores par rapport à la moyenne» (en bref SS). Lorsque SS est divisé par le nombre total de points (N), nous obtenons le «carré moyen» ou MS. Ainsi, la variance est également appelée carré moyen. Symboliquement,

V = MS ou V = SS / N

Une variation dans la terminologie de l'ANOVA est souvent appelée un «carré moyen» (ou MS). Dans l'analyse de variance (ANOVA), le carré moyen ou la variance sont calculés en divisant SS par df . Ainsi

Composants de la variance:

Avant de passer à des calculs de variance détaillés, il est nécessaire de jeter un coup d’œil sur deux de ses composants, à savoir:

a) la variance systématique, et

(b) Variance d'erreur.

a) Variance systématique:

La variance systématique, dans une configuration expérimentale, est la partie de la variance qui peut être attribuée à la manipulation d'une variable expérimentale, c'est-à-dire une variable indépendante.

Par exemple, un enquêteur veut étudier l’effet de la motivation, c’est-à-dire la récompense et la reconnaissance verbales sur les résultats scolaires de deux groupes égaux. Il sélectionne deux groupes homogènes et manipule la récompense verbale d'un groupe et la reconnaissance d'un autre groupe. Ensuite, il administre un test aux deux groupes et obtient leurs scores.

(Ici, la «motivation» est la variable indépendante et le «résultat obtenu» est la variable dépendante). Lorsque la variance de tous les scores de deux groupes est calculée, elle est appelée variance totale (V t ). La partie de la variance totale qui est uniquement attribuable à la "manipulation de la motivation" peut être qualifiée de "variance systématique". C'est la variance entre les groupes (ou V b ).

(b) Variance d'erreur:

Outre l'effet des variables expérimentales, il existe également d'autres sources de variation dues à des variables étrangères qui peuvent influer sur les variables dépendantes.

Ainsi, la variance d'erreur est la partie de la variance totale qui peut être attribuée à d'autres sources de variation non contrôlées dans une expérience.

La variance d'erreur résulte de différentes sources, à savoir:

1. Sources de variation incontrôlées résultant de variables superflues.

2. Variabilité inhérente dans les unités expérimentales.

3. Fluctuations aléatoires de l'expérience.

4. Erreurs de mesure dues au manque de

a) techniques expérimentales standard;

b) Uniformité dans l'administration;

c) Conduite physique de l'expérience;

d) Etat émotionnel transitoire des sujets, etc.

Symboliquement, la variance d'erreur est exprimée par V e . Dans l'exemple ci-dessus, nous nous intéressons principalement à deux variables, à savoir la motivation en tant que variable indépendante et les résultats obtenus en tant que variable dépendante.

Outre ces deux variables, l'investigateur rencontre d'autres variables qui influencent la variable dépendante. Ces autres variables peuvent être comme le sexe, le niveau d'intelligence, le statut socio-économique, l'âge, le niveau d'instruction, etc., que l'enquêteur n'a pas pris en charge.

Les variables qui ne sont pas contrôlées dans une configuration expérimentale et qui influencent l'occurrence d'une variable dépendante sont appelées «variables externes» ou «variables non pertinentes».

Lorsque ces variables sont contrôlées dans une expérience, l'erreur expérimentale peut être minimisée. Si ces variables externes ne sont pas contrôlées, cela fera partie de la variance d'erreur. "La principale fonction du plan expérimental est de maximiser la variance systématique, de contrôler les sources de variance parasites et de minimiser la variance d'erreur." Ainsi, chaque chercheur souhaite réduire l'erreur expérimentale.

Afin de minimiser la variance d'erreur, on peut utiliser les méthodes suivantes:

1. Les variables étrangères peuvent être contrôlées par:

une. La randomisation,

b. Élimination,

c. Correspondant à,

ré. En introduisant une ou plusieurs variables indépendantes supplémentaires, et

e. Par contrôle statistique.

2. Les erreurs de mesure peuvent être contrôlées par :

une. En utilisant des techniques expérimentales standardisées,

b. Utiliser des instruments de mesure fiables,

c. Assurer l'uniformité dans l'administration ou la conduite de l'expérience,

ré. Augmenter la fiabilité des mesures en donnant des instructions claires et non ambiguës, etc.

La discussion ci-dessus nous confirme pour conclure que la variance totale constitue deux parties, à savoir:

V t = V b + V e

où V t = variance totale

V b = variance intergroupe (ou variance systématique)

V e = variance d'erreur.

En ANOVA, la variance systématique est étudiée par rapport à la variance d'erreur par test F.

Plus la valeur de F est grande, plus la probabilité que la variance systématique soit supérieure à l'erreur expérimentale (variance au sein d'un groupe ou variations individuelles) est grande.

Un exemple numérique peut faire la distinction entre la variance systématique et la variance d'erreur.

Exemple 2:

Un enquêteur affecte dix élèves au hasard à deux groupes (cinq dans chaque groupe) et manipule deux traitements de motivation de manière aléatoire pour ces deux groupes.

Ensuite, l’enquêteur administre un test et note les scores de dix étudiants comme indiqué ci-dessous:

On observe maintenant que les moyennes de deux groupes sont différentes. C'est-à-dire que nous trouvons une variance entre les groupes. La variance entre les groupes (V b ) peut être calculée comme suit. Prenons les moyennes 5 et 7 comme deux scores et calculons la variance de ces deux scores.

Nous allons ensuite calculer la variance totale (V t ) en prenant les dix scores des deux groupes dans une colonne.

V t contient toutes les sources de variation des scores. Plus tôt, nous avions calculé que V b (ou la variance entre groupes) était de 1, 00.

Calculons maintenant encore une autre variance en calculant la variance de chaque groupe séparément, puis en les moyennant.

Comme nous avons calculé les variances séparément puis en moyenne, nous appelons cette variance «variance intra-groupe» ou V w .

Dans notre exemple, V w = 3, 8

Donc 4, 8 (V t ) = 1, 00 (V b ) + 3, 8 (V w )

ou V f = V b + V w [Variance totale = entre variance de groupe + variance intra-groupe].

Concepts de base rencontrés avec ANOVA:

Avant de nous attaquer aux problèmes numériques pour tester l'hypothèse nulle en utilisant l'ANOVA, nous devrions nous familiariser avec deux concepts, à savoir: a) la somme des carrés (SS) et (b) le degré de liberté ( df ) que nous rencontrerions souvent en ANOVA.

(a) Calcul de SS (somme des carrés):

Dans ANOVA, nous calculons la «variance intergroupe» (V b ) et la «variance intra-groupe» (V w ). Nous calculons V b et V w comme suit:

où SS b = somme de carrés entre groupes

et SS W = somme des carrés à l'intérieur des groupes.

Nous comparons ces deux variances par un rapport appelé F où F = où

Voyons maintenant comment la somme des carrés (SS) doit être calculée à l'aide de deux méthodes.

Exemple 3:

Calculez la somme des carrés de la distribution suivante des scores.

7, 9, 10, 6, 8

Moyenne = 40/5 = 8

Méthode II (méthode courte):

Le SS peut être calculé directement à partir des scores sans calculer la moyenne et l'écart. Ceci est connu sous le nom de méthode courte et SS est calculé en utilisant la formule,

Ici, nous n’avons pas à calculer la moyenne et les écarts du score individuel par rapport à la moyenne. La deuxième méthode est préférable lorsque le nombre de scores est élevé et que la moyenne est composée de nombres décimaux.

Ainsi, dans ANOVA, la somme des carrés peut être calculée à l'aide de la formule.

Calcul de la somme des carrés entre groupes (SS b ) et de la somme au sein des groupes (SS W )

Vous pouvez utiliser les deux méthodes suivantes pour calculer SS t, SS b et SS w .

Exemple 4:

Deux traitements différents sont manipulés sur deux groupes de cinq sujets chacun.

Et les scores obtenus sont les suivants:

Que la «moyenne générale» (c’est-à-dire la moyenne des 10 scores) soit désignée par M

Maintenant M = 35 + 25/10 = 60/10 = 6

Calcul de SS t, SS b et SS w (méthode longue):

Calcul de SS t :

Pour calculer SS t, nous devrons trouver la somme des carrés de la déviation de chacun des dix scores ci-dessus par rapport à la grande moyenne (c'est-à-dire 6).

Calcul de SS b :

Pour calculer SS b, nous supposons que chaque élément du groupe est égal à sa moyenne de groupe, puis étudions la variance entre différents groupes. Ici, nous allons calculer la somme du carré de la déviation des moyennes de divers groupes par rapport à la grande moyenne.

La valeur de chaque élément du groupe I est supposée être de 7 et la valeur de chaque élément du groupe II est de 5 et la somme des carrés de ces valeurs de la grande moyenne (M = 6) sera calculée.

Nous pouvons calculer SS b sous forme de tableau comme suit:

Calcul de SS w :

Pour le calcul de SS W, nous allons trouver la somme des carrés de l'écart des différents scores d'un groupe par rapport à la moyenne des groupes respectifs.

Le calcul de SS W est présenté sous forme de tableau:

Somme totale de carrés ou SS W = 10 + 6 = 16

Dans le calcul ci-dessus, nous avons trouvé SS t, = 26, SS b, = 10 et SS W = 16

Donc SS t = SS b + SS w

Calcul de SS t, SS b et SS w (méthode courte):

En bref, nous pouvons calculer facilement SS t SS b et SS W à partir des scores en utilisant les trois formules suivantes.

Dans cette courte méthode, nous n’avons pas à calculer la moyenne et les écarts. Nous pouvons calculer différents écarts directement à partir des scores. Dans ANOVA, SS t et SS b sont généralement calculés selon la méthode courte.

Tout en prenant des problèmes sur ANOVA, nous allons calculer SS, et SS t par cette méthode courte.

b) Degrés de liberté (df):

Chaque SS devient une variance lorsqu'il est divisé par les degrés de liberté qui lui sont attribués. Dans ANOVA, nous rencontrerions des degrés de liberté ( df ). Le nombre de degrés de liberté pour chaque variance est égal à un de moins que le V sur lequel il est basé.

Si N = nombre total de scores et K = nombre de catégories ou de groupes, on a pour le cas général que:

df pour SS total = (N - 1)

df pour entre groupes SS = (K - 1)

df pour dans les groupes SS = (N - K)

Également:

(N - 1) = (N - K) + (K - 1)

Analyse de la variance (à sens unique):

Nous avons discuté séparément des tests de signification de la différence entre les moyennes. Habituellement, le test t est utilisé lorsque nous voulons déterminer si les moyennes des deux échantillons diffèrent de manière significative.

Lorsque nous nous intéressons aux expériences impliquant deux groupes, nous pouvons vérifier si les deux moyennes diffèrent de manière significative en utilisant le test t.

Mais le test t n'est pas adéquat lorsque plus de deux moyennes doivent être comparées. Par exemple, il y a quatre moyennes de quatre groupes. Pour vérifier si ces quatre moyennes diffèrent considérablement l'une de l'autre, nous devons effectuer six tests t.

Si les quatre moyennes sont M 1, M 2, M 3, M 4, nous devons comparer la différence entre M 1 et M 2, c’est-à-dire (M 1 - M 2 ), entre M 1 et M 3, c’est-à-dire (M 1 - M 3 ), entre M 1 et M 4 soit (M 1 - M 4 ), entre M 2 et M 3 soit (M 2 - M 3 ), entre M 2 et M 4 soit (M 2 - M 4 ), entre M 3 et M 4 c'est-à-dire (M 3 - M 4 ). De même, pour 10 moyens, nous devons faire 45 tests t.

Pour K, il faut faire K (K - 1) / 2 tests t, ce qui impliquerait plus de calculs et de travail. Mais en utilisant le test F via ANOVA, nous pouvons évaluer l'importance d'une différence de trois ou plus de trois moyennes à la fois.

Hypothèses sur lesquelles repose le test F:

Comme d'habitude, une décision statistique est judicieuse dans la mesure où certaines hypothèses ont été satisfaites dans les données utilisées.

Dans ANOVA, il existe habituellement quatre exigences:

1. L'échantillonnage dans les ensembles doit être aléatoire. Les différents groupes de traitement sont sélectionnés au hasard dans la population.

2. Les écarts entre les différents ensembles doivent être approximativement égaux. Cela fait référence à l'hypothèse d'homogénéité de variance, c'est-à-dire que les groupes sont homogènes en variabilité.

3. Les observations au sein d'ensembles expérimentalement homogènes doivent provenir d'une population normalement distribuée.

4. Les contributions à la variance totale doivent être additives.

A. Nous allons prendre quelques exemples et voir comment la variance est analysée lorsque les groupes sont indépendants:

Exemple 5:

Dans une installation expérimentale, 16 sujets sont affectés au hasard à deux groupes de 8 sujets chacun. Ces deux groupes ont été traités avec deux méthodes d'instruction différentes. Testez la signification de la différence entre les moyennes d'échantillon.

Solution:

Total général (total des 16 scores) = 104 ou X = 104

Moyenne générale (M), c'est-à-dire moyenne des 16 scores = ∑X / N = 104/16 = 6, 5

Pour le calcul du ratio F, nous devrons suivre les étapes décrites ci-dessous:

Étape 1:

La somme de tous les 16 scores est 44 + 60 ou 104; et la correction (C) est, en conséquence,

Étape 2:

Lorsque chaque score des deux groupes est mis au carré et additionné, le X 2 devient (∑X 1 2 + ∑X 2 2 = 260 + 460) 720.

Ensuite, la correction 676 est soustraite du total en utilisant la formule:

Total SS ou SS 1 = ∑X 2 - C = 720 - 676 ​​= 44.

ou SS t = 3 2 + 4 2 + 5 2 + …… .. + 9 2 - 676 ​​= 44

Étape 3:

La somme des carrés entre les moyennes SS b est trouvée en quadrillant la somme de chaque colonne, en divisant la première et la seconde par 8 séparément et en soustrayant C.

Entre groupe SS ou SS b

Étape 4:

Le SS dans (ou SS W ) est la différence entre le SS t et le SS b . Ainsi, SS W = 44 - 16 = 28.

Étape 5:

Puisqu'il y a 16 partitions en tout

Interprétation du rapport F:

Le rapport de variance ou F est 16/2 ou 8. Le df pour entre les moyennes est 1 et le df pour au sein de groupes est 14. En entrant dans le tableau F avec ces df, nous lisons dans la colonne 1 et la ligne 14 que le niveau 0, 05 est de 4, 60 et le niveau .01 est de 8, 86. Notre F calculé est significatif au niveau de 0, 05.

Mais ce n’est pas significatif au niveau .01. Autrement dit, la valeur observée de F est supérieure à 0, 05 mais inférieure à 0, 01. Nous concluons donc que la différence moyenne est significative au niveau de 0, 05 mais non significative au niveau de significativité de 0, 01.

Exemple 6:

(Lorsque la taille des groupes est inégale) Un test d'intérêt est appliqué à 6 garçons dans une classe de formation professionnelle et à 10 garçons dans une classe de latin.

La différence moyenne entre les deux groupes est-elle significative au niveau 0, 05? Testez la signification de la différence grâce à l'ANOVA.

Interprétation du rapport F:

Le rapport de variance ou F est 135/33 ou 4, 09. Le df pour les moyennes est 1 et le df pour les groupes est 14. En entrant dans le tableau F avec ces df, nous lisons dans la colonne 1 et la ligne 14 que le niveau 0, 05 est de 4, 60 et le niveau 0, 01 de 8, 86. Notre F calculé de 4, 09 n'atteint pas tout à fait le niveau 0, 05, de sorte que notre différence moyenne de 6 points doit être considérée comme non significative. Par conséquent, l'hypothèse nulle est acceptée.

Lorsqu'il n'y a que deux moyens à comparer, comme ici; F = t 2 ou t = = √F et les deux tests (F et t) donnent exactement le même résultat. Pour l'exemple ci-dessus, √F = √4.09 = 2.02. D'après le tableau D, nous avons constaté que pour 14 df, le niveau de signification de 0, 05 pour ce t était de 2, 14.

Notre t de 2, 02 n'atteint pas tout à fait ce niveau et donc (comme F) n'est pas significatif.

Exemple 7:

(Plus de deux groupes)

Appliquez ANOVA pour vérifier si les moyennes de quatre groupes diffèrent de manière significative:

Puisqu'il y a 20 partitions dans quatre groupes:

df pour SS (ou SS 1 ) = (N - 1) ou 20 - 1 = 19

df pour SS b = (K - 1) ou 4 - 1 = 3

df pour SS w = (N - K) ou 20 - 4 = 16

F = 33, 33 / 3, 5 = 9, 52

T = √F = 3, 08

Interprétation du rapport F:

Le rapport de variance ou F est de 9, 52. Le df pour les moyennes est 3 et le df pour les groupes est 16. En entrant dans le tableau F avec ces df, nous lisons dans la colonne 3 et la ligne 16 que le niveau 0, 05 est égal à 3, 24 et le niveau 0, 01 à 5, 29.

Notre F calculé de 9, 52 est supérieur à 5, 29. Par conséquent, F est significatif. L'hypothèse nulle est rejetée et conclut que les quatre moyennes diffèrent de manière significative au niveau 01.

(B) Nous prendrons un autre exemple d’analyse de la variance lorsque le même groupe est mesuré plus d’une fois, c’est-à-dire dans le cas de groupes corrélés:

Lorsqu'un test est donné puis répété, une analyse de variance peut être utilisée pour déterminer si le changement moyen est significatif (c'est-à-dire l'importance de la différence entre les moyennes obtenues à partir de groupes corrélés).

Exemple 8:

(Pour les groupes corrélés)

Cinq sujets sont soumis à 4 essais successifs sur un test de chiffres-symboles dont seuls les scores des essais 1 et 4 sont indiqués. Le gain moyen entre l'essai initial et final est-il significatif?

Les procédures pour l'analyse de variance diffèrent actuellement d'au moins deux manières des méthodes discutées ci-dessus.

Premièrement, puisqu'il existe une possibilité de corrélation entre les scores obtenus par les 5 sujets aux premier et quatrième essais, les deux ensembles de scores ne doivent pas au départ être traités comme des échantillons indépendants (aléatoires).

Deuxièmement, la classification est maintenant basée sur deux critères: (a) les essais et (b) les sujets.

En raison de ces deux critères, le total des SS doit être décomposé en trois parties:

a) SS attribuable à des essais;

b) SS attribuable à des sujets; et

(c) Un SS résiduel généralement appelé «interaction»

Les étapes du calcul de ces trois écarts peuvent être résumées comme suit:

Étape 1:

Correction (C). Comme dans la procédure précédente, C = (X) 2 / N. Dans l'exemple ci-dessus, C est 90 2/10 ou 810.

Étape 2:

Somme totale des carrés. Encore une fois, le calcul répète la procédure utilisée dans les exemples 1, 2 et 3.

Total SS ou SS t = 7 2 + 8 2 + 4 2 + 6 2 + 5 2 + 10 2 + 15 2 + 5 2 + 20 2 + 10 2 - C

= 1040 - 810 ou 230.

Étape 3:

SS entre les moyens d'essais. Il y a deux essais de 5 scores chacun.

Donc,

Étape 4:

SS parmi les moyens des sujets. Un second “entre moyens” SS est nécessaire pour prendre en charge le second critère de classification. Il y a 5 étudiants / sujets et chacun a deux essais. Les scores des 1er et 4ème essais de chaque matière / élève sont ajoutés pour obtenir 17, 23, 9, 26, 15.

Par conséquent,

Étape 5:

Interaction SS. La variation ou interaction résiduelle est ce qui reste lorsque les effets systématiques des différences d'essai et des différences de sujet ont été supprimés du total des SS.

L'interaction mesure la tendance des performances des sujets à varier au fil des essais: elle mesure les facteurs imputables non plus aux sujets ni aux essais agissant seuls, mais plutôt à l'action simultanée des deux.

L'interaction est obtenue doit simplement en soustrayant les essais SS plus les sujets SS du total SS.

Ainsi,

Interaction SS = SS t - ( sujets SS + essais SS) = 230 - (90 + 90) = 50.

Étape 6:

Puisqu'il y a 10 scores au total, nous avons (10 - 1) ou 9 df pour le total des SS. Deux essais cliniques ont été administrés à un df et 5 sujets, 4. Les 4 autres df sont affectés à une interaction. La règle est que le df pour interaction est le produit du df pour les deux variables en interaction, ici 1 x 4 = 4. En général, N = nombre total de scores, r = lignes et K = colonnes.

Interprétation des ratios F:

Le F pour les essais est 7.2. La valeur calculée de F pour les essais est inférieure à 7, 71, comme indiqué dans le tableau F pour le point 0, 05 lorsque df 1 = 1 et df 2 = 4.

Cela signifie que l'hypothèse nulle en ce qui concerne les essais est défendable et doit être acceptée. La preuve est forte qu'aucune amélioration significative ne s'est produite entre l'essai 1 à l'essai 4.

Le F des sujets est égal à 1, 8 et est nettement inférieur au point 0, 05 de 6, 39 du tableau F pour df 1 = 4 et df 2 = 4. Il est évident que les sujets ne sont pas toujours meilleurs que les autres.

Cela signifie que l'hypothèse nulle concernant les sujets est défendable et doit être acceptée.

ANOVA bidirectionnelle:

Pour enseigner certains concepts géométriques si différentes méthodes d’enseignement sont appliquées à deux groupes d’élèves ou plus, nous l’appelons variable expérimentale.

Dans l'ANOVA unidirectionnelle, un seul facteur (c'est-à-dire une variable indépendante) est étudié. Par exemple, lorsque nous voulons vérifier si les méthodes d'enseignement ont un effet sur la réussite, nous étudions l'effet d'une variable indépendante (c.-à-d. La méthode d'enseignement) sur la variable dépendante (c.-à-d. La réussite).

Les ensembles de données sont différenciés sur la base d'une seule variation expérimentale. Il n’ya qu’un principe de classification, une raison de séparer les données en ensembles.

Pour cela, sélectionnons trois groupes au hasard et affectons trois traitements différents, à savoir méthode-1, méthode-2 et méthode-3, au hasard à ces trois groupes.

À la fin, les résultats des sujets des trois groupes différents peuvent être obtenus par un test approprié.

Ensuite, en utilisant l'ANOVA, nous pouvons vérifier si les moyennes de ces trois groupes diffèrent de manière significative.

Dans une classification à deux voies ou une ANOVA à deux voies, il existe deux bases distinctes de classification. Deux conditions expérimentales peuvent varier d’un groupe à l’autre. Dans les laboratoires psychologiques, différentes bandes d'atterrissage artificielles d'aérodromes, chacune avec un motif de marquage différent, peuvent être visualisées à travers un écran de diffusion afin de stimuler la vision à travers le brouillard à différents niveaux d'opacité.

Dans un problème éducatif, quatre enseignants peuvent appliquer quatre méthodes d’enseignement à un concept géométrique donné, chacune utilisant chacune des quatre méthodes. Il y aurait donc 20 combinaisons d'enseignant et de méthode.

Le tableau suivant peut vous précéder:

Dans un exemple cité ci-dessous, nous étudions les effets de trois méthodes d’instruction sur les notes obtenues. Mais on s'attend à ce que les méthodes d'enseignement aient un effet différent selon le niveau de statut socio-économique (SES) des sujets.

Nous pouvons donc concevoir une étude dans laquelle l’effet de deux variables, à savoir l’effet des méthodes d’instruction et l’effet des niveaux de statut socio-économique (SES), peut être étudié simultanément. Dans cette conception, nous pouvons également étudier l'effet d'interaction. Pour de telles conceptions, les techniques d’ANOVA à deux voies sont utilisées.

Exemple 9:

Six groupes d'élèves (cinq dans chacun) ont été sélectionnés au hasard pour six conditions de traitement. Étudiez l'effet de deux facteurs, à savoir le facteur A (statut socio-économique) et le facteur B (méthodes d'enseignement) pour l'exemple suivant.

Solution:

Dans l'exemple ci-dessus, nous avons pris deux niveaux de SSÉ, à savoir le haut SS dans la catégorie A 1 et le bas SSE dans la catégorie A2 et trois méthodes d'enseignement, à savoir B 1 (lecture), B 2 (discussion) et B 3 ( façon de jouer).

Le nombre total de traitements dans l'expérience sera de 2 x 3 = 6. Ici, n = 5 et le nombre total d'observations étant N = 5 x 6 = 30.

Total général, ∑X = 30 + 50 + 40 + 25 + 45 + 35 = 225.

Six groupes de traitement différents peuvent être présentés dans un «tableau d'interaction», comme indiqué ci-dessous:

Pour trois méthodes d’instruction, il y a trois colonnes (... C = 3). Les totaux de ligne sont utilisés pour le calcul de SS pour A (SES). Les totaux des colonnes sont utilisés pour le calcul de la SS pour B (méthodes d’instruction).

Les étapes du calcul des écarts peuvent être résumées comme suit:

Étape 1:

Étape 2:

Total SS ou SS t = ∑X 2 - C. Ici, les trente scores sont ajoutés au carré et C est soustrait.

SS t = 5 2 + 7 2 + ……… + 10 2 + 7 2 - 1687, 5 = 1919 - 1687, 5 = 231, 5

Étape 3:

Entre groupe SS ou SS b = total de (∑X) 2 / n pour les six conditions de traitement - C.

Étape 4:

Dans les groupes SS ou SS W = SS t - SS b = 231, 5 - 87, 5 = 144

Étape 5:

Maintenant, «entre groupe SS» ou SS b de 87, 5 peut être divisé en trois parties, à savoir SS A, SS B et SS AB, c.-à-d. SS b = SS A + SS B + SS AB

Où SS A = SS du facteur A (SES) générant à partir de la déviation de A 1 et A 2 signifie à partir de la moyenne des scores totaux.

SS B = SS du facteur B (méthodes) générés à partir des déviations de B 1, B 2 et B 3 par rapport à la moyenne des scores totaux.

Étape 6:

Degrés de liberté pour différents SS

Dans notre problème, nous avons 6 groupes

.˙. K = 6

n = 5 et N = 6 xn = 6 x 5 = 30.

Dans la table d'interaction, il y a deux lignes et trois colonnes

.˙. r = 2 et C = 3.

La partition de df peut être faite comme suit:

df pour SS t = N - 1 = 30 - 1 ou 29

df pour SS b = K - 1 = 6 - 1 ou 5

df pour SS W = K (n - 1) = 6 x 4 ou 24

Le df fox SS b peut être divisé en trois parties:

(i) df pour SSA = r - 1 = 2 - 1 ou 1

(ii) df pour SSB = c - 1 = 3 - 1 ou 2

(iii) df pour SS AB = (r - 1) (C - 1) = 1 x 2 ou 2

Nous pouvons maintenant entrer le calcul ci-dessus dans un tableau récapitulatif ANOVA à deux voies:

Interprétation du rapport F:

(a) F pour SES ou F pour A

F = MS A / MS W = 7, 5 / 6, 0 = 1, 25

(0, 052 est inférieur à un)

Comme F de 1, 25 <4, 26 au niveau 0, 05, nous retenons l'hypothèse nulle selon laquelle les deux groupes sélectionnés au hasard ne diffèrent pas des résultats obtenus sur la base du statut socio-économique.

Comme F de 6, 67> 5, 6 au niveau 0, 01, nous rejetons l’hypothèse nulle. Nous concluons que les trois méthodes d’instruction ont une incidence différente sur les résultats.

Comme F de 0, 00 <1, nous retenons l'hypothèse nulle. Nous acceptons l'hypothèse nulle d'absence d'interaction. Nous concluons que l'efficacité des méthodes ne dépend pas du niveau de statut socio-économique.