La question qui nous aidera à illustrer l’analyse de variance est la suivante : Existe-t-il une différence entre les niveaux de scolarité sur le nombre d’heures moyen travaillées par semaine ? Autrement dit, peut-on croire qu’un plus grand nombre d’années de scolarité rime avec moins d’heures de travail par semaine ? Pour vérifier cette hypothèse, nous allons utiliser les données de la base GSSNET.SAV.
La variable indépendante sera DEGREE qui regroupe les répondants selon le diplôme obtenu, soit en cinq groupes.
La variable dépendante sera HRS1 qui contient le nombre d’heures travaillées par semaine pour tous les répondants.
Statistiques descriptives
Regardons dans un premier temps les moyennes, écart-types et intervalles de confiance pour chaque groupe à l’aide des statistiques descriptives qui apparaissent dans le premier tableau produit par SPSS :
La semaine moyenne à temps plein varie entre 36,82 heures pour les gens sans secondaire 5 et 47,29 pour ceux avec Maîtrise/Doctorat. Au total, l’échantillon travaille en moyenne 42,5 heures par semaine.
Les écart-types sont sensiblement similaires avec la plus faible variabilité pour les répondants avec secondaire 5 et la plus grande pour les gens sans secondaire 5.
La colonne Erreur standard (erreur-type) nous indique la variabilité échantillonnale de la moyenne. La plus petite est celle des gens avec secondaire 5 en raison du nombre élevé de cas.
Pour examiner la distribution des valeurs de HRS1 des groupes, nous regardons le graphique de barres d’erreur.
Nous sommes à 95 % certains que pour les gens avec Maîtrise/Doctorat, la vraie valeur de la moyenne de la population se situe entre 44,13 et 50,44 heures. L’intervalle le plus restreint est celui des gens avec secondaire 5 en raison du grand nombre de sujets qui composent ce groupe (moins d’erreur-type).
Observation importante : Plusieurs des intervalles se chevauchent ! Concrètement, ceci veut dire que la plupart des groupes possèdent des valeurs de moyennes possibles compatibles !
L’exception est l’intervalle sans secondaire 5 et celui de Maîtrise/Doctorat : ces deux intervalles ne se chevauchent pas. Donc, leurs valeurs possibles dans l’intervalle de confiance ne sont pas partagées.
Homogénéité des variances
Avant d’examiner les résultats de l’ANOVA, il importe de vérifier la prémisse d’égalité des variances avec le test de Levene.
La première colonne donne la statistique proprement dite.
Ensuite, cette statistique est examinée à la lumière de deux degrés de liberté. Le premier est calculé à partir du nombre de groupes moins 1 (5 – 1 = 4). Le deuxième est calculé à partir du nombre de sujets moins le nombre de groupes (904 – 5 = 899).
La dernière colonne indique si le test est significatif ou non. Le seuil de signification est toujours fixé à p < 0,05.
Dans l’exemple, comme le test n’est pas significatif (p > 0,05), on ne peut pas rejeter l’hypothèse nulle de l’égalité des variances. Elles sont donc considérées semblables, ce qui nous convient parfaitement et nous permet de passer à l’interprétation de l’ANOVA.
Résultats de l’ANOVA
Le tableau présente l’effet inter-groupes (effet dû à la variable catégorielle) et l’effet intra-groupes (effet de la variation dans chacun des groupes). Il présente également le total des deux effets pour la somme des carrés et les degrés de liberté.
La colonne de la somme des carrés indique
pour la variabilité inter-groupes, la sommation de l’écart de chaque moyenne de groupe par rapport à la moyenne totale au carré multiplié par le nombre de sujets;
pour la variabilité intra-groupes, la variance (écart-type au carré) de chaque groupe multipliée par le nombre de sujets de ce groupe moins un.
Les degrés de libertés sont les mêmes que pour le test d’homogénéité des variances.
La moyenne des carrés est calculée pour les deux effets en divisant la somme des carrés par le degré de liberté associé.
inter-groupes : 5 567,843 / 4 = 1 391,961
intra-groupes : 165 264,14 / 899 = 183,831
La statistique F est le rapport de la somme des carrés moyens inter et intra-groupes (1 391,961 / 183,831 = 7,572).
Enfin, la dernière colonne indique que la probabilité de retrouver cette valeur de F lorsque l’hypothèse nulle est vraie est plus petite que 0,0005, soit moins de 0,05 %.
Dans ce cas-ci, nous avons suffisamment de preuves pour rejeter l’hypothèse nulle et dire qu’il est peu probable que le nombre d’heures moyen travaillées dans chaque groupe soit le même dans la population.
Rappelons que le verdict sur le rapport F observé dépend de sa position dans une distribution F paramétrée par les deux degrés de liberté.
Comparaisons multiples
L’analyse de variance nous indique qu’il existe des différences entre les groupes, mais ne précise pas où sont situées ces différences. Pour remédier à la situation, nous avons fait un test post-hoc avec la comparaison de Bonferonni.
Le tableau de comparaisons multiples comprend plusieurs résultats, mais est relativement simple à interpréter. La première colonne comprend chaque groupe comparé et la deuxième présente les groupes comparés avec celui de la première colonne.
Dans la colonne Différence de moyennes (I- J), on observe les différences entre les groupes suivies par l’erreur-type et le degré de signification associés à cette comparaison.
SPSS indique par un astérisque les différences de moyennes qui sont significatives. Comme on le remarque, plusieurs comparaisons sont répétitives dans la mesure où on teste chaque groupe par rapport aux autres. Des répétitions sont inévitables. Notons que les intervalles de confiance sont aussi ajustés en fonction du nombre de comparaisons. Ils sont plus étendus que si seulement deux moyennes avaient été comparées.
Dans l’exemple, on constate que plusieurs groupes se distinguent. D’une part, le nombre d’heures travaillées par les gens sans secondaire cinq se différencie significativement du nombre d’heures travaillées par les répondants avec secondaire 5 ainsi que ceux avec un diplôme universitaire.
D’autre part, nous observons une différence significative qui se situe entre le groupe de répondants avec secondaire 5 et ceux avec Maîtrise/Doctorat.
Il n’existe aucune autre différence de moyenne qui dépasse le seuil de signification.
Taille d’effet
Finalement, il est possible de trouver la proportion de variance expliquée (R2) par la variable indépendante (variable de groupe). En extrayant la racine carrée de ce rapport, on obtient la valeur de R (r) suivante :
La statistique r indique que la différence entre les groupes se situe entre l’effet de petite et de moyenne taille (Cohen, 1988).