Comment savoir si deux échantillons sont indépendants ?

Interrogée par: Aurélie Royer  |  Dernière mise à jour: 15. Oktober 2022
Notation: 4.2 sur 5 (42 évaluations)

Quelle est la différence entre des échantillons dépendants et indépendants ?
  1. Si les valeurs d'un échantillon influencent les valeurs de l'autre, les échantillons sont dépendants.
  2. Si les valeurs d'un échantillon n'apportent aucune information concernant celles de l'autre, les échantillons sont indépendants.

Comment savoir si 2 échantillons sont appariés ?

Deux échantillons E1 et E2 sont dit appariés lorsque chaque valeur x1,i de E1 est associée à une valeur x2,i de E2 (appariés = associés par paire : variables dépendantes). Par exemple E1 peut être un groupe de malades avant traitement et E2 le groupe des mêmes malades après traitement.

Comment comparer deux échantillons ?

Le cas de deux échantillons indépendants :

Pour comparer deux moyennes, il faut habituellement employer le test «T» de Student, qui suppose la normalité des distributions et l'égalité des variances (test paramétrique), hypothèses invérifiables avec des effectifs faibles.

Quand utiliser le test t de Student ?

Un test de Student peut être utilisé pour évaluer si un seul groupe diffère d'une valeur connue (test t à un échantillon), si deux groupes diffèrent l'un de l'autre (test t à deux échantillons indépendants), ou s'il existe une différence significative dans des mesures appariées (test de Student apparié ou à ...

Quand utiliser le test de Mann-whitney ?

Le test U de Mann-Whitney peut être utilisé pour tester si deux groupes indépendants ont été tirés de la même population. Ce test est surtout utilisé pour étudier si une variable indépendante nominale dichotomique influence une variable dépendante ordinale de scores.

Test t (pour deux échantillons indépendants)

Trouvé 17 questions connexes

Pourquoi faire le test de Wilcoxon ?

L'énorme avantage de ce test est sa simplicité, même si de ce fait son utilisation est limitée. Comme tous les tests statistiques, il consiste, à partir de ce qui est observé, à mettre en évidence un évènement dont on connait la loi de probabilité (au moins sa forme asymptotique).

Quand utiliser le test de Kruskal-wallis ?

Le test de Kruskal-Wallis est un test non paramétrique à utiliser lorsque vous êtes en présence de k échantillons indépendants, afin de déterminer si les échantillons proviennent d'une même population ou si au moins un échantillon provient d'une population différente des autres.

Comment choisir H0 et H1 ?

L'hypothèse selon laquelle on fixe à priori un paramètre de la population à une valeur particulière s'appelle l'hypothèse nulle et est notée H0. N'importe quelle autre hypothèse qui diffère de l'hypothèse H0 s'appelle l'hypothèse alternative (ou contre-hypothèse) et est notée H1.

Quand utiliser Fisher ou Student ?

Or selon la théorie il faut faire un test de Fisher lorsque la présence de racine unitaire n'est pas rejetée (p. value > 5%). Dans le cas contraire, le test convenable est en principe celui de student pour tester uniquement la significativité de la tendance ou de la constante.

Quand utilise le test de Fisher ?

Le test exact de Fisher calcule la probabilité d'obtenir les données observées (en utilisant une distribution hypergéométrique) ainsi que les probabilités d'obtenir tous les jeux de données encore plus extrêmes sous l'hypothèse nulle. Ces probabilités sont utilisées pour calculer la p-value.

C'est quoi le test ANOVA ?

ANOVA teste l'homogénéité de la moyenne de la variable quantitative étudiée sur les différentes valeurs de la variable qualitative. L'analyse de la variance, si elle aboutit à un résultat éloigné de zéro, permet de rejeter l'hypothèse nulle : la variable qualitative influe effectivement sur la variable quantitative.

Pourquoi faire un T test ?

Le test-t de Student est un test statistique permettant de comparer les moyennes de deux groupes d'échantillons. Il s'agit donc de savoir si les moyennes des deux groupes sont significativement différentes au point de vue statistique.

Pourquoi tester l'égalité des variances ?

Ce test est souvent utilisé pour valider l'hypothèse de leur égalité (appelée homoscédasticité1). La comparaison des variances s'avère donc utile comme test complémentaire lorsqu'on souhaite tester l'égalité de deux moyennes (cas des petits échantillons indépendants).

Qu'est-ce qu'un échantillon unique ?

Le test t pour échantillon unique, également connu sous le nom de test t pour une seule moyenne , est utilisé pour comparer la moyenne d'un échantillon à une moyenne standard connue (ou théorique / hypothétique). Un autre synonyme est le test t à un groupe.

Comment interpréter Eta carré ?

* Eta carré (ou η2) correspond à la proportion de variance totale expliquée alors que l'eta carré partiel (fourni notamment par SPSS) est le rapport entre la variabilité due à l'effet considéré et la somme des variabilités (Somme des carrés) due à cet effet d'une part et à l'erreur d'autre part.

C'est quoi échantillons appariés ?

Des échantillons appariés sont des échantillons identiques, c'est à dire des échantillons composés d'individus possédant les mêmes caractéristiques. La ou les caractéristiques faisant l'objet de l'appariement peuvent être variables (âge, sexe, etc..).

Comment savoir si le test de Fisher est significatif ?

Nous choisissons le test F de Fisher. Une fois ces paramètres choisis, passez à l'onglet Options. Nous souhaitons tester l'égalité des variances donc l'hypothèse alternative adéquate est : Variance 1 / Variance 2 ≠ R où R est égal à 1. Le niveau de significativité par défaut est de 5%, gardez-le.

Comment tester la significativité d'un modèle ?

Pour tester la significativité du modèle, nous avons 2 niveaux : Un test global, obtenu grâce à une statistique de Fisher. En pratique, l'hypothèse Ho de ce test est souvent rejetée, le modèle est donc souvent significatif globalement. Un test de significativité sur chacune des variables explicatives prises une à une.

Comment savoir s'il y a une différence significative ?

Si la statistique-t est supérieure à la valeur critique, alors la différence est significative. Si la statistique-t est inférieure, il n'est pas possible de différencier les deux nombres d'un point de vue statistique.

Comment calculer la p-value d'un échantillon ?

Vous voulez calculer la valeur de p du test z. La valeur ainsi obtenue est la probabilité d'observer une valeur aléatoire inférieure à la statistique du test, soit : P(ST inférieure à -1,785) = 0,0371. Ainsi, la valeur de p est 0,0371.

Comment interpréter les P values ?

Lorsque les données sont collectées, la valeur-p est calculée et la décision suivante est prise : si elle est inférieure à α, on rejette l'hypothèse nulle au profit de l'hypothèse alternative ; si elle est supérieure à α, on rejette l'hypothèse alternative au profit de l'hypothèse nulle.

Comment faire un test de Friedman ?

Il se calcule comme suit : W = X2/N(K-1) ; où W est la valeur W de Kendall ; X2 est la valeur statistique du test de Friedman ; N est la taille de l'échantillon. k est le nombre de mesures par sujet (M. T. Tomczak and Tomczak 2014).

Quand utiliser le test de Dunn ?

Définition. Le test de Dunn est un test statistique utilisé pour effectuer un nombre spécifique de comparaisons entre des groupes de données et déterminer laquelle d'entre elles est significative.

Quand faire un test non paramétrique ?

Les méthodes non paramétriques sont utiles lorsque l'hypothèse de normalité ne tient pas et que l'effectif d'échantillon est faible. Cela dit, dans les tests non paramétriques, vos données reposent également sur des hypothèses.

Article précédent
Quel paillis au pied des hortensias ?