BREAKING DOWN T Test Une forme de test d'hypothèses, le test t n'est qu'un des nombreux tests utilisés à cette fin. Les statisticiens doivent utiliser des tests autres que le test t pour examiner d'autres variables, ainsi que pour des tests avec des tailles d'échantillon plus importantes. Pour une grande taille d'échantillon, les statisticiens utilisent un z test. D'autres options de test comprennent le test du chi carré et le test f. Analyse statistique du test T La formule utilisée pour calculer le test est un ratio: La partie supérieure du ratio est la partie la plus facile à calculer et à comprendre, puisqu'il s'agit simplement de la différence entre les moyennes ou les moyennes des deux échantillons. La moitié inférieure du rapport est une mesure de la dispersion ou de la variabilité des scores. La partie inférieure de ce rapport est connue sous le nom d'erreur type de la différence. Pour calculer cette partie du ratio, on détermine la variance pour chaque échantillon et on la divise ensuite par le nombre d'individus composant l'échantillon ou le groupe. Ces deux valeurs sont ensuite additionnées et une racine carrée est prise du résultat. Par exemple, considérer qu'un analyste veut étudier le montant que les Pennsylvaniens et les Californiens passent, par mois, sur les vêtements. Il ne serait pas pratique d'enregistrer les habitudes de dépenses de chaque individu (ou famille) dans les deux États, donc un échantillon des habitudes de dépenses est pris à partir d'un groupe sélectionné d'individus de chaque état. Le groupe peut être de taille petite à modérée pour cet exemple, supposons que le groupe de l'échantillon est de 200 individus. Le montant moyen pour les Pennsylvaniens ressort à 500 le montant moyen pour les Californiens est de 1 000. Le test t se demande si les différences entre les groupes sont représentatives d'une différence réelle entre les gens en Pennsylvanie et les gens en Californie en général ou si elle est probablement une différence statistique insignifiante. Dans cet exemple, si, en théorie, tous les Pennsylvaniens passaient 500 par mois sur les vêtements et que tous les Californiens dépensaient 1 000 par mois pour les vêtements, il est hautement improbable que 200 personnes sélectionnées au hasard dépensent ce montant exact. Ainsi, si un analyste ou un statisticien donne les résultats énumérés dans l'exemple ci dessus, il est sûr de conclure que la différence entre les groupes d'échantillons est indicative d'une différence significative entre les populations, dans leur ensemble, de chaque état. Logiciel statistique Kristin MacDonald, StataCorp Les commandes d'estimation fournissent au test test z ou z l'hypothèse nulle qu'un coefficient est égal à zéro. La commande de test peut effectuer des tests de Wald pour des hypothèses linéaires simples et composites sur les paramètres, mais ces tests de Wald sont également limités aux tests d'égalité. Tests t unilatéraux Pour effectuer des tests unilatéraux, vous pouvez d'abord effectuer le test Wald correspondant à deux faces. Ensuite, vous pouvez utiliser les résultats pour calculer la statistique de test et la valeur p pour le test unilatéral. Letrsquos dire que vous effectuez la régression suivante: Si vous souhaitez tester que le coefficient sur le poids. Bêta. Est négatif (ou positif), vous pouvez commencer par effectuer le test de Wald pour l'hypothèse nulle que ce coefficient est égal à zéro. Le test de Wald donné ici est un test F avec 1 degré de liberté de numérateur et 71 degrés de liberté de dénominateur. La distribution de Student est directement liée à la distribution de F en ce que le carré de la distribution de Student avec t degrés de liberté équivaut à la distribution de F avec un degré de liberté de numérateur et des degrés de liberté de dénominateur. Tant que le test F a 1 degré de liberté de numérateur, la racine carrée de la statistique F est la valeur absolue de la statistique t pour le test unilatéral. Pour déterminer si cette statistique t est positive ou négative, vous devez déterminer si le coefficient ajusté est positif ou négatif. Pour ce faire, vous pouvez utiliser la fonction sign (). Ensuite, en utilisant la fonction ttail () avec les résultats retournés de la commande test, vous pouvez calculer les valeurs p pour les tests unilatéraux de la manière suivante: Dans le cas particulier où vous êtes intéressé à tester si un coefficient est Supérieur, inférieur ou égal à zéro, vous pouvez calculer les valeurs p directement à partir de la sortie de régression. Lorsque le coefficient estimé est positif, comme pour le poids. Vous pouvez le faire de la manière suivante: Valeur p 0.008 (donnée en sortie de régression) Valeur p 0.5672 0.284 Par contre, si vous voulez effectuer un test tel que H 0. Beta poids lt 1, vous ne pouvez pas calculer la valeur p directement à partir des résultats de la régression. Ici, vous devez d'abord effectuer le test de Wald. Essais z one sided Dans la sortie de certaines commandes d'estimation, vous trouverez que z statistiques sont rapportées au lieu de t statistiques. Dans ces cas, lorsque vous utilisez la commande test, vous obtiendrez un test chi squared au lieu d'un test F. La relation entre la distribution normale normale et la distribution du chi carré est similaire à la relation entre la distribution de Student et la distribution de F. En fait, la racine carrée de la distribution chi carré avec 1 degré de liberté est la distribution normale standard. Par conséquent, des tests unilatéraux z peuvent être effectués de la même manière que les tests t unilatéraux. Par exemple, ici, la commande test renvoie r (chi2). Qui peut être utilisé avec la fonction normale () pour calculer les valeurs p appropriées. Enfin, si vous voulez effectuer un test d'inégalité pour deux de vos coefficients, tels que H 0. Beta âge gt bêta grade. Vous devez d'abord effectuer le test de Wald suivant: Calculez ensuite la valeur p appropriée: Encore une fois, cette approche (en effectuant un test de Wald et en utilisant les résultats pour calculer la valeur p pour un test unilatéral) Statistique a 1 degré de liberté dans le numérateur ou le Wald chi carré statistique a 1 degré de liberté. Les relations de répartition décrites ci dessus ne sont pas valides si ces degrés de liberté sont supérieurs à 1.
No comments:
Post a Comment