Prueba χ²
En estadística y estadística aplicada se denomina prueba χ² (pronunciado como «ji al cuadrado»[1] y a veces como «chi al cuadrado») a cualquier prueba en la que el estadístico utilizado sigue una distribución χ² si la hipótesis nula es cierta. Algunos ejemplos de pruebas χ² son:
- La prueba χ² de Pearson, la cual tiene numerosas aplicaciones:
- La prueba χ² de frecuencias
- La prueba χ² de independencia
- La prueba χ² de bondad de ajuste
- La prueba χ² de Pearson con corrección por continuidad o corrección de Yates
- La prueba de Bartlett de homogeneidad de varianzas
La prueba es válida cuando la estadística de la prueba es distribuida chi-cuadrado bajo la hipótesis nula, específicamente prueba chi-cuadrado de Pearson y variantes de la misma. La prueba ji-cuadrado de Pearson se utiliza para determinar si existe una diferencia estadísticamente significativa entre la frecuencia esperada y las frecuencias observadas en una o más categorías de una tabla de contingencia. Para tablas de contingencia con tamaños de muestra más pequeños, se utiliza en su lugar una prueba exacta de Fisher.
En las aplicaciones estándar de esta prueba, las observaciones se clasifican en clases mutuamente excluyentes. Si la hipótesis nula de que no hay diferencias entre las clases de la población es cierta, la estadística de prueba calculada a partir de las observaciones sigue una χ2 distribución de frecuencias. El propósito de la prueba es evaluar qué probabilidad tendrían las frecuencias observadas suponiendo que la hipótesis nula es cierta.
Los estadísticos de prueba que siguen una distribución χ2 ocurren cuando las observaciones son independientes. También hay pruebas χ2 para probar la hipótesis nula de independencia de un par de variables aleatorias basadas en observaciones de los pares.
Pruebas chi-cuadrado suele referirse a pruebas para las que la distribución del estadístico de prueba se aproxima a la distribución χ2 asintóticamente, lo que significa que la distribución muestral (si la hipótesis nula es cierta) del estadístico de prueba se aproxima cada vez más a una distribución chi-cuadrado a medida que aumentan los tamaños de muestra.
Historia
[editar]En el siglo XIX, los métodos de análisis estadístico se aplicaban principalmente en el análisis de datos biológicos y era habitual que los investigadores asumieran que las observaciones seguían una distribución normal, como Sir George Airy y Mansfield Merriman, cuyos trabajos fueron criticados por Karl Pearson en su artículo de 1900.[2]
A finales del siglo XIX, Pearson se dio cuenta de la existencia de una asimetría significativa en algunas observaciones biológicas. Para modelar las observaciones independientemente de que fueran normales o sesgadas, Pearson, en una serie de artículos publicados entre 1893 y 1916,[3][4][5][6] desarrolló la distribución de Pearson, una familia de distribuciones de probabilidad continua, que incluye la distribución normal y numerosas distribuciones sesgadas, y propuso un método de análisis estadístico consistente en utilizar la distribución de Pearson para modelar las observaciones y realizar pruebas de bondad de ajuste para determinar si un modelo se ajusta a las observaciones.
Prueba chi-cuadrado de Pearson
[editar]En 1900, Pearson publicó un trabajo[2] sobre la prueba χ2 el cual es considerado uno de las piedras fundacionales de la estadística moderna.[7] En este trabajo, Pearson investigó una prueba de bondad de ajuste.
Suponiendo que se clasifican n observaciones de una muestra aleatoria de una población en k clases mutuamente exclusivas con número respectivos observados xi (para i = 1,2,…,k), y una hipótesis nula de la probabilidad pi que una observación se encuentre dentro de la clase i-ésima. Por lo que se tienen los números esperados mi = npi para todo i, donde
Pearson propuso que, bajo la hipótesis de que la hipótesis nula es cierta, en la medida que n → ∞ la distribución límite de la cantidad indicada abajo es la distribución χ2.
Otros ejemplos de pruebas ji-cuadrado
[editar]Un test estadístico que sigue exactamente una distribución chi-cuadrado es la prueba de que la varianza de una población normalmente distribuida tiene un valor determinado basado en una varianza muestral. Este tipo de pruebas son poco comunes en la práctica porque la verdadera varianza de la población suele ser desconocida. Sin embargo, existen varias pruebas estadísticas en las que la distribución chi-cuadrado es aproximadamente válida:
Prueba exacta de Fisher
[editar]Para una prueba exacta utilizada en lugar de la prueba de chi-cuadrado 2 × 2 para la independencia, véase Prueba exacta de Fisher.
Prueba binomial
[editar]Para una prueba exacta utilizada en lugar de la prueba ji-cuadrado 2 × 1 para la bondad del ajuste, véase prueba binomial.
Otras pruebas de ji al cuadrado
[editar]- Prueba de McNemar, utilizada en ciertas tablas 2 × 2 con emparejamiento.
- Prueba de aditividad de Tukey
- La Prueba portmanteau en análisis de series temporales, que prueba la presencia de autocorrelación
- Prueba de la razón de verosimilitud en modelización estadística general, para comprobar si hay pruebas de la necesidad de pasar de un modelo simple a otro más complicado (donde el modelo simple está anidado dentro del complicado).
Corrección de Yates para la continuidad
[editar]El uso de la distribución chi-cuadrado para interpretar la estadística chi-cuadrado de Pearson requiere que uno asuma que la discreta probabilidad de las frecuencias binomiales observadas en la tabla puede ser aproximada por la distribución chi-cuadrado continua. Esta suposición no es del todo correcta e introduce algún error.
Para reducir el error de aproximación, Frank Yates sugirió una corrección por continuidad que ajusta la fórmula de la prueba de chi-cuadrado de Pearson restando 0,5 a la diferencia absoluta entre cada valor observado y su valor esperado en una tabla de contingencia 2 × 2.[8] Esto reduce el valor chi-cuadrado obtenido y, por tanto, aumenta su p-valor.
Prueba de chi-cuadrado para la varianza en una población normal
[editar]Si se toma una muestra de tamaño n de una población que tiene una distribución normal, entonces hay un resultado (ver distribución de la varianza de la muestra) que permite realizar una prueba de si la varianza de la población tiene un valor predeterminado. Por ejemplo, un proceso de fabricación podría haber estado en condición estable durante un largo período, lo que permitió determinar un valor para la varianza esencialmente sin error. Suponga que se está probando una variante del proceso, lo que da lugar a una pequeña muestra de n elementos de producto cuya variación se va a probar. El estadístico de prueba T en este caso, podría establecerse como la suma de cuadrados de la media de la muestra, dividida por el valor nominal de la varianza (es decir, el valor que se probará como sostenido). Entonces T tiene una distribución chi-cuadrado con n - 1 grados de libertad. Por ejemplo, si el tamaño de la muestra es 21, la región de aceptación para T con un nivel de significancia del 5% está entre 9,59 y 34,17.
Ejemplo para determinar si un dado está bien equilibrado
[editar]Deseamos probar la hipótesis según la cual un dado de seis caras no está manipulado, con un riesgo α = 0,05. La hipótesis que queremos rechazar (a la que llamamos hipótesis nula y que señalamos ) es, por tanto, la siguiente: “El dado está equilibrado”. Para ello, se lanza el dado 600 veces seguidas. Si está equilibrado, esperaríamos que de estos 600 lanzamientos, cada número caiga 100 veces. Supongamos que nuestro experimento da los siguientes resultados:
número que sale | 1 | 2 | 3 | 4 | 5 | 6 |
---|---|---|---|---|---|---|
número de veces | 88 | 109 | 107 | 94 | 105 | 97 |
es decir, obtuvimos 88 veces el número 1, 109 veces el número 2, etc.
Considerando la hipótesis nula como verdadera, la variable T definida anteriormente vale:
.
El número de grados de libertad es 6 – 1 = 5. Efectivamente, 88 + 109 + 107 + 94 + 105 + 97 = 600
y si sabemos, por ejemplo, el número de veces que obtenemos los dígitos del 1 al 5, sabemos la cantidad de veces que obtenemos el número 6: 600 – (88 + 109 + 107 + 94 + 105) = 97.
Por tanto, la variable estadística T sigue la ley de χ2 con cinco grados de libertad. Esta ley de χ2 da el valor por debajo del cual consideramos que el sorteo cumple con un riesgo α = 0,05 : P(T < 11,07) = 0,95. Dado que 3,44 < 11,07, no podemos rechazar la hipótesis nula: estos datos estadísticos no nos permiten considerar que el dado esté amañado.
Por otro lado, supongamos que nuestro experimento da el siguiente resultado:
número que sale | 1 | 2 | 3 | 4 | 5 | 6 |
---|---|---|---|---|---|---|
número de veces | 89 | 131 | 93 | 92 | 104 | 91 |
En este caso la variable T definida anteriormente vale:
- .
Dado que 12,92 > 11,07, esta vez podemos rechazar la hipótesis nula: estos datos estadísticos nos permiten considerar que el dado está amañado.
Ejemplo de prueba chi-cuadrado para datos categóricos
[editar]Supongamos que hay una ciudad de 1.000.000 de habitantes con cuatro barrios: A, B, C, y D. Se toma una muestra aleatoria de 650 residentes de la ciudad y se registra su ocupación como Trabajadores de "cuello blanco", de "cuello azul" o "sin cuello". La hipótesis nula es que el barrio de residencia de cada persona es independiente de su clasificación ocupacional. Los datos se tabulan como:
A B C D Total de cuello blanco 90 60 104 95 349 de cuello azul 30 50 51 20 151 Ni cuello blanco ni azul 30 40 45 35 150 Total 150 150 200 150 650
Tomemos la muestra que vive en el barrio A, 150, para estimar qué proporción de todo el 1.000.000 vive en el barrio A. Del mismo modo, tomamos 349650 para estimar qué proporción de los 1.000.000 son trabajadores de cuello blanco. Por el supuesto de independencia bajo la hipótesis de que deberíamos "esperar" el número de trabajadores de cuello blanco en el barrio A a ser
Entonces en esa "celda" de la tabla, tenemos
La suma de estas cantidades sobre todas las celdas es el estadístico de prueba; en este caso, . Bajo la hipótesis nula, esta suma tiene aproximadamente una distribución chi-cuadrado cuyo número de grados de libertad es
Si la estadística de la prueba es improbablemente grande según esa distribución chi-cuadrado, entonces se rechaza la hipótesis nula de independencia.
Una cuestión relacionada es la prueba de homogeneidad. Supongamos que, en lugar de dar a cada residente de cada uno de los cuatro barrios la misma oportunidad de ser incluido en la muestra, decidimos de antemano cuántos residentes de cada barrio vamos a incluir. En ese caso, cada residente tiene las mismas posibilidades de ser elegido que todos los residentes del mismo barrio, pero los residentes de los distintos barrios tendrían distintas probabilidades de ser elegidos si los cuatro tamaños de la muestra no son proporcionales a las poblaciones de los cuatro barrios. En tal caso, estaríamos probando la "homogeneidad" en lugar de la "independencia". La cuestión es si las proporciones de obreros, empleados y no empleados en los cuatro barrios son las mismas. Sin embargo, la prueba se realiza de la misma manera.
Aplicaciones
[editar]En el criptoanálisis, la prueba chi-cuadrado se utiliza para comparar la distribución del texto plano y el texto cifrado (posiblemente) descifrado. El valor más bajo de la prueba significa que el descifrado tuvo éxito con alta probabilidad.[9][10] Este método puede generalizarse para resolver problemas criptográficos modernos.[11]
En bioinformática, la prueba de chi-cuadrado se utiliza para comparar la distribución de ciertas propiedades de los genes (por ejemplo, el contenido genómico, la tasa de mutación, la agrupación de redes de interacción, etc.) pertenecientes a diferentes categorías (por ejemplo, genes de enfermedades, genes esenciales, genes de un determinado cromosoma, etc.).[12][13]
Véase también
[editar]Referencias
[editar]- ↑ «“ji cuadrada” o “ji al cuadrado”». Fundéu. Consultado el 1 de septiembre de 2021.
- ↑ a b Pearson, Karl (1900). «Sobre el criterio de que un sistema dado de desviaciones de lo probable en el caso de un sistema correlacionado de variables es tal que puede suponerse razonablemente que ha surgido del muestreo aleatorio». Philosophical Magazine. Serie 5 50 (302): 157-175. doi:10.1080/14786440009463897.
- ↑ Pearson, Karl (1893). «Contribuciones a la teoría matemática de la evolución [abstract]». Proceedings of the Royal Society 54: 329-333. JSTOR 115538. doi:10.1098/rspl.1893.0079.
- ↑ Pearson, Karl (1895). «Contribuciones a la teoría matemática de la evolución, II: Variación oblicua en material homogéneo». Philosophical Transactions of the Royal Society 186: 343-414. Bibcode:1895RSPTA.186..343P. JSTOR 90649. doi:10.1098/rsta.1895.0010.
- ↑ Pearson, Karl (1901). «Contribuciones matemáticas a la teoría de la evolución, X: Suplemento a una memoria sobre la variación sesgada». Philosophical Transactions of the Royal Society A 197 (287-299): 443-459. Bibcode:1901RSPTA.197..443P. JSTOR 90841. doi:10.1098/rsta.1901.0023.
- ↑ Pearson, Karl (1916). «Contribuciones matemáticas a la teoría de la evolución, XIX: Segundo suplemento a una memoria sobre la variación sesgada». Philosophical Transactions of the Royal Society A 216 (538-548): 429-457. Bibcode:1916RSPTA.216..429P. JSTOR 91092. doi:10.1098/rsta.1916.0009.
- ↑ Cochran, William G. (1952). «The Chi-square Test of Goodness of Fit». The Annals of Mathematical Statistics 23 (3): 315-345. JSTOR 2236678. doi:10.1214/aoms/1177729380.
- ↑ Yates, Frank (1934). «Tabla de contingencia con números pequeños y la prueba χ2». Supplement to the Journal of the Royal Statistical Society 1 (2): 217-235. JSTOR 2983604.
- ↑ «Estadística chi-cuadrado». Practical Cryptography. Archivado desde el original el 18 de febrero de 2015. Consultado el 18 de febrero de 2015.
- ↑ «Using Chi Squared to Crack Codes». IB Maths Resources. British International School Phuket.
- ↑ Ryabko, B. Ya.; Stognienko, V. S.; Shokin, Yu. I. (2004). «Una nueva prueba de aleatoriedad y su aplicación a algunos problemas criptográficos». Journal of Statistical Planning and Inference 123 (2): 365-376. Consultado el 18 de febrero de 2015.
- ↑ Feldman, I.; Rzhetsky, A.; Vitkup, D. (2008). «Propiedades de la red de genes que albergan mutaciones de enfermedades heredadas». PNAS 105 (11): 4323-432. Bibcode:2008PNAS..105.4323F. PMC 2393821. PMID 18326631. doi:10.1073/pnas.0701722105.
- ↑ «chi-square-tests». Archivado desde el original el 29 de junio de 2018. Consultado el 29 de junio de 2018.
Bibliografía
[editar]- Weisstein, Eric W. «Chi-Squared Test». En Weisstein, Eric W, ed. MathWorld (en inglés). Wolfram Research.
- Corder, G.W., Foreman, D.I. (2009).Nonparametric Statistics for Non-Statisticians: A Step-by-Step Approach Wiley, ISBN 9780470454619
- Greenwood, P.E., Nikulin, M.S. (1996) A guide to chi-squared testing. Wiley, New York. ISBN 047155779X
- Nikulin, M.S. (1973) Chi-square test for normality. "International Vilnius Conference on Probability Theory and Mathematical Statistics", v.2, 119–122.
- Nikulin, M.S. (1973) Chi-square test for continuous distributions with scale and shift parameters, "Theory of Probability and its Applications", v.18, #3, 559–568
Enlaces externos
[editar]- Chi-Square Calculator from GraphPad
- Chi-Square Test in QtiPlot
- Vassar College's 2×2 Chi-Square with Expected Values