INSTITUTO TECNOLOGICO SUPERIOR DE COATZACOALCOS
INGENIERIA INDUSTRIAL
ESTADISTICA INFERENCIAL I
4. PRUEBA DE BONDAD DE
AJUSTE Y PRUEBAS NO
PARAMÉTRICAS
3DI
M.I.A BRICIO JIMENEZ VENTURA
COATZACOALCOS, VERACRUZ
25/OCTUBRE/2024
INTEGRANTES
5. DE LA CRUZ CRUZ ERIKA LIZBETH
8. GARCÍA OJEDA DANNA PAOLA
11. GUZMAN ALVARADO ALEXIS GEOVANI
15. HERRERA PRIETO YARET AYLIN
18. LUNA RINCON AIRAM
21. MÉNDEZ REYNA RAFAEL
30. SEGURA MANUEL ANGEL JAVIER
INTRODUCCIÓN
Las pruebas de bondad de ajuste son
herramientas estadísticas que permiten
evaluar si un conjunto de datos se ajusta a
una distribución teórica específica. Y las
pruebas no paramétricas son técnicas que
no requieren que los datos sigan una
distribución específica. Son especialmente
útiles cuando los supuestos de normalidad
no se cumplen o cuando se trabaja con
muestras pequeñas.
Juntas, estas herramientas proporcionan un
marco sólido para la evaluación y el análisis
de datos en una amplia gama de disciplinas.
4.1 Bondad de ajuste
De un modelo estadístico describe lo bien
que se ajusta un conjunto de
observaciones. Las medidas de bondad en
general resumen la discrepancia entre los
valores observados y los valores esperados
en el modelo de estudio. Tales medidas se
pueden emplear en el contraste de
hipótesis para comprobar si dos muestras
se obtienen a partir de dos distribuciones
idénticas, o si las frecuencias siguen una
distribución específica.
4.1.1 Análisis Ji-
Cuadrada
La prueba de ji cuadrado es un método de prueba
de hipótesis. Dos pruebas de ji cuadrado habituales
implican comprobar si las frecuencias observadas
de una o más categorías se ajustan a las esperadas.
Se usa para comprobar hipótesis sobre si ciertos
datos son como se esperaba. La idea clave tras la
prueba es comparar los valores observados en los
datos con los valores esperados que tendríamos si
la hipótesis nula es cierta.
4.1.1 Análisis Ji-
Cuadrada
Propiedades de una prueba Ji-Cuadrada
Los valores de X2 son mayores o iguales que 0.
La forma de una distribución X2 depende del gl=n-1. En
consecuencia, hay un número infinito de distribuciones
X2.
El área bajo una curva ji-cuadrada y sobre el eje
horizontal es 1.
Las distribuciones X2 no son simétricas. Tienen colas
estrechas que se extienden a la derecha; esto es, están
sesgadas a la derecha.
Cuando n>2, la media de una distribución X2 es n-1 y la
varianza es 2(n-1).
El valor modal de una distribución X2 se da en el valor (n-
3
4.1.2 PRUEBAS DE
INDEPENDENCIA
Es un método utilizado para determinar si dos variables categóricas están
relacionadas o si son independientes entre sí. Esta prueba examina si la
distribución conjunta de las variables es producto de la distribución marginal de
cada variable, es decir, si conocer el valor de una variable no proporciona
información sobre la otra.
4.1.2 PRUEBAS DE
INDEPENDENCIA
OBJETIVO
Es evaluar si existe una asociación o relación significativa entre dos variables
categóricas. Al aplicar esta prueba, se busca determinar si la variación en una de
las variables afecta la distribución de la otra variable, o si, por el contrario, ambas
variables son independientes entre sí.
4.1.2 PRUEBAS DE
INDEPENDENCIA
EJEMPLO
Un ejemplo clásico es la prueba chi-cuadrado de independencia, que se aplica a
una tabla de contingencia para comparar las frecuencias observadas con las
frecuencias esperadas bajo la hipótesis de independencia. Si las diferencias son
significativas, se rechaza la hipótesis nula y se concluye que las variables están
asociadas
4.1.3 Prueba de la
bondad del ajuste
Es una prueba de hipótesis estadística que se utiliza para determinar si los
datos observados se ajustan a una distribución esperada.
Una prueba de bondad de ajuste permite docimar la hipótesis de que una
variable aleatoria sigue cierta distribución de probabilidad y se utiliza en
situaciones donde se requiere comparar una distribución observada con una
teórica o hipotética, compararla con datos históricos o con la distribución
conocida de otra población.
4.1.3 Prueba de la
bondad del ajuste
OBJETIVO
El objetivo de la prueba de bondad de ajuste es determinar si los datos
observados se ajustan a una distribución teórica o hipotética.
•Compara una distribución observada con una teórica o hipotética
•Determina si una muestra sigue una distribución normal
•Determina si las variables categóricas están relacionadas
•Determina si las muestras aleatorias pertenecen a la misma distribución
4.1.3 Prueba de la
bondad del ajuste
CARACTERISTICAS
•Compara una distribución observada con una teórica o hipotética
•Se usa para determinar si los datos de una muestra son representativos de la
población completa
•Ayuda a determinar si una muestra sigue una distribución normal, si las variables
categóricas están relacionadas o si las muestras aleatorias pertenecen a la misma
distribución
•Es casi siempre de cola derecha
•La hipótesis nula se rechaza si las diferencias entre las frecuencias observadas y
esperadas son grandes
4.1.4 TABLA DE
CONTINGENCIA
Es una herramienta estadística utilizada para resumir y analizar la relación entre
dos o más variables categóricas. Esta tabla organiza los datos en filas y
columnas, donde cada celda representa la frecuencia (o conteo) de las
observaciones que pertenecen a las combinaciones de categorías de las
variables analizadas.
4.1.4 TABLA DE
CONTINGENCIA
OBJETIVO
El objetivo de una tabla de contingencia es proporcionar una representación clara
y concisa de los datos que permite:
1. Visualizar la relación entre las variables categóricas.
2. Calcular frecuencias observadas y esperadas para realizar pruebas estadísticas,
como la prueba chi-cuadrado de independencia.
3. Identificar patrones o tendencias en los datos, lo que puede ayudar en la
formulación de hipótesis y en la toma de decisiones informadas.
4. Facilitar la interpretación de datos complejos al desglosar la información en
categorías comprensibles.
4.1.4 TABLA DE
CONTINGENCIA
EJEMPLO
Muestra la relación entre dos variables: el género (masculino y femenino) y la
preferencia de bebida (café, té y agua).
4.1.4 TABLA DE EJEMPLO
CONTINGENCIA
En total, 110 personas participaron en la encuesta.
De los 55 hombres, 30 prefieren café, 10 prefieren té y 15 prefieren
agua.
De las 55 mujeres, 25 prefieren café, 20 prefieren té y 10 prefieren
agua.
Esta tabla permite analizar las preferencias de bebida en función del
género de los encuestados
4. 2 PRUEBAS NO
PARAMETRICAS
*Son técnicas estadísticas
*Utilizadas cuando:
-Los datos no se ajustan a una escala continua o
no siguen una distribución específica
-Las muestras son pequeñas y no permiten
realizar estimaciones confiables de los
parámetros poblacionales (media, varianza, etc.).
-Cuando las suposiciones requeridas para las
pruebas paramétricas no se cumplen.
4. 2 PRUEBAS NO
PARAMETRICAS
CARACTERÍSTICAS:
-No dependen de la distribución
-Pueden trabajar con datos en escalas de
medición ordinales o nominales.
-Tienen menos poder que las pruebas
paramétricas
-Son más simples en términos de cálculos y
pueden adaptarse a diferentes tipos de datos.
4. 2. 1 ESCALA DE MEDICIÓN
Se refieren a la forma en que se organizan
y se interpretan los datos en una
investigación o análisis estadístico.
La selección de la prueba no paramétrica
adecuada dependerá de:
-la escala de medición de los datos
-el tamaño de la muestra
-las suposiciones de la distribución
subyacente.
4.2.2 MÉTODOS ESTADISTICOS
CONTRA NO PARAMETRICOS
una prueba de hipótesis que no requiere que la distribución de la población sea
caracterizada por ciertos parámetros.En un método no paramétrico, se presupone
que la distribución de la que proviene la muestra no está especificada y, con
frecuencia, se desea hacer inferencias sobre el centro de la distribución.
Por ejemplo, muchas pruebas de hipótesis parten del
supuesto de que la población sigue una distribución
normal con los parámetros μ y σ. Las pruebas no
paramétricas no parten de este supuesto, de modo que
son útiles cuando los datos son considerablemente no
normales y resistentes a transformaciones.
4.2.2 MÉTODOS ESTADISTICOS
CONTRA NO PARAMETRICOS
Limitaciones principales:
1. Menor potencia estadística: Son generalmente menos potentes que las pruebas
paramétricas cuando los datos cumplen con la normalidad, lo que significa que hay menor
probabilidad de rechazar la hipótesis nula cuando esta es falsa en distribuciones normales.
2. Modificación de las hipótesis: Suelen requerir la reformulación de las hipótesis, como en
el caso de pruebas sobre la mediana en lugar de la media, lo que puede llevar a que no
respondan a la misma pregunta que una prueba paramétrica, especialmente si la
distribución de la población no es simétrica.
4.2.3 PRUEBA DE
KOLMOGOROV-SMIRNOV
Permite medir el grado de concordancia existente entre la distribución de un conjunto de datos y una
distribución teórica específica. Su objetivo es señalar si los datos provienen de una población que tiene la
distribución teórica especificada, es decir, lo que hace es contrastar si las observaciones podrían
razonablemente proceder de la distribución especificada.
Hipótesis Nula: Establecerá que la distribución de frecuencias observada es consistente con la
distribución teórica (y que se da por lo tanto un buen ajuste).
Hipótesis Alternativa: Establecerá que la distribución de frecuencias observada no es consistente con
la distribución teórica (mal ajuste). Como en otras pruebas de contraste de hipótesis, el símbolo α (alfa)
indicará el nivel de significación de la prueba.
4.2.4 Prueba de
Anderson-Darling
La prueba de Anderson-Darling es una prueba estadística que se
utiliza para determinar si un conjunto de datos proviene de una
población que sigue una distribución de probabilidad específica.
Esta prueba mide la distancia entre la función de distribución
empírica (FED) de los datos de muestra y la función de distribución
acumulativa (FDC) de la distribución hipotética.
4.2.4 Prueba de
Anderson-Darling
Para un conjunto de datos y distribución en particular, mientras
mejor se ajuste la distribución a los datos, menor será este
estadístico. Por ejemplo, se puede utilizar el estadístico de Anderson-
Darling para determinar si los datos cumplen el supuesto de
normalidad para una prueba t.
Las hipótesis para la prueba de Anderson-Darling son:
H0: Los datos siguen una distribución especificada
H1: Los datos no siguen una distribución especificada
4.2.4 Prueba de
Anderson-Darling
También puede utilizar el estadístico de Anderson-Darling para
comparar el ajuste de varias distribuciones con el fin de determinar
cuál es la mejor. Sin embargo, para concluir que una distribución es la
mejor, el estadístico de Anderson-Darling debe ser sustancialmente
menor que los demás. Cuando los estadísticos están cercanos entre
sí, se deben usar criterios adicionales, como las gráficas de
probabilidad, para elegir entre ellos.
4.2.5 prueba de
Ryan-Joiner
La prueba de Ryan-Joiner proporciona un coeficiente de correlación,
que indica la correlación entre los datos y las puntuaciones normales
de los datos. Si el coeficiente de correlación está cerca de 1, los datos
se encuentran cerca de la gráfica de probabilidad normal. Si es
menor que el valor crítico adecuado, se rechazará la hipótesis nula de
normalidad.
4.2.5 prueba de
Ryan-Joiner
El objetivo de la prueba de Ryan-Joiner es determinar si los residuos
de un modelo de regresión lineal siguen una distribución normal.
Esto es importante porque muchos modelos estadísticos asumen que
los errores siguen una distribución normal.
- Hipótesis nula (H0): Los residuos siguen una distribución normal.
- Hipótesis alternativa (H1): Los residuos no siguen una distribución
normal. siguen una distribución normal.
4.2.5 prueba de
Ryan-Joiner
La prueba de Ryan-Joiner se realiza de la siguiente manera:
1. Se calculan los residuos del modelo de regresión lineal.
2. Se calcula la estadística de prueba de Ryan-Joiner, que es una
medida de la asimetra y curtosis de los residuos.
3. Se compara la estadística de prueba con un valor crítico prefijado.
4. Si la estadística de prueba es mayor que el valor crítico, se rechaza la
hipótesis nula y se concluye que los residuos no siguen una
distribución normal.
4.2.6 PRUEBA DE
SHAPIRO WILK
Es una prueba paramétrica que mide la correlación entre los datos y las
puntuaciones normales correspondientes.
se usa para contrastar la normalidad de un conjunto de datos. Se
plantea como hipótesis nula que una muestra proviene de una
población normalmente distribuida. Fue publicado en 1965 por Samuel
Shapiro y Martin Wilk.
4.2.6 PRUEBA DE
SHAPIRO WILK
OBJETIVO
Su objetivo es determinar si la población de la que provienen los
datos se distribuye normalmente.
Se considera una de las pruebas más potentes para este tipo de
análisis.
Para realizar la prueba, se compara un estimador no paramétrico
de la varianza con un estimador paramétrico.
4.2.6 PRUEBA DE
SHAPIRO WILK
CARACTERISTICAS
•La hipótesis nula es que la distribución es normal.
•La hipótesis alternativa es que la distribución no es
normal.
•Si el p-valor es menor que el nivel de significancia, se
rechaza la hipótesis nula y se concluye que los datos
no vienen de una distribución normal.
•Si el p-valor es mayor que el nivel de significancia, no
se rechaza la hipótesis nula y se concluye que no se
puede rechazar dicha hipótesis
CONCLUSIÓN
En conclusión, la evaluación de la bondad de ajuste y el
uso de pruebas no paramétricas son componentes
esenciales en el análisis estadístico. Las pruebas de
bondad de ajuste, como el análisis Ji-Cuadrada y las
pruebas de independencia, permiten determinar si los
datos se alinean con modelos teóricos, utilizando
herramientas como tablas de contingencia. Por otro lado, las pruebas no paramétricas ofrecen
alternativas robustas cuando los datos no cumplen con
los supuestos de normalidad, destacando métodos
como las pruebas de Kolmogorov-Smirnov, Anderson-
Darling, Ryan-Joiner y Shapiro-Wilk. Ambas enfoques
son fundamentales para garantizar la validez de los
resultados en investigaciones diversas, permitiendo a los
analistas tomar decisiones informadas basadas en la
naturaleza de los datos.
BIBLIOGRAFÍAS
https://support.minitab.com/es-mx/minitab/help-and-how-
to/statistics/nonparametrics/supporting-topics/understanding-
nonparametric-methods/
https://es.wikipedia.org/wiki/Bondad_de_ajuste
https://virtual.uptc.edu.co/ova/estadistica/docs/libros/estadistica1/cap0
3b.html
Gracias por
su atencion
prestada