Heteroscedasticidad
Heteroscedasticidad
Por lo tanto, tener una varianza igual significa que las perturbaciones son homoscedásticas. Sin
embargo, es bastante común en el análisis de regresión que se viole esta suposición. (En general, la
heterocedasticidad es más probable que ocurra dentro de un marco transversal, aunque esto no
significa que la heterocedasticidad en los modelos de series temporales sea imposible). En tales
casos, decimos que se viola el supuesto de homoscedasticidad y que el La varianza de los términos
de error depende de qué observación se está discutiendo, es decir:
Tenga en cuenta que la única diferencia entre las ecuaciones (6.1) y (6.2) es el subíndice i unido a
σ2, lo que significa que la varianza puede cambiar para cada observación en la muestra
i = 1, 2, 3,. . . , n.
Para aclarar esto, es útil volver a la simple dos variables modelo de regresión de la forma:
Considere un diagrama de dispersión con una línea de regresión de población de la forma dada en
Figura 6.1 y compárela con la Figura 6.2. Puntos X1, X2 y X3 en la Figura 6.1, aunque haciendo
referencia a diferentes valores de X (X1 <X2 <X3), se concentran estrechamente alrededor
la línea de regresión con un reparto igual por encima y por debajo (es igual a la distribución, o
homoscedástico). Por otro lado, los puntos X1, X2 y X3 en la Figura 6.2 nuevamente se refieren a
diferentes valores de X, pero esta vez, es claro que cuanto mayor es el valor de X, mayor es la
propagación alrededor de la línea. En este caso, la extensión es desigual para cada Xi (que se
muestra por el punteado líneas arriba y abajo de la línea de regresión), y por lo tanto tenemos
heterocedasticidad. Eso Ahora está claro que en la Figura 6.3 tenemos el caso opuesto (para Xi
inferior, la varianza es mayor). Un ejemplo del primer caso de heterocedasticidad (que se muestra
en la Figura 6.2) puede derivarse de mirar los patrones de ingresos y consumo. Las personas con
bajos niveles de ingresos hacen no tienen mucha flexibilidad para gastar su dinero. Una gran
proporción de sus ingresos se gastará en comprar comida, ropa y transporte; entonces, con bajos
niveles de ingresos,
los patrones de consumo no serán muy diferentes y la dispersión será relativamente baja. Sobre el
Por otro lado, las personas ricas tienen muchas más opciones y flexibilidad. Algunos podrían
consumir mucho, algunos podrían ser grandes ahorradores o inversores en el mercado de valores,
lo que implica que el consumo promedio (dado por la línea de regresión) puede ser bastante
diferente del consumo real Entonces, la propagación de altos ingresos definitivamente será más alta
que eso para menores ingresos.
El caso opuesto (como el que se muestra en la Figura 6.3) se puede ilustrar con ejemplos como
mejoras en las técnicas de recopilación de datos (piénsese aquí en los grandes bancos que tener
instalaciones de procesamiento de datos sofisticadas y, por lo tanto, son capaces de calcular el
cliente estimaciones con menos errores que los bancos más pequeños sin tales facilidades), o al
aprendizaje de errores modelos donde la experiencia disminuye las posibilidades de cometer
grandes errores (por ejemplo, donde la variable Y es el rendimiento de puntaje en una prueba y la
variable X la veces que las personas tomaron el examen en el pasado, u horas de preparación para
el prueba; cuanto mayor sea la X, menor será la variabilidad en términos de Y será). Los objetivos
de este capítulo son examinar las consecuencias de la heterocedasticidad para Estimadores OLS,
para presentar pruebas para detectar heterocedasticidad en modelos econométricos, y para
mostrar formas de resolver la heterocedasticidad.
Estimadores OLS
Un enfoque general
Considere el modelo de regresión lineal clásico:
1. Los estimadores MCO para los β siguen siendo imparciales y consistentes. Esto es porque
ninguno de las variables explicativas se correlaciona con el término de error. Entonces, una
especificada correctamente La ecuación que solo sufre de la presencia de
heterocedasticidad nos dará valores de β que son relativamente buenos.
3. La heterocedasticidad también afecta las varianzas (y por lo tanto los errores estándar
también) de las βs estimadas. De hecho, la presencia de heterocedasticidad causa el método
OLS subestimar las varianzas (y los errores estándar), lo que lleva a una mayor cantidad de
lo esperado valores de t-statistics y F-statistics. Por lo tanto, la heterocedasticidad tiene un
gran impacto en la prueba de hipótesis: tanto las estadísticas-t como las estadísticas-F ya
no son confiables para la prueba de hipótesis porque nos llevan a rechazar la hipótesis nula
con demasiada frecuencia.
Un enfoque matemático
Para observar el efecto de la heterocedasticidad en los estimadores MCO, primero el simple modelo
de regresión será examinado, entonces el efecto de la heterocedasticidad en la forma de la matriz
de varianza-covarianza de los términos de error del modelo de regresión múltiple
Para el modelo de regresión lineal simple, con solo una variable explicativa y una regresión
constante en Y, como la analizada en el Capítulo 3 - es fácil de mostrar que la varianza del estimador
de pendiente se verá afectada por la presencia de heterocedasticidad. La ecuación (3.56) para la
varianza del coeficiente MCO β mostró ese:
Esto se aplica solo cuando los términos de error son homoscedásticos, por lo que la varianza de la
los residuos son constantes σ2. La única diferencia entre la ecuación (3.56) y la ecuación se presenta
aquí es que el subíndice i se usa en lugar de t, porque este capítulo trata principalmente con modelos
de datos transversales. En el caso de heterocedasticidad, la varianza cambios con cada observación
individual i, y por lo tanto la varianza de β ahora se dará por:
Detectando heterocedasticidad
En general, hay dos formas de detectar la heterocedasticidad. El primero, conocido como el de
manera informal, es mediante la inspección de diferentes gráficos, mientras que el segundo es
mediante la aplicación pruebas apropiadas.
La forma informal
De manera informal, y en el caso de dos variables que hemos visto antes, heterocedasticidad puede
detectarse fácilmente mediante una simple inspección del diagrama de dispersión. Sin embargo,
esto no se puede hacer en el caso de regresión múltiple. En este caso útil la información sobre la
posible presencia de heteroscedasticidad se puede dar trazando los residuos al cuadrado contra la
variable dependiente y / o la explicación variable.
Gujarati (1978) presenta casos en los que información útil sobre la heterocedasticidad se puede
deducir de este tipo de patrón de gráfico. Los posibles patrones se presentan en Figuras 6.5 a 6.9.
En la figura 6.5 no hay un patrón sistemático entre las dos variables, lo que sugiere que es un modelo
"saludable", o al menos uno que no sufre de heterocedasticidad. En la figura 6.6 hay un patrón claro
que sugiere heterocedasticidad, en la figura 6.7 hay una relación lineal clara entre Yi (o Xi) y u2 yo
mientras Las Figuras 6.8 y 6.9 exhiben una relación cuadrática. Conocer la relación entre las dos
variables pueden ser muy útiles porque permite que los datos se transformen en tal manera de
eliminar la heterocedasticidad.
La prueba Breusch-Pagan LM
Breusch y Pagan (1979) desarrollaron una prueba de Lagrange Multiplier (LM) para la
heterocedasticidad. En el siguiente modelo:
Paso 1 Ejecute una regresión de la ecuación (6.10) y obtenga los residuos Ûi de esta ecuación de
regresión.
donde Zki es un conjunto de variables pensadas para determinar la varianza del error término. (Por
lo general, para Zki las variables explicativas de la regresión original se utilizan ecuación, es decir, las
X).
Paso 3 Formule las hipótesis nula y alternativa. La hipótesis nula de homoscedasticidad es:
mientras que la alternativa es que al menos uno de los como es diferente de cero y que al menos
uno de los Z afecta la varianza de los residuos, que será diferente para diferentes t.
En esto, como en todas las otras pruebas LM que examinaremos más adelante, la ecuación auxiliar
hace una suposición explícita sobre la forma de heterocedasticidad que puede ser esperado en los
datos. Hay tres pruebas más de LM, que introducen diferentes formas de regresiones auxiliares,
sugiriendo diferentes formas funcionales sobre la relación de los residuos al cuadrado (Û2i, que es
un proxy para σ2 ya que no se conoce) y las variables explicativas.
ls y c x1 x2 x3 . . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. Luego el El comando generate
(genr) se usa para obtener los residuos:
genr ut = resid
Tenga en cuenta que es importante escribir y ejecutar este comando inmediatamente después de
obtener la ecuación resulta de modo que el vector residual tiene el residuo de la ecuación estimada
previamente. Aquí ut se usa para los términos de error de este modelo. Los residuos cuadrados se
calculan de la siguiente manera:
ls utsq c z1 z2 z3. . . zp
Para calcular el estadístico LM, se realiza el cálculo LM = n * R2, donde n es el número de
observaciones y R2 es el coeficiente de determinación de los regresión auxiliar.
regress y x1 x2 x3 x4. . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. Los residuos se obtienen
usando el comando de predicción de la siguiente manera:
g utsq = ut 2
y la estimación para la regresión auxiliar obtenida del comando:
La prueba Glesjer LM
La prueba de Glesjer (1969) se describe a continuación: tenga en cuenta que los pasos son los
mismos que los de la prueba Breusch-Pagan anterior, con la excepción del Paso 2, que implica una
ecuación de regresión auxiliar diferente.
Paso 1 Ejecute una regresión de la ecuación (6.10) y obtenga los residuos Ûi de esta regresión
ecuación.
Paso 3 Formule las hipótesis nula y alternativa. La hipótesis nula de homoscedasticidad es:
Paso 5 Rechazar el nulo y concluir que hay evidencia significativa de heterocedasticidad cuando LM-
estadística es más grande que el valor crítico (LM-stat> χ2 p-1, α). Alternativamente, calcule el valor
p y rechace el valor nulo si el valor p es menor que el nivel de significancia α (generalmente α =
0.05).
La prueba Glesjer en EViews
La prueba de Glesjer se puede realizar en EViews de la siguiente manera. Primero la ecuación de
regresión el modelo se estima con OLS, usando el comando:
ls y c x1 x2 x3. . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. El generar El comando (genr)
se usa para obtener los residuos:
genr ut = resid
Tenga en cuenta que es importante escribir y ejecutar este comando inmediatamente después de
obtener los resultados de la ecuación para que el vector residual tenga el residuo de la ecuación
estimada previamente. ut se usa para los términos de error de este modelo. El valor absoluto de los
residuos se calcula de la siguiente manera:
ls absut c z1 z2 z3. . . zp
Para calcular la estadística LM, se realiza el cálculo LM = n * R2, donde n es el número de
observaciones y R2 es el coeficiente de determinación de la regresión auxiliar.
regress y x1 x2 x3 x4. . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. Los residuos se obtienen
usando el comando de predicción:
Paso 1 Ejecute una regresión de la ecuación (6.10) y obtenga los residuos ui de esta regresión
ecuación.
Paso 2 Ejecute la siguiente regresión auxiliar:
Paso 3 Formule las hipótesis nula y alternativa. La hipótesis nula de homoscedasticidad es:
ls y c x1 x2 x3. . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. Los residuos se obtienen
usando el comando generate (genr):
genr ut = resid
Tenga en cuenta que es importante escribir y ejecutar este comando inmediatamente después
obtener los resultados de la ecuación para que el vector residual tenga el residuo de la ecuación
estimado previamente. Aquí ut representa los términos de error del modelo. Los residuos cuadrados
se calculan de la siguiente manera:
La prueba Park LM
Park (1966) desarrolló una prueba alternativa de LM, que implica los siguientes pasos:
Paso 1 Ejecute una regresión de la ecuación (6.10) y obtenga los residuos Ûi de esta regresión
ecuación.
Paso 2 Ejecute la siguiente regresión auxiliar:
Paso 3 Formule las hipótesis nula y alternativa. La hipótesis nula de homoscedasticidad es:
mientras que la alternativa es que al menos uno de los as es diferente de cero, en En ese caso, al
menos uno de los Z afecta la varianza de los residuos, que será diferente para diferentes t.
Paso 4 Calcule la estadística LM = nR2, donde n es el número de observaciones utilizadas en para
estimar la regresión auxiliar en el paso 2, y R2 es el coeficiente de determinación de esta regresión.
La estadística LM sigue la distribución χ2 con p - 1 grado de libertad.
Paso 5 Rechazar el nulo y concluir que hay evidencia significativa de heterocedasticidad cuando LM-
estadística es más grande que el valor crítico (LM-stat> χ2 p-1, α). Alternativamente, calcule el valor
p y rechace el valor nulo si el valor p es menor que el nivel de significancia α (generalmente α =
0.05).
ls y c x1 x2 x3. . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. Los residuos luego se obtiene
el comando generate (genr):
genr ut = resid
Tenga en cuenta que es importante escribir y ejecutar este comando inmediatamente después de
derivar la ecuación resulta de modo que el vector residual tiene el residuo de la ecuación estimada
previamente. Aquí ut representa los términos de error del modelo. Los residuos cuadrados son
luego se calcula de la siguiente manera:
ls log (utsq) c log (z1) log (z2) log (z3). . . log (zp)
La estadística LM se calcula utilizando LM = n * R2, donde n es el número de observaciones y R2 es
el coeficiente de determinación de la regresión auxiliar.
La prueba Goldfeld-Quandt
Goldfeld y Quandt (1965) propusieron una prueba alternativa basada en la idea de que si las
varianzas de los residuos son las mismas en todas las observaciones (que es homoscedástico),
entonces la varianza para una parte de la muestra debe ser la misma que la varianza para otro. Para
aplicar la prueba es necesario identificar una variable a la cual la varianza de los residuos está
relacionados en su mayoría (esto se puede hacer con parcelas de los residuos contra el variables
explicativas). Los pasos de la prueba Goldfeld-Quandt son los siguientes:
Paso 1 Identifica una variable que está estrechamente relacionada con la varianza de la perturbación
término, y orden (o rango) las observaciones de esta variable en orden descendente (del valor más
alto al más bajo).
Paso 2 Divida la muestra ordenada en dos submuestras de igual tamaño omitiendo c central
1
observaciones, de modo que las dos submuestras contendrán 2 (n - c) observaciones. El primero
contendrá los valores más altos y el segundo los más bajos.
Paso 3 Ejecute una regresión MCO de Y en la variable X utilizada en el Paso 1 para cada submuestra
y obtenga el RSS para cada ecuación.
Paso 4 Calcule la estadística F de la siguiente manera:
donde el RSS con el valor más grande está en el numerador. La estadística F es distribuido con F (1/2
(n-c) -k, 1/2 (n-c) -k) grados de libertad.
Paso 5 Rechazar la hipótesis nula de homoscedasticidad si F-estadística> F-crítica.
Si los términos de error son homoscedóticos, la varianza de los residuos será la lo mismo para cada
muestra, por lo que la relación es la unidad. Si la relación es significativamente mayor, la nulo de
igual varianza será rechazado. El valor de c se elige arbitrariamente y debería usualmente se
encuentra entre 1/6 y 1/3 de las observaciones. Los problemas con la prueba Goldfeld-Quandt son
que no tiene en cuenta casos donde la heterocedasticidad es causada por más de una variable y no
siempre adecuado para datos de series de tiempo. Sin embargo, es un modelo muy popular para la
regresión simple caso (con una sola variable explicativa).
y
smpl start end
ls y c x
scalar rss2=@ssr
con los puntos de inicio y final definidos apropiadamente en cada caso, dependiendo de la
frecuencia del conjunto de datos y el número de observaciones de punto medio que deberían
excluido La estadística F se calcula a continuación, dada por RRS1 / RSS2 o el siguiente comando:
scalar f_crit=@qfdist(.95,n1-k,n2-k)
Alternativamente, se puede obtener el valor p y las conclusiones se pueden obtener mediante:
scalar p_value=1-@fdist(.05,n1-k,n2-k)
sort x
La muestra se divide en dos submuestras diferentes y se ejecuta OLS de Y en X. para ambas
submuestras con el fin de obtener los RSS. Los siguientes comandos (asumiendo aquí una muestra
de 100 observaciones en total, con la muestra dividida en las primeras 40 (1-40) y los últimos 40
(61-100), dejando 20 observaciones medias (41-60) fuera de la estimación ventana):
regress y x in 1/40
scalar rss1 = e(rmse)ˆ 2
scalar df_rss1 = e(df_r)
para la primera muestra y para la segunda:
regress y x in 61/100
scalar rss2 = e(rmse)ˆ 2
scalar df_rss2 = e(df_r)
La estadística F de Goldfeld-Quandt se calcula a partir de:
Prueba blanca
White (1980) desarrolló una prueba más general para heterocedasticidad que elimina los problemas
que aparecieron en las pruebas anteriores. La prueba de White también es una prueba de LM, pero
tiene las ventajas de que (a) no asume ninguna determinación previa de heterocedasticidad,
(b) a diferencia de la prueba de Breusch-Pagan, no depende de la suposición de normalidad, y
(c) propone una elección particular para el Z en la regresión auxiliar.
Los pasos involucrados en la prueba de White suponiendo un modelo con dos variables explicativas
como el que se presenta aquí:
son los siguientes:
Paso 1 Ejecute una regresión de la ecuación (6.20) y obtenga los residuales Ûi de esta regresión
ecuación.
Paso 2 Ejecute la siguiente regresión auxiliar:
Es decir, regresión de los residuales al cuadrado en una constante, todas las variables explicativas,
las variables explicativas al cuadrado y sus respectivos productos cruzados.
Paso 3 Formule las hipótesis nula y alternativa. La hipótesis nula de homoscedasticidad es:
regress y x2 x3
Los residuos se obtienen usando el comando de predicción de la siguiente manera:
g utsq = ut 2
y la estimación para la regresión auxiliar obtenida del comando:
Paso 2 Los residuos de este modelo de regresión (representado aquí por ut) se obtienen por
escribiendo el siguiente comando en la línea de comando:
genr ut = resid
y los residuos al cuadrado escribiendo el comando:
La prueba de Glesjer
Para la prueba de Glesjer los pasos son similares pero la variable dependiente en el auxiliar la
regresión es ahora el valor absoluto de los términos de error. Esta variable debe ser construido de
la siguiente manera:
La prueba Harvey-Godfrey
Para la prueba de Harvey-Godfrey, la regresión auxiliar toma la forma:
que es de nuevo más grande que el valor crítico de chi-cuadrado, y por lo tanto puede ser de nuevo
concluyó que hay suficiente evidencia de heterocedasticidad.
La prueba Park
Finalmente, para la prueba Park, la regresión auxiliar toma la forma:
los resultados de los cuales se dan en la Tabla 6.5. En este caso, la estadística LM es:
que es de nuevo más grande que el valor crítico de chi-cuadrado, y por lo tanto, nuevamente puede
ser concluyó que hay suficiente evidencia de heterocedasticidad.
La prueba Goldfeld-Quandt
La prueba Goldfeld-Quandt requiere primero que las observaciones se ordenen de acuerdo con la
variable pensada principalmente para estar causando la heterocedasticidad. Tomando esto para ser
la variable de habitaciones, esta prueba se realiza en la secuencia que se describe a continuación:
Paso 1 Haga clic en Procs / Sort Current page, ingrese el nombre de la variable (en este caso
habitaciones) en el cuadro de diálogo ordenar clave y haga clic en el cuadro para marcar
descendente para el orden de clasificación
Paso 2 Divida la muestra en dos submuestras diferentes, restando el número c de intermedio
observaciones. Elegir c cerca de 1/6 de las observaciones totales da c = 14. Por lo tanto, cada
submuestra contendrá (88 - 14) / 2 = 37 observaciones. La primera muestra tendrá observaciones
de 1 a 37 y la segunda tendrá observaciones 51 a 88.
Paso 3 Ahora ejecute un OLS de precio en salas para ambas submuestras con el fin de obtener el
RSS, usando los siguientes comandos:
De manera similar para la segunda submuestra, escriba los siguientes comandos:
smpl 51 88
ls price c rooms
scalar rss2=@ssr
Los resultados para ambas submuestras se presentan en los cuadros 6.6 y 6.7. Desde RSS1 es más
grande que RSS2, la estadística F se puede calcular de la siguiente manera:
La estadística F 4.1419 es más grande que F-critical 1.7295, y por lo tanto hay evidencia de
heterocedasticidad.
Prueba blanca
Para la prueba de White, el modelo de ecuaciones (presentado en la primera tabla con los resultados
de este ejemplo) debe estimarse y los resultados que se muestran en la Tabla 6.8 se ven luego por
haciendo clic View/Residual Tests/White (no cross products). Tenga en cuenta que el auxiliar la
regresión no incluye los productos cruzados de las variables explicativas en este caso. El LM-stat
16.20386 es más grande que el valor crítico y el p-value también al lado de La prueba de LM
proporcionada por EViews es 0.02757, ambas sugieren evidencia de heterocedasticidad. Si la
versión de la prueba de White con los productos cruzados se elige haciendo clic View/Residual
Tests/ White (cross products), los resultados que se muestran en la Tabla 6.9 son adquirido. En este
caso, así como en todos los casos anteriores, el LM-stat (17.22519) es más grande que el crítico y,
por lo tanto, hay evidencia de heterocedasticidad.
g lrooms = log(rooms)
g lsqfeet = log(sqfeet)
regress lutsq lrooms lsqfeet
Los resultados deberían ser idénticos a los de la Tabla 6.5.
sort rooms
regress price rooms in 1/37
scalar rss1 = e(rmse)ˆ 2
scalar df_rss1 = e(df_r)
regress price rooms in 51/88
scalar rss2 = e(rmse)ˆ 2
scalar df_rss2 = e(df_r)
scalar FGQ = rss2/rss1
scalar Fcrit = invFtail(df_rss2,df_rss1,.05)
scalar pvalue = Ftail(df_rss2,df_rss1,FGQ)
scalar list FGQ pvalue Fcrit
y supongamos que la varianza del término de error sigue un proceso ARCH (1):
Si no hay autocorrelación en Var (ut), entonces γ1 debe ser cero y, por lo tanto, σ2t= γ0. Entonces
hay una varianza constante (homoscedástica). El modelo se puede ampliar fácilmente para efectos
ARCH (p) de orden superior:
es decir, no hay efectos ARCH presentes. Los pasos involucrados en la prueba ARCH son:
Paso 1 Estime la ecuación (6.24) por OLS y obtenga los residuos, ut.
Paso 2 Regresa los residuos al cuadrado (u2t) contra una constante, u2t-1, u2t-2,. . . , u2t-p (el el valor
de p se determinará por el orden de ARCH (p) que se está probando).
Paso 3 Calcule la estadística LM = (n - p) R2, a partir de la regresión en el paso 2. Si LM> χ2 p para
un nivel de significancia dado, rechazar el nulo de ningún efecto ARCH y concluir que los efectos
ARCH están realmente presentes.
La prueba ARCH-LM en EViews, Microfit y Stata
Después de estimar una ecuación de regresión en EViews, haga clic en Ver / Diagnóstico residual /
Pruebas de heterocedasticidad. Aparece una nueva ventana, que incluye varios posibles pruebas
(tenga en cuenta que esta ventana ofrece la oportunidad de hacer las pruebas examinadas
anteriormente de una manera diferente). Desde las diversas posibilidades, elija la prueba ARCH
resaltando con el mouse, especifique el número de rezagos que queremos usar y haga clic en
Aceptar para obtener los resultados de la prueba Estos se interpretan de la manera habitual. En
Microfit, después de estimar el modelo de regresión, cierre la ventana de resultados haciendo clic
cerca para obtener el menú de Regresión posterior. Desde ese menú, elija la opción 2, vaya al menú
Prueba de hipótesis y haga clic en Aceptar. Desde el menú de prueba de hipótesis elija la opción 2,
pruebas de Heteroscedasticidad Condicional autorregresiva (MCO y NLS), y nuevamente haz clic en
OK. Especifique el número de rezagos en la entrada, una ventana entera y haga clic en Aceptar para
obtener los resultados de la prueba. Finalmente, en Stata, después de estimar un modelo de
regresión, la prueba ARCH-LM puede ser realizado utilizando el menú Estadísticas, y eligiendo
Estadísticas / Modelos lineales y Diagnósticos de regresión / Pruebas de especificación relacionadas,
etc. Seleccione de la lista 'Prueba para Efectos ARCH en los residuos (prueba archlm - series de
tiempo solamente) ', y especifique el número de retrasos para ser probado. Los resultados aparecen
inmediatamente en la ventana Resultados. Un simple y mucho más rápido es mediante el uso del
siguiente comando:
obtenemos los resultados que se muestran en la Tabla 6.10, donde es obvio desde el estadístico LM
(y el límite de probabilidad) así como a partir de la estadística t del residuo cuadrado rezagado
término que es altamente significativo que esta ecuación tenga efectos ARCH (1).
Resolviendo heterocedasticidad
Si se encuentra heterocedasticidad, hay dos formas de proceder. Primero, el modelo puede ser re-
estimados de una manera que reconozca completamente la presencia del problema, y eso implica
aplicar el método de mínimos cuadrados generalizados (o ponderados). Esto sería entonces producir
un nuevo conjunto de estimaciones de parámetros que sería más eficiente que el OLS unos y un
conjunto correcto de covarianzas y t-estadísticas. Alternativamente, podemos reconocer que si bien
OLS ya no es el mejor, sigue siendo consistente y el verdadero problema es que el las covarianzas y
las estadísticas t son simplemente incorrectas. Entonces podemos corregir las covarianzas y t-
estadísticas basándolos en un conjunto de fórmulas como la Ecuación (6.9). Por supuesto esto no
cambie las estimaciones reales de los parámetros, que permanecerán menos que completamente
eficientes.
donde la varianza del término de error, en lugar de ser constante, es heteroscástico, es Var (ui) =
σ2i. Si cada término en la ecuación (6.29) está dividido por la desviación estándar del término de
error, σi, se obtiene uno de estos modelos modificados:
O
Para el modelo modificado:
Por lo tanto, las estimaciones obtenidas por MCO de regresión Y * i a X * 1i, X * 2i, X * 3i,. . . , X * ki
ahora son AZULES. Este procedimiento se llama mínimos cuadrados generalizados (GLS).
El procedimiento GLS también es el mismo que el de los mínimos cuadrados ponderados (WLS),
donde tenemos pesos, ωi, ajustando nuestras variables. La similitud puede identificarse definiendo
ωi = 1 σi y reescribiendo el modelo original como:
que, si se define como ωiYi = Y * i, y (Xkiωi) = X * ki, da la misma ecuación que (6.31):
Un gran problema práctico con el GLS y WLS, por lo demás directo, es que σ2i es desconocido y, por
lo tanto, la ecuación (6.31) y / o la ecuación (6.33) no pueden estimarse sin hacer suposiciones
explícitas sobre la estructura de σ2i. Sin embargo, si existe una creencia previa sobre la estructura
de σ2 yo, entonces trabajo de GLS y WLS en la práctica. Considere el caso donde en la ecuación
(6.29):
donde Zi es una variable cuyos valores son conocidos por todo i. Dividir cada término en Ecuación
(6.29) por Zi da:
donde los términos con estrella denotan las variables divididas por Zi. En este caso:
El problema de heterocedasticidad ha sido resuelto del modelo original. Tenga en cuenta, sin
embargo, que esta ecuación no tiene un término constante; la constante en la regresión original (β1
en la ecuación (6.24)) se convierte en el coeficiente de X * i en la ecuación (6.37). Cuidado debería
tomarse en la interpretación de los coeficientes, especialmente cuando Zi es una variable explicativa
en el modelo original - Ecuación (6.29). Si, por ejemplo, Zi = X3i, entonces:
Si se utiliza esta forma de WLS, entonces los coeficientes obtenidos deben interpretarse muy
cuidadosamente. Tenga en cuenta que β3 es ahora el término constante de la ecuación (6.37),
mientras que era un coeficiente de pendiente en la Ecuación (6.29), y β1 ahora es un coeficiente de
pendiente en la Ecuación (6.37), mientras que fue el intercepto en el modelo original, Ecuación
(6.29). El efecto de X3i en La ecuación (6.29) puede por lo tanto investigarse examinando la
intersección en Ecuación (6.37); el otro caso se puede abordar de manera similar.
White (1980) propuso un método para obtener estimadores consistentes de las varianzas y
covarianzas de los estimadores OLS. Los detalles matemáticos de este método son más allá del
alcance de este libro. Sin embargo, varios paquetes de computadora, incluyendo EViews, ahora
pueden calcular las varianzas y estándares corregidos por heteroscedasticidad de White errores Un
ejemplo del método de estimación de White en EViews se da en la computadora ejemplo a
continuación.
y luego haz clic en OK. Los resultados obtenidos serán los que se muestran en la Tabla 6.11 donde
ahora el Los errores estándar de White no son los mismos que los del caso simple de OLS, aunque
los coeficientes son, por supuesto, idénticos. Cálculo del intervalo de confianza para el coeficiente
de sqfeet para el caso simple OLS (el caso incorrecto) da (el t-stat para 0.05 y 86 grados de libertad
es 1.662765):
Los errores estándar corregidos de White proporcionan una estimación mejor (más precisa).
Alternativamente, EViews nos permite usar los mínimos cuadrados ponderados o generalizados
método también. Suponiendo que la variable que causa la heterocedasticidad es el sqfeet variable
(o en notación matemática suponiendo que):
entonces la variable de peso será 1 /sqfeet. Para hacer esto, haga clic en Quick / Estimate Equation
y luego en Opciones, esta vez marcando la casilla de Weighted LS / TSLS y entrando la variable de
ponderación 1 / sqfeet en el cuadro escribiendo:
Los resultados de este método se dan en la Tabla 6.13 y son claramente diferentes de estimación
simple de MCO. El lector puede usarlo como ejercicio para calcular y comparar errores estándar e
intervalos de confianza para este caso. Del mismo modo, en Stata, para obtener resultados
corregidos por heterocedasticidad a través de los mínimos cuadrados ponderados o generalizados,
vaya a Estadística / Modelos lineales y Relacionado / Regresión lineal para obtener la regresión -
ventana de diálogo de regresión lineal. Complete las variables dependientes y explicativas en la
pestaña Modelo, mientras que en el Pestaña Pesos marque el botón de Pesos analíticos y
especifique el peso deseado (en este caso es 1 / sqfeet) en la caja. Haga clic en Aceptar para obtener
los resultados corregidos por heterocedasticidad, que son idénticos a los reportados en la Tabla
6.13. Alternativamente, esto se puede hacer más simplemente usando el comando:
donde Var (ui) = σ2X2i. Encuentra las estimaciones de mínimos cuadrados generalizados.
6. Definir heterocedasticidad y proporcionar ejemplos de modelos econométricos donde
heteroscedasticidad es probable que exista.
Ejercicio 6.1
Use los datos en el archivo houseprice.wf1 para estimar un modelo de:
pricei = β1 + β2sqfeeti + ui
Verifique la heterocedasticidad usando las pruebas White y Goldfeld-Quandt. Obtener GLS estima
las siguientes suposiciones: (a) Var (ui) = σ2sqfeeti y (b) Var (ui) = σ2sqfeet2i . Comente sobre la
sensibilidad de las estimaciones y sus errores estándar a la especificación heteroscedástica Para
cada uno de los dos casos, use tanto el Blanco como el Goldfeld-Quandt prueba para ver si la
heterocedasticidad ha sido eliminada.
Ejercicio 6.2
Usa los datos en Greek_SME.wf1 para estimar el efecto del tamaño (representado por el número
de empleados) en la relación beneficio / ventas. Verificar si los residuos en esta ecuación son
heteroscedástico mediante la aplicación de todas las pruebas para la detección de la
heterocedasticidad (tanto formal e informal) descrito en este capítulo. Si hay heterocedasticidad,
obtenga la Las estimaciones corregidas de errores estándar de White y construir intervalos de
confianza para encontrar las diferencias entre el simple OLS y las estimaciones de White.
Ejercicio 6.3
Usa los datos en police.wf1 para estimar la ecuación que relaciona el valor real de el presupuesto
actual (Y) con el valor esperado del presupuesto (X). Verificar la heterocedasticidad en esta ecuación
de regresión con todas las pruebas conocidas descritas en este capítulo.
Ejercicio 6.4
El archivo sleep.xls contiene datos para 706 personas con respecto a los hábitos de sueño y
posibles determinantes del tiempo de sueño. Estimar la siguiente ecuación de regresión: