0% encontró este documento útil (0 votos)
324 vistas34 páginas

Heteroscedasticidad

1) La heterocedasticidad significa que la varianza de los términos de error en un modelo de regresión no es constante, sino que depende de las observaciones. 2) Aunque los estimadores de mínimos cuadrados ordinarios siguen siendo imparciales y consistentes con heterocedasticidad, ésta aumenta las varianzas de los estimadores, haciéndolos ineficientes. 3) La heterocedasticidad también afecta a las pruebas de hipótesis basadas en las estadísticas t y F, ya que ca

Cargado por

David Lagos
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
324 vistas34 páginas

Heteroscedasticidad

1) La heterocedasticidad significa que la varianza de los términos de error en un modelo de regresión no es constante, sino que depende de las observaciones. 2) Aunque los estimadores de mínimos cuadrados ordinarios siguen siendo imparciales y consistentes con heterocedasticidad, ésta aumenta las varianzas de los estimadores, haciéndolos ineficientes. 3) La heterocedasticidad también afecta a las pruebas de hipótesis basadas en las estadísticas t y F, ya que ca

Cargado por

David Lagos
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 34

6 heteroscedasticidad

Introducción: ¿qué es la heterocedasticidad?


Un buen comienzo podría hacerse definiendo primero las palabras homoscedasticidad y
heterocedasticidad. Algunos autores deletrean la homosacedasticidad anterior, pero McCulloch
(1985) parece haber resuelto esta controversia a favor de la homoscedasticidad, basada en la hecho
de que la palabra tiene un origen griego Ambas palabras se pueden dividir en dos partes, teniendo
como primera parte las palabras griegas homo (significa igual o igual) o hetero (que significa
diferente o desigual), y como el segundo parte de la palabra griega skedasmos (que significa
propagación o dispersión). Entonces, la homoscedasticidad significa dispersión igual, y
heterocedasticidad significa propagación desigual. En econometría la medida usamos generalmente
para la propagación es la varianza, y por lo tanto ofertas de heterocedasticidad con variaciones
desiguales. Recordando los supuestos del modelo de regresión lineal clásico presentado en los
Capítulos 4 y 5, la suposición 5 era que las perturbaciones deberían tener una constante (igual)
varianza independiente de i, dada en forma matemática por la siguiente ecuación: *

Por lo tanto, tener una varianza igual significa que las perturbaciones son homoscedásticas. Sin
embargo, es bastante común en el análisis de regresión que se viole esta suposición. (En general, la
heterocedasticidad es más probable que ocurra dentro de un marco transversal, aunque esto no
significa que la heterocedasticidad en los modelos de series temporales sea imposible). En tales
casos, decimos que se viola el supuesto de homoscedasticidad y que el La varianza de los términos
de error depende de qué observación se está discutiendo, es decir:

Tenga en cuenta que la única diferencia entre las ecuaciones (6.1) y (6.2) es el subíndice i unido a
σ2, lo que significa que la varianza puede cambiar para cada observación en la muestra
i = 1, 2, 3,. . . , n.
Para aclarar esto, es útil volver a la simple dos variables modelo de regresión de la forma:

Considere un diagrama de dispersión con una línea de regresión de población de la forma dada en
Figura 6.1 y compárela con la Figura 6.2. Puntos X1, X2 y X3 en la Figura 6.1, aunque haciendo
referencia a diferentes valores de X (X1 <X2 <X3), se concentran estrechamente alrededor
la línea de regresión con un reparto igual por encima y por debajo (es igual a la distribución, o
homoscedástico). Por otro lado, los puntos X1, X2 y X3 en la Figura 6.2 nuevamente se refieren a
diferentes valores de X, pero esta vez, es claro que cuanto mayor es el valor de X, mayor es la
propagación alrededor de la línea. En este caso, la extensión es desigual para cada Xi (que se
muestra por el punteado líneas arriba y abajo de la línea de regresión), y por lo tanto tenemos
heterocedasticidad. Eso Ahora está claro que en la Figura 6.3 tenemos el caso opuesto (para Xi
inferior, la varianza es mayor). Un ejemplo del primer caso de heterocedasticidad (que se muestra
en la Figura 6.2) puede derivarse de mirar los patrones de ingresos y consumo. Las personas con
bajos niveles de ingresos hacen no tienen mucha flexibilidad para gastar su dinero. Una gran
proporción de sus ingresos se gastará en comprar comida, ropa y transporte; entonces, con bajos
niveles de ingresos,
los patrones de consumo no serán muy diferentes y la dispersión será relativamente baja. Sobre el
Por otro lado, las personas ricas tienen muchas más opciones y flexibilidad. Algunos podrían
consumir mucho, algunos podrían ser grandes ahorradores o inversores en el mercado de valores,
lo que implica que el consumo promedio (dado por la línea de regresión) puede ser bastante
diferente del consumo real Entonces, la propagación de altos ingresos definitivamente será más alta
que eso para menores ingresos.

El caso opuesto (como el que se muestra en la Figura 6.3) se puede ilustrar con ejemplos como
mejoras en las técnicas de recopilación de datos (piénsese aquí en los grandes bancos que tener
instalaciones de procesamiento de datos sofisticadas y, por lo tanto, son capaces de calcular el
cliente estimaciones con menos errores que los bancos más pequeños sin tales facilidades), o al
aprendizaje de errores modelos donde la experiencia disminuye las posibilidades de cometer
grandes errores (por ejemplo, donde la variable Y es el rendimiento de puntaje en una prueba y la
variable X la veces que las personas tomaron el examen en el pasado, u horas de preparación para
el prueba; cuanto mayor sea la X, menor será la variabilidad en términos de Y será). Los objetivos
de este capítulo son examinar las consecuencias de la heterocedasticidad para Estimadores OLS,
para presentar pruebas para detectar heterocedasticidad en modelos econométricos, y para
mostrar formas de resolver la heterocedasticidad.

Estimadores OLS
Un enfoque general
Considere el modelo de regresión lineal clásico:

Si el término de error ui en esta ecuación es heteroscástico, las consecuencias para el OLS


estimadores βs (o β) se puede resumir de la siguiente manera:

1. Los estimadores MCO para los β siguen siendo imparciales y consistentes. Esto es porque
ninguno de las variables explicativas se correlaciona con el término de error. Entonces, una
especificada correctamente La ecuación que solo sufre de la presencia de
heterocedasticidad nos dará valores de β que son relativamente buenos.

2. La heterocedasticidad afecta la distribución de los β aumentando las varianzas del


distribuciones y, por lo tanto, hacer que los estimadores del método OLS sean ineficaces
(porque viola la propiedad de varianza mínima). Para entender esto, considere La figura 6.4
muestra la distribución de un estimador β con y sin heterocedasticidad. Es obvio que la
heterocedasticidad no causa sesgos porque Β se centra alrededor de β (entonces E (β) = β),
pero al ampliar la distribución no más eficiente.

3. La heterocedasticidad también afecta las varianzas (y por lo tanto los errores estándar
también) de las βs estimadas. De hecho, la presencia de heterocedasticidad causa el método
OLS subestimar las varianzas (y los errores estándar), lo que lleva a una mayor cantidad de
lo esperado valores de t-statistics y F-statistics. Por lo tanto, la heterocedasticidad tiene un
gran impacto en la prueba de hipótesis: tanto las estadísticas-t como las estadísticas-F ya
no son confiables para la prueba de hipótesis porque nos llevan a rechazar la hipótesis nula
con demasiada frecuencia.

Un enfoque matemático
Para observar el efecto de la heterocedasticidad en los estimadores MCO, primero el simple modelo
de regresión será examinado, entonces el efecto de la heterocedasticidad en la forma de la matriz
de varianza-covarianza de los términos de error del modelo de regresión múltiple

se presentará, y finalmente, usando álgebra matricial, el efecto de la heterocedasticidad en se


mostrará un marco de regresión múltiple.

Efecto en los estimadores MCO del modelo de regresión simple

Para el modelo de regresión lineal simple, con solo una variable explicativa y una regresión
constante en Y, como la analizada en el Capítulo 3 - es fácil de mostrar que la varianza del estimador
de pendiente se verá afectada por la presencia de heterocedasticidad. La ecuación (3.56) para la
varianza del coeficiente MCO β mostró ese:

Esto se aplica solo cuando los términos de error son homoscedásticos, por lo que la varianza de la
los residuos son constantes σ2. La única diferencia entre la ecuación (3.56) y la ecuación se presenta
aquí es que el subíndice i se usa en lugar de t, porque este capítulo trata principalmente con modelos
de datos transversales. En el caso de heterocedasticidad, la varianza cambios con cada observación
individual i, y por lo tanto la varianza de β ahora se dará por:

que es claramente diferente de la ecuación (6.5). El sesgo que ocurre en la presencia de


heterocedasticidad ahora se puede explicar. Si la heterocedasticidad está presente y en la varianza
de β viene dada por la fórmula estándar OLS, Ecuación (6.5), en lugar de la correcta uno, Ecuación
(6.6), entonces estaremos obligados a subestimar la varianza verdadera y error estándar de β. Las
relaciones t serán, por lo tanto, falsamente altas, lo que conduce a la errónea conclusión de que una
variable explicativa X es estadísticamente significativa, mientras que su impacto en Y es de hecho
cero. Los intervalos de confianza para β también serán más estrechos que sus valores correctos, lo
que implica una estimación más precisa que, de hecho, estadísticamente justificable.

Efecto en la matriz de varianza-covarianza de los términos de error

Es útil ver cómo la heterocedasticidad afectará la forma de la varianza-covarianza matriz de los


términos de error del modelo de regresión múltiple lineal clásica.

El Capítulo 4 mostró que la matriz de varianza-covarianza de los errores, debido a supuestos 5 y 6,


se ve así:

donde In es una matriz de identidad n × n. La suposición 5 ya no es válida en presencia de


heterocedasticidad, por lo que la varianza- la matriz de covarianza de los residuos será la siguiente:
Efecto en los estimadores MCO del modelo de regresión múltiple

La matriz de varianza-covarianza de los estimadores MCO β está dado por:

que es totalmente diferente de la expresión clásica σ2 (X’X)-1. Esto es porque la suposición 5 ya no


se cumple, y Ω denota la nueva matriz de varianza-covarianza presentado arriba, cualquiera que sea
la forma que pueda tomar. Por lo tanto, usando el clásico expresión para calcular las varianzas,
errores estándar y t-statistics de la estimación 1. βs llevará a las conclusiones incorrectas. Las
fórmulas en la ecuación (6.9) forman la base para lo que a menudo se llama inferencia "robusta",
que es la derivación de errores estándar y t-estadísticas que son correctas incluso cuando se violan
algunas de las suposiciones de OLS; una forma particular se supone para el Ω matriz y la ecuación
(6.9) se utiliza para calcular un matriz de covarianza corregida.

Detectando heterocedasticidad
En general, hay dos formas de detectar la heterocedasticidad. El primero, conocido como el de
manera informal, es mediante la inspección de diferentes gráficos, mientras que el segundo es
mediante la aplicación pruebas apropiadas.

La forma informal
De manera informal, y en el caso de dos variables que hemos visto antes, heterocedasticidad puede
detectarse fácilmente mediante una simple inspección del diagrama de dispersión. Sin embargo,
esto no se puede hacer en el caso de regresión múltiple. En este caso útil la información sobre la
posible presencia de heteroscedasticidad se puede dar trazando los residuos al cuadrado contra la
variable dependiente y / o la explicación variable.

Gujarati (1978) presenta casos en los que información útil sobre la heterocedasticidad se puede
deducir de este tipo de patrón de gráfico. Los posibles patrones se presentan en Figuras 6.5 a 6.9.
En la figura 6.5 no hay un patrón sistemático entre las dos variables, lo que sugiere que es un modelo
"saludable", o al menos uno que no sufre de heterocedasticidad. En la figura 6.6 hay un patrón claro
que sugiere heterocedasticidad, en la figura 6.7 hay una relación lineal clara entre Yi (o Xi) y u2 yo
mientras Las Figuras 6.8 y 6.9 exhiben una relación cuadrática. Conocer la relación entre las dos
variables pueden ser muy útiles porque permite que los datos se transformen en tal manera de
eliminar la heterocedasticidad.
La prueba Breusch-Pagan LM
Breusch y Pagan (1979) desarrollaron una prueba de Lagrange Multiplier (LM) para la
heterocedasticidad. En el siguiente modelo:

var (ui) = σ2i. La prueba de Breusch-Pagan implica los siguientes pasos:

Paso 1 Ejecute una regresión de la ecuación (6.10) y obtenga los residuos Ûi de esta ecuación de
regresión.

Paso 2 Ejecute la siguiente regresión auxiliar:

donde Zki es un conjunto de variables pensadas para determinar la varianza del error término. (Por
lo general, para Zki las variables explicativas de la regresión original se utilizan ecuación, es decir, las
X).
Paso 3 Formule las hipótesis nula y alternativa. La hipótesis nula de homoscedasticidad es:

mientras que la alternativa es que al menos uno de los como es diferente de cero y que al menos
uno de los Z afecta la varianza de los residuos, que será diferente para diferentes t.

Paso 4 Calcule la estadística LM = nR2, donde n es el número de observaciones utilizadas para


estimar la regresión auxiliar en el paso 2, y R2 es el coeficiente de determinación de esta regresión.
La estadística LM sigue la distribución χ2 con p - 1 grado de libertad.

Paso 5 Rechazar el nulo y concluir que hay evidencia significativa de heterocedasticidad


cuando LM-estadística es más grande que el valor crítico (LM-stat> χ2 p-1, α). Alternativamente,
calcule el valor p y rechace el valor nulo si el valor p es menor que el nivel de significancia α
(generalmente α = 0.05).

En esto, como en todas las otras pruebas LM que examinaremos más adelante, la ecuación auxiliar
hace una suposición explícita sobre la forma de heterocedasticidad que puede ser esperado en los
datos. Hay tres pruebas más de LM, que introducen diferentes formas de regresiones auxiliares,
sugiriendo diferentes formas funcionales sobre la relación de los residuos al cuadrado (Û2i, que es
un proxy para σ2 ya que no se conoce) y las variables explicativas.

La prueba de Breusch-Pagan en EViews


La prueba de Breusch-Pagan se puede realizar en EViews de la siguiente manera. La ecuación de
regresión el modelo primero debe estimarse con OLS utilizando el comando:

ls y c x1 x2 x3 . . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. Luego el El comando generate
(genr) se usa para obtener los residuos:

genr ut = resid
Tenga en cuenta que es importante escribir y ejecutar este comando inmediatamente después de
obtener la ecuación resulta de modo que el vector residual tiene el residuo de la ecuación estimada
previamente. Aquí ut se usa para los términos de error de este modelo. Los residuos cuadrados se
calculan de la siguiente manera:

genr utsq = ut2


y la estimación de la regresión auxiliar se obtiene del comando:

ls utsq c z1 z2 z3. . . zp
Para calcular el estadístico LM, se realiza el cálculo LM = n * R2, donde n es el número de
observaciones y R2 es el coeficiente de determinación de los regresión auxiliar.

Finalmente, se extraen conclusiones de la comparación de LM-critical y LM-statistics.


La prueba Breusch-Pagan LM en Stata

Para realizar la prueba de Breusch-Pagan en Stata, el primer modelo de ecuación de regresión es


estimado con OLS, usando el comando:

regress y x1 x2 x3 x4. . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. Los residuos se obtienen
usando el comando de predicción de la siguiente manera:

predecir ut, residual


donde ut representa los residuos. Los residuos cuadrados se calculan de la siguiente manera:

g utsq = ut 2
y la estimación para la regresión auxiliar obtenida del comando:

regress utsq z1 z2 z3. . . zp


Para calcular la estadística LM, se realiza el cálculo LM = n * R2, donde n es el número de
observaciones y R2 es el coeficiente de determinación de la regresión auxiliar.

Finalmente, se extraen conclusiones de la comparación de LM-critical y LM-statistics.

La prueba Glesjer LM
La prueba de Glesjer (1969) se describe a continuación: tenga en cuenta que los pasos son los
mismos que los de la prueba Breusch-Pagan anterior, con la excepción del Paso 2, que implica una
ecuación de regresión auxiliar diferente.

Paso 1 Ejecute una regresión de la ecuación (6.10) y obtenga los residuos Ûi de esta regresión
ecuación.

Paso 2 Ejecute la siguiente regresión auxiliar:

Paso 3 Formule las hipótesis nula y alternativa. La hipótesis nula de homoscedasticidad es:

mientras que la alternativa es que al menos uno de los as es diferente de cero.

Paso 4 Calcule la estadística LM = nR2, donde n es el número de observaciones utilizadas en para


estimar la regresión auxiliar en el paso 2, y R2 es el coeficiente de determinación de esta regresión.
La estadística LM sigue la distribución χ2 con p - 1 grado de libertad.

Paso 5 Rechazar el nulo y concluir que hay evidencia significativa de heterocedasticidad cuando LM-
estadística es más grande que el valor crítico (LM-stat> χ2 p-1, α). Alternativamente, calcule el valor
p y rechace el valor nulo si el valor p es menor que el nivel de significancia α (generalmente α =
0.05).
La prueba Glesjer en EViews
La prueba de Glesjer se puede realizar en EViews de la siguiente manera. Primero la ecuación de
regresión el modelo se estima con OLS, usando el comando:

ls y c x1 x2 x3. . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. El generar El comando (genr)
se usa para obtener los residuos:

genr ut = resid
Tenga en cuenta que es importante escribir y ejecutar este comando inmediatamente después de
obtener los resultados de la ecuación para que el vector residual tenga el residuo de la ecuación
estimada previamente. ut se usa para los términos de error de este modelo. El valor absoluto de los
residuos se calcula de la siguiente manera:

genr absut = abs (ut)


y la estimación de la regresión auxiliar obtenida del comando:

ls absut c z1 z2 z3. . . zp
Para calcular la estadística LM, se realiza el cálculo LM = n * R2, donde n es el número de
observaciones y R2 es el coeficiente de determinación de la regresión auxiliar.

Finalmente, se extraen conclusiones de la comparación de LM-critical y LM-statistics.

La prueba Glesjer LM en Stata

La prueba de Glesjer se puede realizar en Stata de la siguiente manera. Primero, la ecuación de


regresión el modelo se estima con OLS, usando el comando:

regress y x1 x2 x3 x4. . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. Los residuos se obtienen
usando el comando de predicción:

predecir ut, residual


donde ut representa los residuos. El valor absoluto de los residuos se calcula como sigue:

g absut = abs (ut)


y la estimación para la regresión auxiliar obtenida del comando:

regress absut z1 z2 z3. . . zp


Para calcular el estadístico LM, se realiza el cálculo LM = n * R2, donde n es el número de
observaciones y R2 es el coeficiente de determinación de la regresión auxiliar.

Finalmente, las conclusiones se extraen de la comparación de LM-critical y LMstatistical.


La prueba Harvey-Godfrey LM
Harvey (1976) y Godfrey (1978) desarrollaron la siguiente prueba:

Paso 1 Ejecute una regresión de la ecuación (6.10) y obtenga los residuos ui de esta regresión
ecuación.
Paso 2 Ejecute la siguiente regresión auxiliar:

Paso 3 Formule las hipótesis nula y alternativa. La hipótesis nula de homoscedasticidad es:

mientras que la alternativa es que al menos uno de los es diferente de cero.


Paso 4 Calcule la estadística LM = nR2, donde n es el número de observaciones utilizadas para
estimar la regresión auxiliar en el paso 2, y R2 es el coeficiente de determinación de esta regresión.
La estadística LM sigue la distribución χ2 con p - 1 grado de libertad.
Paso 5 Rechazar el nulo y concluir que hay evidencia significativa de heterocedasticidad cuando LM-
estadística es más grande que el valor crítico (LM-stat> χ2 p-1, α). Alternativamente, calcule el valor
p y rechace el valor nulo si el valor p es menor que el nivel de significancia α (generalmente α =
0.05).

La prueba Harvey-Godfrey en EViews


La prueba de Harvey-Godfrey se puede realizar en EViews de la siguiente manera. Primero la
regresión El modelo de ecuaciones se estima con OLS usando el comando:

ls y c x1 x2 x3. . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. Los residuos se obtienen
usando el comando generate (genr):

genr ut = resid
Tenga en cuenta que es importante escribir y ejecutar este comando inmediatamente después
obtener los resultados de la ecuación para que el vector residual tenga el residuo de la ecuación
estimado previamente. Aquí ut representa los términos de error del modelo. Los residuos cuadrados
se calculan de la siguiente manera:

genr utsq = ut2


y la estimación de la regresión auxiliar obtenida del comando:

ls log (utsq) c z1 z2 z3. . . zp


La estadística LM se calcula como LM = n * R2, donde n es el número de observaciones y R2 es el
coeficiente de determinación de la regresión auxiliar.

Finalmente, se extraen conclusiones de la comparación de LM-critical y LM-statistics.


La prueba Harvey-Godfrey en Stata
Después de que los residuos cuadrados se hayan obtenido como se describió en las pruebas
anteriores, también se debe obtener el registro de los residuos cuadrados. Esto se realiza en Stata
usando el siguiente comando:

g lutsq = log (utsq)


donde lutsq representa el log de la variable residual cuadrada. La regresión auxiliar para La prueba
de Harvey-Godfrey en Stata es:

regress lutsq z1 z2 z3. . . zp


La estadística LM se calcula utilizando el cálculo LM = n * R2, donde n es el número de observaciones
y R2 es el coeficiente de determinación de la regresión auxiliar.

Finalmente, se extraen conclusiones de la comparación de LM-critical y LM-statistics.

La prueba Park LM
Park (1966) desarrolló una prueba alternativa de LM, que implica los siguientes pasos:

Paso 1 Ejecute una regresión de la ecuación (6.10) y obtenga los residuos Ûi de esta regresión
ecuación.
Paso 2 Ejecute la siguiente regresión auxiliar:

Paso 3 Formule las hipótesis nula y alternativa. La hipótesis nula de homoscedasticidad es:

mientras que la alternativa es que al menos uno de los as es diferente de cero, en En ese caso, al
menos uno de los Z afecta la varianza de los residuos, que será diferente para diferentes t.
Paso 4 Calcule la estadística LM = nR2, donde n es el número de observaciones utilizadas en para
estimar la regresión auxiliar en el paso 2, y R2 es el coeficiente de determinación de esta regresión.
La estadística LM sigue la distribución χ2 con p - 1 grado de libertad.
Paso 5 Rechazar el nulo y concluir que hay evidencia significativa de heterocedasticidad cuando LM-
estadística es más grande que el valor crítico (LM-stat> χ2 p-1, α). Alternativamente, calcule el valor
p y rechace el valor nulo si el valor p es menor que el nivel de significancia α (generalmente α =
0.05).

La prueba de Park en EViews


La prueba de Park se puede realizar en EViews de la siguiente manera. Primero, la ecuación de
regresión el modelo se estima con OLS, usando el comando:

ls y c x1 x2 x3. . . xk
donde y es la variable dependiente y x1 a xk las variables explicativas. Los residuos luego se obtiene
el comando generate (genr):
genr ut = resid
Tenga en cuenta que es importante escribir y ejecutar este comando inmediatamente después de
derivar la ecuación resulta de modo que el vector residual tiene el residuo de la ecuación estimada
previamente. Aquí ut representa los términos de error del modelo. Los residuos cuadrados son
luego se calcula de la siguiente manera:

genr utsq = ut2


y la regresión auxiliar estimada usando este comando:

ls log (utsq) c log (z1) log (z2) log (z3). . . log (zp)
La estadística LM se calcula utilizando LM = n * R2, donde n es el número de observaciones y R2 es
el coeficiente de determinación de la regresión auxiliar.

Finalmente, se extraen conclusiones al comparar LM-critical y LM-statistics.

La prueba del parque en Stata


La prueba de Park se puede realizar en Stata de manera similar a las otras pruebas de Stata. descrito,
usando la siguiente regresión auxiliar:

regress lutsq lz1 lz2 lz3. . . lzp


que simplemente requiere que primero hayamos obtenido los registros de z1,. . . , zp variables con
el comando generate (g) en Stata.

Crítica de las pruebas LM


Una crítica obvia de todas las pruebas de LM descritas anteriormente es que requieren
conocimiento de lo que podría estar causando la heterocedasticidad capturada en forma de la
ecuación auxiliar. Se han propuesto modelos alternativos y se presentan abajo.

La prueba Goldfeld-Quandt
Goldfeld y Quandt (1965) propusieron una prueba alternativa basada en la idea de que si las
varianzas de los residuos son las mismas en todas las observaciones (que es homoscedástico),
entonces la varianza para una parte de la muestra debe ser la misma que la varianza para otro. Para
aplicar la prueba es necesario identificar una variable a la cual la varianza de los residuos está
relacionados en su mayoría (esto se puede hacer con parcelas de los residuos contra el variables
explicativas). Los pasos de la prueba Goldfeld-Quandt son los siguientes:

Paso 1 Identifica una variable que está estrechamente relacionada con la varianza de la perturbación
término, y orden (o rango) las observaciones de esta variable en orden descendente (del valor más
alto al más bajo).
Paso 2 Divida la muestra ordenada en dos submuestras de igual tamaño omitiendo c central
1
observaciones, de modo que las dos submuestras contendrán 2 (n - c) observaciones. El primero
contendrá los valores más altos y el segundo los más bajos.
Paso 3 Ejecute una regresión MCO de Y en la variable X utilizada en el Paso 1 para cada submuestra
y obtenga el RSS para cada ecuación.
Paso 4 Calcule la estadística F de la siguiente manera:

donde el RSS con el valor más grande está en el numerador. La estadística F es distribuido con F (1/2
(n-c) -k, 1/2 (n-c) -k) grados de libertad.
Paso 5 Rechazar la hipótesis nula de homoscedasticidad si F-estadística> F-crítica.

Si los términos de error son homoscedóticos, la varianza de los residuos será la lo mismo para cada
muestra, por lo que la relación es la unidad. Si la relación es significativamente mayor, la nulo de
igual varianza será rechazado. El valor de c se elige arbitrariamente y debería usualmente se
encuentra entre 1/6 y 1/3 de las observaciones. Los problemas con la prueba Goldfeld-Quandt son
que no tiene en cuenta casos donde la heterocedasticidad es causada por más de una variable y no
siempre adecuado para datos de series de tiempo. Sin embargo, es un modelo muy popular para la
regresión simple caso (con una sola variable explicativa).

La prueba Goldfeld-Quandt en EViews


Para realizar la prueba de Goldfeld-Quandt en EViews, primero hay que ordenar los datos orden
descendente de acuerdo con la variable que se piensa que está causando la heterocedasticidad X.
Para hacer esto, haga clic en Procs / Sort Series, ingrese el nombre de la variable (en este caso X) en
el cuadro de diálogo de la clave de clasificación y marque 'descendente' para el orden de
clasificación. La muestra es luego se divide en dos submuestras diferentes y OLS de Y en ejecución
X para ambas submuestras para obtener los RSS. Los siguientes comandos se usan para la primera
muestra:
smpl start end
ls y c x
scalar rss1=@ssr

y
smpl start end
ls y c x
scalar rss2=@ssr
con los puntos de inicio y final definidos apropiadamente en cada caso, dependiendo de la
frecuencia del conjunto de datos y el número de observaciones de punto medio que deberían
excluido La estadística F se calcula a continuación, dada por RRS1 / RSS2 o el siguiente comando:

genr F_GQ = RSS1 / RSS2


y comparado con el valor crítico F dado por:

scalar f_crit=@qfdist(.95,n1-k,n2-k)
Alternativamente, se puede obtener el valor p y las conclusiones se pueden obtener mediante:

scalar p_value=1-@fdist(.05,n1-k,n2-k)

La prueba Goldfeld-Quandt en Stata


Para realizar la prueba de Goldfeld-Quandt en Stata, los datos se deben ordenar primero orden
descendente de acuerdo con la variable que se piensa que está causando la heterocedasticidad
(variable X en este ejemplo), usando el comando:

sort x
La muestra se divide en dos submuestras diferentes y se ejecuta OLS de Y en X. para ambas
submuestras con el fin de obtener los RSS. Los siguientes comandos (asumiendo aquí una muestra
de 100 observaciones en total, con la muestra dividida en las primeras 40 (1-40) y los últimos 40
(61-100), dejando 20 observaciones medias (41-60) fuera de la estimación ventana):

regress y x in 1/40
scalar rss1 = e(rmse)ˆ 2
scalar df_rss1 = e(df_r)
para la primera muestra y para la segunda:

regress y x in 61/100
scalar rss2 = e(rmse)ˆ 2
scalar df_rss2 = e(df_r)
La estadística F de Goldfeld-Quandt se calcula a partir de:

scalar FGQ = rss2/rss1


y se compara con el valor F crítico dado por el siguiente comando:

scalar Fcrit = invFtail(df_rss2,df_rss1,.05)


Alternativamente, el valor p:

scalar pvalue = Ftail(df_rss2,df_rss1,FGQ)


Los resultados se ven al ingresar en el editor de comandos lo siguiente: lista escalar FGQ pvalue Fcrit

Prueba blanca
White (1980) desarrolló una prueba más general para heterocedasticidad que elimina los problemas
que aparecieron en las pruebas anteriores. La prueba de White también es una prueba de LM, pero
tiene las ventajas de que (a) no asume ninguna determinación previa de heterocedasticidad,
(b) a diferencia de la prueba de Breusch-Pagan, no depende de la suposición de normalidad, y
(c) propone una elección particular para el Z en la regresión auxiliar.
Los pasos involucrados en la prueba de White suponiendo un modelo con dos variables explicativas
como el que se presenta aquí:
son los siguientes:

Paso 1 Ejecute una regresión de la ecuación (6.20) y obtenga los residuales Ûi de esta regresión
ecuación.
Paso 2 Ejecute la siguiente regresión auxiliar:

Es decir, regresión de los residuales al cuadrado en una constante, todas las variables explicativas,
las variables explicativas al cuadrado y sus respectivos productos cruzados.
Paso 3 Formule las hipótesis nula y alternativa. La hipótesis nula de homoscedasticidad es:

mientras que la alternativa es que al menos uno de los es diferente de cero.


Paso 4 Calcule la estadística LM = nR2, donde n es el número de observaciones utilizadas en para
estimar la regresión auxiliar en el paso 2, y R2 es el coeficiente de determinación de esta regresión.
La estadística LM sigue la distribución χ2 con 6 - 1 grados de libertad.
Paso 5 Rechazar el nulo y concluir que hay evidencia significativa de heterocedasticidad cuando LM-
estadística es más grande que el valor crítico (LM-stat> χ2 6-1, α). Alternativamente, calcule el valor
p y rechace el valor nulo si el valor p es menor que el nivel de significancia α (generalmente α =
0.05).

Prueba de White en EViews


EViews ya incluye una rutina para ejecutar la prueba de White para heterocedasticidad. Después
obteniendo los resultados de OLS, haga clic en View/Residual Diagnostics/Heteroskedasticity test.
Se abre una nueva ventana que incluye varias pruebas, de las cuales la which White debería ser
elegido. Tenga en cuenta que EViews ofrece la opción de incluir o excluir términos cruzados
haciendo clic o no haciendo clic al lado del botón Include White cross terms. En cualquiera case
EViews proporciona los resultados de la ecuación de regresión auxiliar que se estima, así como la
prueba LM y su respectivo valor p.

Prueba de White en Stata


La prueba de White se puede realizar en Stata de la siguiente manera. Primero, el modelo de
ecuación de regresión necesita ser estimado con OLS, asumiendo por simplicidad que solo hay dos
variables explicativas (x2 y x3), usando el comando:

regress y x2 x3
Los residuos se obtienen usando el comando de predicción de la siguiente manera:

predecir ut, residual


donde ut representa residuos. Los residuos cuadrados se calculan de la siguiente manera:

g utsq = ut 2
y la estimación para la regresión auxiliar obtenida del comando:

regress utsq x2 x3 x2ˆ 2 x3ˆ 2 x2*x3


La estadística LM se calcula utilizando LM = n * R2, donde n es el número de observaciones y R2 es
el coeficiente de determinación de la regresión auxiliar.

Finalmente, se extraen conclusiones al comparar LM-critical y LM-statistics.

Ejemplo de computadora: pruebas de heterocedasticidad


El archivo houseprice.wf1 contiene datos de precios de la vivienda de una muestra de 88 casas de
Londres junto con algunas de sus características. Las variables son:

Precio = el precio de las casas medido en libras


Habitaciones = el número de habitaciones en cada casa
Sqfeet = el tamaño de la casa medido en pies cuadrados

Queremos ver si el número de habitaciones y el tamaño de la casa juegan un papel importante en


la determinación del precio de cada casa. Una simple inspección de diagrama de dispersión de las
dos variables explicativas contra el dependiente variable (Figuras 6.10 y 6.11) muestra una clara
evidencia de heterocedasticidad en la relación en cuanto a la variable Habitaciones, pero también
alguna evidencia del mismo problema para la variable proxy de tamaño (Sqfeet) con mayores
variaciones en los precios para casas
La prueba de Breusch-Pagan
Para probar la heterocedasticidad de una manera más formal, la prueba de Breusch-Pagan puede
ser primero aplicado:
Paso 1 Se estima la ecuación de regresión:

cuyos resultados se presentan en la Tabla 6.1.

Paso 2 Los residuos de este modelo de regresión (representado aquí por ut) se obtienen por
escribiendo el siguiente comando en la línea de comando:
genr ut = resid
y los residuos al cuadrado escribiendo el comando:

genr utsq = utsq


La regresión auxiliar luego se estima utilizando como Z las variables explicativas del modelo de
ecuación original:

utsq = a1 + a2rooms + a3sqfeet + v


Los resultados de esta ecuación se presentan en la Tabla 6.2.
La estadística LM se distribuye bajo una distribución de chi-cuadrado con grados de libertad igual al
número de coeficientes de pendiente incluidos en el auxiliar regresión (o k - 1), que en nuestro caso
es 2. El chi-cuadrado crítico puede ser dada por:

genr chi = @ qchisq (.95,2)


y es igual a 5.991465.
Paso 3 Debido a que el valor crítico LM-stat> chi-cuadrado podemos concluir que el valor nulo
puede ser rechazado, y por lo tanto hay evidencia de heterocedasticidad.

La prueba de Glesjer
Para la prueba de Glesjer los pasos son similares pero la variable dependiente en el auxiliar la
regresión es ahora el valor absoluto de los términos de error. Esta variable debe ser construido de
la siguiente manera:

genr absut = abs (ut)


y la ecuación auxiliar estimada como:

absut = a1 + a2rooms + a3sqfeet + v


Los resultados de este modelo se dan en la Tabla 6.3. De nuevo, la estadística LM debe ser calculado:

LM = obs * R2 = 88 * 0.149244 = 13.133472


que es de nuevo más grande que el valor crítico de chi-cuadrado, y por lo tanto, nuevamente puede
ser concluyó que hay suficiente evidencia de heterocedasticidad.

La prueba Harvey-Godfrey
Para la prueba de Harvey-Godfrey, la regresión auxiliar toma la forma:

log (utsq) = a1 + a2rooms + a3sqfeet + v


Los resultados de este modelo de regresión auxiliar se dan en la Tabla 6.4. En este caso, el LM-
statistic es:

LM = obs * R2 = 88 * 0.098290 = 8.64952

que es de nuevo más grande que el valor crítico de chi-cuadrado, y por lo tanto puede ser de nuevo
concluyó que hay suficiente evidencia de heterocedasticidad.
La prueba Park
Finalmente, para la prueba Park, la regresión auxiliar toma la forma:

los resultados de los cuales se dan en la Tabla 6.5. En este caso, la estadística LM es:

LM = obs * R2 = 88 * 0.084176 = 7.407488

que es de nuevo más grande que el valor crítico de chi-cuadrado, y por lo tanto, nuevamente puede
ser concluyó que hay suficiente evidencia de heterocedasticidad.

La prueba Goldfeld-Quandt
La prueba Goldfeld-Quandt requiere primero que las observaciones se ordenen de acuerdo con la
variable pensada principalmente para estar causando la heterocedasticidad. Tomando esto para ser
la variable de habitaciones, esta prueba se realiza en la secuencia que se describe a continuación:

Paso 1 Haga clic en Procs / Sort Current page, ingrese el nombre de la variable (en este caso
habitaciones) en el cuadro de diálogo ordenar clave y haga clic en el cuadro para marcar
descendente para el orden de clasificación
Paso 2 Divida la muestra en dos submuestras diferentes, restando el número c de intermedio
observaciones. Elegir c cerca de 1/6 de las observaciones totales da c = 14. Por lo tanto, cada
submuestra contendrá (88 - 14) / 2 = 37 observaciones. La primera muestra tendrá observaciones
de 1 a 37 y la segunda tendrá observaciones 51 a 88.
Paso 3 Ahora ejecute un OLS de precio en salas para ambas submuestras con el fin de obtener el
RSS, usando los siguientes comandos:
De manera similar para la segunda submuestra, escriba los siguientes comandos:

smpl 51 88
ls price c rooms
scalar rss2=@ssr
Los resultados para ambas submuestras se presentan en los cuadros 6.6 y 6.7. Desde RSS1 es más
grande que RSS2, la estadística F se puede calcular de la siguiente manera:

genr F_GQ = RSS1 / RSS2


y F-critical estará dado por:

genr F_crit = @ qfdist (.95,37,37)

La estadística F 4.1419 es más grande que F-critical 1.7295, y por lo tanto hay evidencia de
heterocedasticidad.
Prueba blanca
Para la prueba de White, el modelo de ecuaciones (presentado en la primera tabla con los resultados
de este ejemplo) debe estimarse y los resultados que se muestran en la Tabla 6.8 se ven luego por
haciendo clic View/Residual Tests/White (no cross products). Tenga en cuenta que el auxiliar la
regresión no incluye los productos cruzados de las variables explicativas en este caso. El LM-stat
16.20386 es más grande que el valor crítico y el p-value también al lado de La prueba de LM
proporcionada por EViews es 0.02757, ambas sugieren evidencia de heterocedasticidad. Si la
versión de la prueba de White con los productos cruzados se elige haciendo clic View/Residual
Tests/ White (cross products), los resultados que se muestran en la Tabla 6.9 son adquirido. En este
caso, así como en todos los casos anteriores, el LM-stat (17.22519) es más grande que el crítico y,
por lo tanto, hay evidencia de heterocedasticidad.

Comandos para el ejemplo de computadora en Stata


Primero abra el archivo houseprice.dat en Stata. Luego realice los comandos de la siguiente manera.
Para la prueba Breusch-Pagan LM:

regress price rooms sqfeet


predict ut, residual
g utsq = utˆ 2
regress utsq rooms sqfeet

Los resultados deben ser idénticos a los de la Tabla 6.2.


Para la prueba Glesjer LM:

Los resultados deben ser idénticos a los del Cuadro 6.3.


g absut = abs(ut)
regress absut rooms sqfeet
Para la prueba de Harvey-Godfrey:

g lutsq = log (utsq)


regresión lutsq rooms sqfeet
Los resultados deberían ser idénticos a los de la Tabla 6.4.

Para la prueba Park LM:

g lrooms = log(rooms)
g lsqfeet = log(sqfeet)
regress lutsq lrooms lsqfeet
Los resultados deberían ser idénticos a los de la Tabla 6.5.

Para la prueba de Goldfeld-Quandt:

sort rooms
regress price rooms in 1/37
scalar rss1 = e(rmse)ˆ 2
scalar df_rss1 = e(df_r)
regress price rooms in 51/88
scalar rss2 = e(rmse)ˆ 2
scalar df_rss2 = e(df_r)
scalar FGQ = rss2/rss1
scalar Fcrit = invFtail(df_rss2,df_rss1,.05)
scalar pvalue = Ftail(df_rss2,df_rss1,FGQ)
scalar list FGQ pvalue Fcrit

Finalmente para la prueba de White (sin productos cruzados):

regress utsq rooms roomsˆ 2 sqfeet sqfeetˆ 2


y para la prueba de White (con productos cruzados):

regress utsq rooms roomsˆ 2 sqfeet sqfeetˆ 2 rooms*sqfeet

Prueba ARCH de Engle


Hasta ahora hemos buscado la presencia de autocorrelación en los términos de error de una
regresión modelo. Engle (1982) introdujo un nuevo concepto que permite la autocorrelación a
ocurren en la variación de los términos de error, en lugar de en los términos de error mismos. Para
capturar esta autocorrelación, Engle desarrolló la Heterocedasticidad Condicional Autoregresiva
(ARCH) modelo, la idea clave detrás de la cual es que la varianza de ut depende del tamaño del
término de error cuadrado rezagado un período (eso es u2 t-1). Más analíticamente, considere el
modelo de regresión:

y supongamos que la varianza del término de error sigue un proceso ARCH (1):

Si no hay autocorrelación en Var (ut), entonces γ1 debe ser cero y, por lo tanto, σ2t= γ0. Entonces
hay una varianza constante (homoscedástica). El modelo se puede ampliar fácilmente para efectos
ARCH (p) de orden superior:

Aquí la hipótesis nula es:

es decir, no hay efectos ARCH presentes. Los pasos involucrados en la prueba ARCH son:
Paso 1 Estime la ecuación (6.24) por OLS y obtenga los residuos, ut.
Paso 2 Regresa los residuos al cuadrado (u2t) contra una constante, u2t-1, u2t-2,. . . , u2t-p (el el valor
de p se determinará por el orden de ARCH (p) que se está probando).
Paso 3 Calcule la estadística LM = (n - p) R2, a partir de la regresión en el paso 2. Si LM> χ2 p para
un nivel de significancia dado, rechazar el nulo de ningún efecto ARCH y concluir que los efectos
ARCH están realmente presentes.
La prueba ARCH-LM en EViews, Microfit y Stata
Después de estimar una ecuación de regresión en EViews, haga clic en Ver / Diagnóstico residual /
Pruebas de heterocedasticidad. Aparece una nueva ventana, que incluye varios posibles pruebas
(tenga en cuenta que esta ventana ofrece la oportunidad de hacer las pruebas examinadas
anteriormente de una manera diferente). Desde las diversas posibilidades, elija la prueba ARCH
resaltando con el mouse, especifique el número de rezagos que queremos usar y haga clic en
Aceptar para obtener los resultados de la prueba Estos se interpretan de la manera habitual. En
Microfit, después de estimar el modelo de regresión, cierre la ventana de resultados haciendo clic
cerca para obtener el menú de Regresión posterior. Desde ese menú, elija la opción 2, vaya al menú
Prueba de hipótesis y haga clic en Aceptar. Desde el menú de prueba de hipótesis elija la opción 2,
pruebas de Heteroscedasticidad Condicional autorregresiva (MCO y NLS), y nuevamente haz clic en
OK. Especifique el número de rezagos en la entrada, una ventana entera y haga clic en Aceptar para
obtener los resultados de la prueba. Finalmente, en Stata, después de estimar un modelo de
regresión, la prueba ARCH-LM puede ser realizado utilizando el menú Estadísticas, y eligiendo
Estadísticas / Modelos lineales y Diagnósticos de regresión / Pruebas de especificación relacionadas,
etc. Seleccione de la lista 'Prueba para Efectos ARCH en los residuos (prueba archlm - series de
tiempo solamente) ', y especifique el número de retrasos para ser probado. Los resultados aparecen
inmediatamente en la ventana Resultados. Un simple y mucho más rápido es mediante el uso del
siguiente comando:

estat archlm, lag (número)


donde (número) debería reemplazarse por el número de retardos a probar para efectos ARCH. Por
lo tanto, para probar cuatro términos residuales cuadrados rezagados, escriba:

estat archlm, lags (4)


Del mismo modo, para otras órdenes de demora, cambie el número entre corchetes.
Ejemplo de computadora de la prueba ARCH-LM
Para aplicar la prueba ARCH-LM, estime la ecuación, haga clic en Ver / Residual Tests / ARCH LM
Prueba y especifica el orden de retraso. Aplicando la prueba ARCH-LM al modelo inicial (para Los
efectos ARCH (1) entran en 1, en orden de retraso):

obtenemos los resultados que se muestran en la Tabla 6.10, donde es obvio desde el estadístico LM
(y el límite de probabilidad) así como a partir de la estadística t del residuo cuadrado rezagado
término que es altamente significativo que esta ecuación tenga efectos ARCH (1).

Resolviendo heterocedasticidad
Si se encuentra heterocedasticidad, hay dos formas de proceder. Primero, el modelo puede ser re-
estimados de una manera que reconozca completamente la presencia del problema, y eso implica
aplicar el método de mínimos cuadrados generalizados (o ponderados). Esto sería entonces producir
un nuevo conjunto de estimaciones de parámetros que sería más eficiente que el OLS unos y un
conjunto correcto de covarianzas y t-estadísticas. Alternativamente, podemos reconocer que si bien
OLS ya no es el mejor, sigue siendo consistente y el verdadero problema es que el las covarianzas y
las estadísticas t son simplemente incorrectas. Entonces podemos corregir las covarianzas y t-
estadísticas basándolos en un conjunto de fórmulas como la Ecuación (6.9). Por supuesto esto no
cambie las estimaciones reales de los parámetros, que permanecerán menos que completamente
eficientes.

Mínimos cuadrados generalizados (o ponderados)


Mínimos cuadrados generalizados
Considere el siguiente modelo:

donde la varianza del término de error, en lugar de ser constante, es heteroscástico, es Var (ui) =
σ2i. Si cada término en la ecuación (6.29) está dividido por la desviación estándar del término de
error, σi, se obtiene uno de estos modelos modificados:

O
Para el modelo modificado:

Por lo tanto, las estimaciones obtenidas por MCO de regresión Y * i a X * 1i, X * 2i, X * 3i,. . . , X * ki
ahora son AZULES. Este procedimiento se llama mínimos cuadrados generalizados (GLS).

Mínimos cuadrados ponderados

El procedimiento GLS también es el mismo que el de los mínimos cuadrados ponderados (WLS),
donde tenemos pesos, ωi, ajustando nuestras variables. La similitud puede identificarse definiendo
ωi = 1 σi y reescribiendo el modelo original como:

que, si se define como ωiYi = Y * i, y (Xkiωi) = X * ki, da la misma ecuación que (6.31):

Supuestos sobre la estructura de σ2

Un gran problema práctico con el GLS y WLS, por lo demás directo, es que σ2i es desconocido y, por
lo tanto, la ecuación (6.31) y / o la ecuación (6.33) no pueden estimarse sin hacer suposiciones
explícitas sobre la estructura de σ2i. Sin embargo, si existe una creencia previa sobre la estructura
de σ2 yo, entonces trabajo de GLS y WLS en la práctica. Considere el caso donde en la ecuación
(6.29):

donde Zi es una variable cuyos valores son conocidos por todo i. Dividir cada término en Ecuación
(6.29) por Zi da:

donde los términos con estrella denotan las variables divididas por Zi. En este caso:
El problema de heterocedasticidad ha sido resuelto del modelo original. Tenga en cuenta, sin
embargo, que esta ecuación no tiene un término constante; la constante en la regresión original (β1
en la ecuación (6.24)) se convierte en el coeficiente de X * i en la ecuación (6.37). Cuidado debería
tomarse en la interpretación de los coeficientes, especialmente cuando Zi es una variable explicativa
en el modelo original - Ecuación (6.29). Si, por ejemplo, Zi = X3i, entonces:

Si se utiliza esta forma de WLS, entonces los coeficientes obtenidos deben interpretarse muy
cuidadosamente. Tenga en cuenta que β3 es ahora el término constante de la ecuación (6.37),
mientras que era un coeficiente de pendiente en la Ecuación (6.29), y β1 ahora es un coeficiente de
pendiente en la Ecuación (6.37), mientras que fue el intercepto en el modelo original, Ecuación
(6.29). El efecto de X3i en La ecuación (6.29) puede por lo tanto investigarse examinando la
intersección en Ecuación (6.37); el otro caso se puede abordar de manera similar.

Métodos de estimación consistentes con heterocedasticidad

White (1980) propuso un método para obtener estimadores consistentes de las varianzas y
covarianzas de los estimadores OLS. Los detalles matemáticos de este método son más allá del
alcance de este libro. Sin embargo, varios paquetes de computadora, incluyendo EViews, ahora
pueden calcular las varianzas y estándares corregidos por heteroscedasticidad de White errores Un
ejemplo del método de estimación de White en EViews se da en la computadora ejemplo a
continuación.

Ejemplo de computadora: resolver la heterocedasticidad


Si, como en las pruebas de heterocedasticidad de ejemplo dadas anteriormente, todas las pruebas
muestran evidencia de la heterocedasticidad, se requieren métodos alternativos de estimación en
lugar de OLS. Estimar la ecuación por MCO arroja los resultados que se muestran en la Tabla 6.11.
Sin embargo, sabemos que debido a la heterocedasticidad, los errores estándar de OLS las
estimaciones de coeficientes son incorrectas. Para obtener las estimaciones de error estándar
corregidas de White, haga clic en Quick / Estimate Equation y luego en el botón de Opciones que se
encuentra en la esquina inferior derecha de la ventana de especificación de ecuaciones. En las
opciones de estimación ventana que se abre, haga clic en la casilla Heterocedasticidad-Coherencia
consistente, luego en la casilla al lado de Blanco y finalmente en Aceptar. Volviendo a la
especificación de ecuaciones ventana, ingrese la ecuación de regresión requerida escribiendo:

price c rooms sqfeet

y luego haz clic en OK. Los resultados obtenidos serán los que se muestran en la Tabla 6.11 donde
ahora el Los errores estándar de White no son los mismos que los del caso simple de OLS, aunque
los coeficientes son, por supuesto, idénticos. Cálculo del intervalo de confianza para el coeficiente
de sqfeet para el caso simple OLS (el caso incorrecto) da (el t-stat para 0.05 y 86 grados de libertad
es 1.662765):

mientras que para el caso corregido Blanco será:

Los errores estándar corregidos de White proporcionan una estimación mejor (más precisa).
Alternativamente, EViews nos permite usar los mínimos cuadrados ponderados o generalizados
método también. Suponiendo que la variable que causa la heterocedasticidad es el sqfeet variable
(o en notación matemática suponiendo que):
entonces la variable de peso será 1 /sqfeet. Para hacer esto, haga clic en Quick / Estimate Equation
y luego en Opciones, esta vez marcando la casilla de Weighted LS / TSLS y entrando la variable de
ponderación 1 / sqfeet en el cuadro escribiendo:

Los resultados de este método se dan en la Tabla 6.13 y son claramente diferentes de estimación
simple de MCO. El lector puede usarlo como ejercicio para calcular y comparar errores estándar e
intervalos de confianza para este caso. Del mismo modo, en Stata, para obtener resultados
corregidos por heterocedasticidad a través de los mínimos cuadrados ponderados o generalizados,
vaya a Estadística / Modelos lineales y Relacionado / Regresión lineal para obtener la regresión -
ventana de diálogo de regresión lineal. Complete las variables dependientes y explicativas en la
pestaña Modelo, mientras que en el Pestaña Pesos marque el botón de Pesos analíticos y
especifique el peso deseado (en este caso es 1 / sqfeet) en la caja. Haga clic en Aceptar para obtener
los resultados corregidos por heterocedasticidad, que son idénticos a los reportados en la Tabla
6.13. Alternativamente, esto se puede hacer más simplemente usando el comando:

regress price rooms sqfeet [aweight = 1/sqfeet]


Preguntas
1. Enuncie brevemente las consecuencias de la heterocedasticidad en OLS simples.
2. Describa la prueba de Goldfeld-Quandt para la detección de heterocedasticidad.
3. Muestra cómo se pueden aplicar los mínimos cuadrados ponderados para resolver
heteroscedasticidad
4. Al aplicar WLS y donde el peso es una variable explicativa del original modelo, discutir y
mostrar matemáticamente el problema de la interpretación de la estimación coeficientes.
5. Considere el siguiente modelo:

donde Var (ui) = σ2X2i. Encuentra las estimaciones de mínimos cuadrados generalizados.
6. Definir heterocedasticidad y proporcionar ejemplos de modelos econométricos donde
heteroscedasticidad es probable que exista.

Ejercicio 6.1
Use los datos en el archivo houseprice.wf1 para estimar un modelo de:

pricei = β1 + β2sqfeeti + ui

Verifique la heterocedasticidad usando las pruebas White y Goldfeld-Quandt. Obtener GLS estima
las siguientes suposiciones: (a) Var (ui) = σ2sqfeeti y (b) Var (ui) = σ2sqfeet2i . Comente sobre la
sensibilidad de las estimaciones y sus errores estándar a la especificación heteroscedástica Para
cada uno de los dos casos, use tanto el Blanco como el Goldfeld-Quandt prueba para ver si la
heterocedasticidad ha sido eliminada.

Ejercicio 6.2
Usa los datos en Greek_SME.wf1 para estimar el efecto del tamaño (representado por el número
de empleados) en la relación beneficio / ventas. Verificar si los residuos en esta ecuación son
heteroscedástico mediante la aplicación de todas las pruebas para la detección de la
heterocedasticidad (tanto formal e informal) descrito en este capítulo. Si hay heterocedasticidad,
obtenga la Las estimaciones corregidas de errores estándar de White y construir intervalos de
confianza para encontrar las diferencias entre el simple OLS y las estimaciones de White.

Ejercicio 6.3
Usa los datos en police.wf1 para estimar la ecuación que relaciona el valor real de el presupuesto
actual (Y) con el valor esperado del presupuesto (X). Verificar la heterocedasticidad en esta ecuación
de regresión con todas las pruebas conocidas descritas en este capítulo.
Ejercicio 6.4
El archivo sleep.xls contiene datos para 706 personas con respecto a los hábitos de sueño y
posibles determinantes del tiempo de sueño. Estimar la siguiente ecuación de regresión:

• Compruebe si hay evidencia de heterocedasticidad.


• ¿La varianza estimada de u es más alta para los hombres que para las mujeres?
• Reestimar el modelo, corrigiendo la heterocedasticidad. Compare los resultados
obtenido con ésos en parte de la estimación simple de OLS.
Ejercicio 6.5
Usa los datos en el archivo houseprice.xls para estimar la siguiente ecuación:

price = b0 + b1lotsize + b2sqrft + b3bdrms + u (6.43)

• Compruebe si hay evidencia de heterocedasticidad.


• Reestimar la ecuación, pero esta vez en lugar del registro de uso del precio (precio) como
dependiente variable. Verifique la heterocedasticidad nuevamente. ¿Hay algún cambio en
su conclusión? ¿en a?
• ¿Qué sugiere este ejemplo sobre la heterocedasticidad y la transformación? utilizado para
la variable dependiente?

También podría gustarte