Download Econometria_Varela.pdf PDF

TitleEconometria_Varela.pdf
File Size15.0 MB
Total Pages383
Table of Contents
                            Econometría. Primera parte
	Portada
	Prólogo
	Cursos sobre econometría
	Cursos sobre análisis de regresión
	Contenido
		Introducción
		Parte I Modelos uniecuacionales de regresión
			1 La naturaleza del análisis de regresión
				1.1 Origen histórico del ténnino "regresión"
				1.2 Interpretación moderna de la regresión
				1.3 Relaciones estadísticas vs. relaciones detenninísticas
				1.4 Regresión vs. causación
				1.5 Regresión vs. correlación
				1.6 Tenninología y notación
				1.7 Naturaleza y fuentes de infonnación (...)
				1.8 Resumen y conclusiones
				Ejercicios
			2 Modelos de regresión con dos variables (...)
				2.1 Ejemplo hipotético
				2.2 Concepto de la función de regresión poblacional (FRP)
				2.3 Significado del término "lineal"
				2.4 Especiftcación estocástica de la FRP
				2.5 La significancia del ténnino de "perturbación (...)
				2.6 Función de regresión muestral {FRM}
				2.7 Resumen y conclusiones
				Ejercicios
			3 El modelo de regresión con dos variables (...)
				3.1 El método de mínimos cuadrados ordinarios
				3.2 El modelo de regresión lineal clásico (...)
				3.3 Errores de precisión o errores estándar (...)
				3.4 Propiedades de los estimadores (...)
				3.5 Coeficiente de detenninación (...)
				3.6 Un ejemplo numérico
				3.7 Un ejemplo ilustrativo: La demanda de café (...)
				3.8 Listado de computador para la función (...)
				3.9 Resumen y conclusiones
				Ejercicios
				Apéndice 3A
			4 El supuesto de nonnalidad: El modelo clásico (...)
				4.1 La distribución probabilística de las perturbaciones m1
				4.2 El supuesto de normalidad
				4.3 Propiedades de los estimadores de MCO (...)
				4.4 El método de máxima ver:osimilitud (MV)
				4.5 Resumen y conclusiones
				Apéndice 4A
				Estimación utilizando el método de máxima (...)
				Ejercicios del Apéndice 4A
			5 Regresión con dos variables: Estimación (...)
				5.1 Estimación por intervalos: Algunos conceptos básicos
				5.2 Distribuciones normal t, x^2 y F:  Breve exposición
				5.3 Intervalos de COnI18nZa para IQs coeficientes (...)
				5.4 Intervalo de confumza para 0^2
				5.5 Prueba de hipótesis: Gomentarios generales
				5.6 Prueba de hipótesis: El enfoque del intervalo (...)
				5.7 Prueba de hipótesis: el enfoque (...)
				5.8 Prueba de hipótesis: Algunos aspectos prácticos
				5.9 Análisis de regresión y análisis de varianza
				5.10 Aplicación del análisis de regresión (...)
				5.11 Informes de los resultados del análisis de regresión
				5.12. Evaluación de los resultados del análisis de regresión
				5.13 Ejempl ilustrativo: La relación entre salarios (...)
				5.14 Resumen y conclusiones
			6 Extensiones del modelo de regresi6n lineal (...)
				6.1 Regresión a través del origen
				6.2 Escalas y unidades de medición
				6.3 Formas funcionales de los modelos de regresión
				6.4 Resumen y conclusiones
			7 Enfoque matricial para el modelo (...)
				7.1 El modelo de regresión lineal con k variables
				7.2 Supuestos del modelo clásico (...)
				7.3 Estimaciones utilizando MCO
				7.4 El coeficiente de detenninación R^2 (..)
				7.5 La matriz de correlación
				7.6 Pruebas de hipótesis con respecto a los coeficientes (...)
				7.7 Pruebas de significancia global de la regresión (...)
				7.8 Prueba de restricciones lineales (...)
				7.9 Predicción utilizando regresión múltiple (...)
				7.10 Resumen del enfoque matricial: Ejemplo ilustrativo
				7.11 Resumen y conclusiones
			Ejercicios
			Apéndice 7A
				7A.1 Derivación de las K ecuaciones normales o simultáneas
				7A.2 Derivación matricial de las ecuaciones normales
				7A.3 Mátriz de variaI!za-cÓvarianza de B
				7 A.4 Propiedad MELI de los estimadores de MCO
		Parte II Violación de los supuestos del modelo clásico
			8 Multicolinealidad
				8.1 Naturaleza de la multicolinealidad
				8.2 Estimación en el caso de multicolinealidad perfecta
				8.3 Estirnaci6nen el caso de "alta" multicolinealidad (...)
				8.4 Multicolinealidad: Consecuencias teóricas (...)
				8.5 Consecuencias prácticas de la multicolinealidad
				8.6 Ejemplo ilustrativo: gastos de consumo (...)
				8.7 Cómo detectar la multicolinealidad
				8.8 Medidas remediales
				8.9 ¿Es la multicolinealidad necesariamente mala (...)
				8.10 Resumen y conclusiones
				Ejercicios
			9 Heterocedasticidad
				9.1 Naturaleza de la heterocedasticidad
				9.2 La estimación con MCO en presencia (...)
				9.3 El método de los mínimos cuadrados (...)
				9.4 Consecuencias de utilizar MCO (...)
				9.5 Cómo detectar la heterocedasticidad
				9.6 Medidas remediales
				9.7 Resumen y conclusiones
				Ejercicios
				Apéndice 9A
			10 Autocorrelación
				10.1 Naturaleza del problema
				10.2 Estimación de MCO en presencia de autocorrelación
				10.3 El MELI en presencia de autocorrelación
				10.4 Consecuencias de utilizar MCO (...)
				10.5 Cómo detectar la autocorrelación
				10.6 Medidas remediales
				10.7 Ejemplo ilustrativo: La relación (...)
				10.8 Resumen y conclusiones
				Ejercicios
			11 Especificación del modelo
				11.1 Atributos de un buen modelo
				11.2 Tipos de errores de especificación
				11.3 Consecuencias de los errores de especificación
				11.4 Pruebas de errores de especificación
				11.5 Pruebas para detectar errores de especificación (...)
				11.6 Errores de medición
				11.7 Resumen y conclusiones
		índice
                        
Document Text Contents
Page 1

,
ECONOMETRIA ·

Page 2

, I

ECONOMETRIA

Primera Parte

~/ EDITORIAL
V FÉUX VARELA
La Habana. 2005

Page 191

ENFOQUE MATRICIAL PARA EL MODELO DE REGRESION LINEAL' 177

El supuesto 4 afirma que la matriz X tiene un rango de columna com-
pleto igual a k, el número de columnas en la matriz. Lo anterior significa que
las columnas de la matriz X son linealmente independientes, lo que implica
que no existe una relación lineal exacta entre las variables X.< En otras pala-
bras, no existe multicolinealidad. En notación escalar, esto es equivalente a
decir que no existe un conjunto de números Al, A2' ... , Ak donde no todos son
cero, tales que [cf (7.1.8)].

(7.2.9)

donde X 11 = 1 para todo i (para dar lugar a la columna de unos en la matriz
X). En notación matricial, la ecuación (7.2.9) se puede representar como

)..'x =0 (7.2.10)

donde A' es un vector fila de 1 X k Y x es un vector columna de k X 1.
Si existe una relación lineal exacta como la de la ecuación (1.2.9), se

dice que las variables son colineales. Por otra parte, si la ecuación (7.2.9)
es ve"dadera solamente si Al = A2 = A,3 = ... = O, entonces se dice que las
variables X son linealmente independientes. En el Capítulo 8 proporcionare-
mos una justificación más profunda del supuesto de no multicolinealidad.

7.3 ESTIMACIONES UTILIZANDO MeO

Para obtener el estimador de MCO para p, escribamos primero la regresión
muestral p.,.q k variables (FRM):

que se puede escribir más concretamente en notación matricial como

y = Xp + e
y en forma de matrices como

y

N xl
= X

N x k
P + e

k x 1 N x 1

(7.3.1)

(7.3.2)

(7.3.3)

donde ~ es un vector columna de k elementos de los estimadores de MCO
para los coeficientes de regresión y donde e es un vector columna de N X 1
para los N residuos.

Como ocurre en los modelos de dos y" tres variables, en el caso de k
variables los estimadores de MCO se obtienen minimizando


L ef = L (Y¡ - PI - P2 X 2i -'" - ptXkl (7.3.4)

Page 192

178 MOOELOS UNIECUACIONALES DE REGRESION

donde r et es la suma de los residuos al cuadrado (SRC). En notación ma-
tricial, esto equivale a minimizar e'e puesto que

e'e = [el e2 ... eNJ [:::] = ei + ei.+··· + e~ = ¿ el
. eN

(7.3.5)

Ahora, partiendo de la ecuación (7.3.2) obtenemos

e = y - Xp (7.3.6)

Por tanto,

e'e = (y j Xp)'(y - XP)
= y'y - 2P'X'y + p'X'XP (7.3.7)

donde se utilizan las propiedades de la trasposición de una matriz, es decir,
(Xp)' = P'X'; y puesto que P'X'y es un escalar (un número real), él es igual a su
traspuesta y'XIl.

.la ecuación (7.3.7) es la representación matricial de (7.3.4). En notación
escalar, el método de MCO consiste en estimar de esta manera 131.132' ... , Pie
donde ¿ el es tan pequeña como sea posible. Esto se hace diferenciando
parcialmente (7.3.4) con respecto a PI' P2' ... , Pie e igualando las expresiones
resultantes a O. Este proceso arroja k ecuaciones simultáneas para k incógnitas,
las ecuaciones normales de la teoría de los mínimos cuadrados. Como se
muestra en el Apéndice 7 A, Sección 7 A.l, esta~ ecuaciones son las siguientes:

NPI + P2 L X 2i + P3 ¿ X 3i + ... + Pie L Xlei = L Y¡
PI ¿ X 2i + P2 ¿ X~i + P3 L XU X3i + ... + Pie ¿ X 2i X lei = ¿ X u Y¡
PI ¿ X 3i + P2 ¿ X 3/X2/ + P3 ¿ X~/ + ... + Pie ¿ X 3i X ki = ¿ X 3i Y¡

~ ................................................................................. (7.3.8)5

PI ¿ Xlci + P2 ¿ X Ie /X 2/ + P3 ¿ X ki X 31 + ... + Pie ¿ Xfi = ¿ X lei Y;
En forma matricial, las ecuaciones en (7.3.8) se pueden expresar como

N IX2i
I X 2i I xii
IX3i I X 3i X li

IX3i IX lci
I X 2i X li .,. I X 2i X li
I xii ... I X 3i X lci

I X ki I X ki X 2i I X ki X 3i •. , I X;i
(X'X)

X
21

X
22

.,. X
2N

X
3

! X
l2

.. , X 3N

X' Y

(7.3.9)

5 Estas ecuaciones pueden recordarse fácilmente. Comience COR la ecuación Y¡ = p\ + P2 X 2i + P3 X 3i +
.. + Pie X lei' Sumando esta ecuación sobre los N valores se obtiene la primera ecuación en (7.3.8);

al multiplicarla por X
2

a ambos lados y sumar sobre las N, obtenemos la segunda ecuación; tnultipli
cándola por X, a ambos lados y sumando sobre las N obtenemos la tercera ecuación; y así sucesiva-
mente. Nótese que la primera ecuación en (7.3.8) equivale Clirectamente a p\ = Y - P2 X 2:" Pie Xk
[cf. (7.4.6)].

Page 382

596 IN DICE

Prue be de aletoriedad, 307, 308
Prueba de correlación de rango de Spearman,

263,264
Prueba de Cbow, 381
Prueba de igualdad,

enfoque de la variable dicotómica, 366
prueba de Chow, 381

Prueba de Glejser, 262, 263
Prueba de Goldfeld.Quandt, 263, 266

Dustración, 268
Prue ba de Granger, 484
Prueba de signlficancia ji cuadrado, 116
Prueba de Part, 261
Prueba de una cola o unilateral, 112
Pruebah de Durbin, 467
Prue ba RESET de Ramsey, 347
Pruebas de significancia, 113

pruebas de hipótesis, y 113,116
reglas de decisión, 112

Prue bis, significancia de la regresión
muestra! de las, 113

Pun to de vista de Balletine so bre la
multicollnealidad, 216, 217

Región de aceptación, 114, 117
Regla práctica "2-t", 118
Regresión,

a través del origen, 141, 142, 143
comparación de dos, 379
efectos de interacción, 388, 389
interpretación de la, 14, 16
ley de la regresión universal, 13
lineal por etapas, 392, 393
regresiones, 366, 366
variables dicotómicas y, 367

Regresión a través del origen, 141, 142, 143
Regresión de series de tiempo, rezagos en la,

292,293
Regresión lineal, 33, 173, 174

en etapas, 392, 393
extensión al modelo en dos variables, 88,

140
enfoque matricial, a, 172, 207
supuesto de normalidad, 91, 101

Regresión lineal por etapas, 392, 393
Regresión múltiple, 21

predicción con, 124
predicción utilizando, 187, 188

Regresión universal, ley de la 13
Relación (es)

determinIsta, 18
estadística, 18

entre-el Fy el R2 , 231
entre el F y el t,232

Residuos eSWmGarizados, 305
Residuos estandarizados utilizando la

distrill1ción t, 106, 116
Rezago polnomial de Almon, 477,478
Rezago promedio, véase Rezagos media, 457
Rezagos,

media, 466
mediana, 466
papel que juegan en la economía, 450
razones para los, 460
véase también Modelos de rezagos

distrill1idos, 446, 462
Salarios, relación con la productividad, 129,

130
SCE, véase Suma de cuadrados explicada,
Sesgo de especificación, regresión múltiple y,

290,291
Significancia estadística, uefinición, 121,

122
Significancia estadística significancia

práctica versus, 121
Significancia práctica, significancia

estadística versus, 121
Software de computador, paquetes

estadísticos de, 326
Software de paquetes estadísticos, 326
Suma de cuadrados explicada (SCE) 122
SUma de cuadrados de los residuos (SCR),

122
Suma total de cuadrados (STC), 122, 123
SUpuestos de normalidad, 92, 93

estimadores de MCO y, 252
Teorema central de límite, 93
Teorema de Weirstrass, 477, 478
Teorem~ de Gauss-Markov, 65, 66
Teoría del portafolio, línea característica de

la, 144, 145
Tiempo, véase Rezagos,
Trampa de una variable dicotómica, 373
Transformaciones recíprocas, 157, 158
Valor esperado, 91, 92,408
Valores esperados, distrill1ción

probabilística y, 91, 92,408
Valores erráticos o atípicos, 331
Valores por omisión en los bonos,

predicción, 416, 417
Variable dependiente, 21
Variable explicativa, 21

Page 383

Variables aleatorias continuas, función de
densidad probabilística, y,

Variables aleatorias, 18, 21
Variables aleatorias discretas, función de

densidad probabilística,
Variables binarias, véase Variables

dicotómicas
Variables categóricas, véase variables

dicotómicas
Variables cualitativas, véase, variables

dicotómicas
Variables dicotómicas, 556,368
Variables dicotómicas dependientes, 405,

439.
análisis estacional y, 389, 390
comparación de dos regresiones y, 384,

385

IN DICE 597

modelo de probabilidad lineal (MPL) y,
420,421

modelo Logit y, 420
modelo Probit y, 430
regresión y, 386, 386

Variables endógenas, 652
Variables estandarizadas, 431
Variables exógenas, 548, 661
Variables indicadoras, véase Variables

dicotómicas
Variables instrumentales, métodos de, 466,

549
Varianza,

matriz de covarianza, 180
Verificación, 6,6

Similer Documents