Econo Me Tria 2014
Econo Me Tria 2014
Econo Me Tria 2014
AUTÓNOMA DE MÉXICO
FACULTAD DE ECONOMÍA
Julio 2013
1
ECONOMETRÍA BÁSICA: CON LAS MODERNAS TÉCNICAS DE LA
EDUCACIÓN DEL CONOCIMIENTO APLICADAS AL ANÁLISIS ECONÓMICO
PAPIME305811
ÍNDICE:
Concepto Pags.
Introducción 14
II.2.1. México 42
II.2.2.1. Norteamericanos 45
II.3. Definición 45
2
II.4. Alcance y limitaciones de la econometría 47
II.4.1. Alcance 47
II.4.1.1. Ejemplos 48
II.4.2. Limitaciones 50
II.5. Perspectivas 52
3
III.11.1. Ejemplo de la formulación de la teoría de la competitividad 65
empresarial de las empresas exportadoras de aguacate de Michoacán
III.11.1.1. De la competitividad 65
a) Tipos de variable 71
c) Ecuaciones 73
d) Datos 74
III.12.1.1.3.1. Presentación 76
4
III.12.1.1.3.5.2. Relación del teorema de Gauss-Markov con las 87
propiedades de los estimadores
III.12.1.1.4.1. Predicción 90
5
IV.7.3. Otros Métodos de Estimación 105
6
Ejemplo 4: Forma funcional especial semilogaritmica: Log-Lin 193
7
VI.1.2. ¿Cómo se detecta? 262
VI.1.2.2. ¿Cómo se detecta cuando hay más de una variable explicativa? 267
VI.3.1.Consecuencias 389
8
VIII LOS MODELOS CON CAMBIO ESTRUCTURAL 436
9
IX.1.1.6. Construcción de índices 485
X.1. ¿Qué es, cómo se define una serie de tiempo univariante? 518
10
SERIES DE TIEMPO
11
XI.3.3.1.1. Proceso estocástico 602
12
XII.1. Los modelos VAR: VECTORES AUTORREGRESIVOS
705
XII.1.1. Sus bondades, alcance y limitaciones de los modelos VAR
707
XII.2. Los modelos VEC: MODELOS DE CORRECCIÓN DE ERROR
708
XII.3. Cointegración (Granger)
711
XII.3.1. Significado
711
XII.3.2. Pruebas que se hacen para verificar si Y t y Xt están cointegradas
711
XII.3.3. Propiedades
711
XII.3.3.1. Características de dos o más series temporales
714
XII.3.3.2. El modelo de corrección del error, MCE o VEC en inglés
714
XII.3.3.3. Metodología sugerida para el uso de modelos VAR y VEC
716
XII.3.4.1. Modelo de Largo Plazo
717
XII.3.4.2. Modelo de Corto Plazo
XII.3.4.3. ¿Cuál es la relación entre los modelos de corto y largo plazo? 717
717
XII.3.3.4. Ejercicios con Eviews
717
XII.4. PRONÓSTICO
776
XII.4.1. Predicción univariante de los valores de una serie temporal Y t
776
XII.4.2. Consideraciones
777
XII.4.3. Ejercicios con Eviews
777
Apéndice A. Instrumental matemático básico
836
Apéndice B. Fundamentos de probabilidad
868
Apéndice C. Inferencia estadística
983
Bibliografía
1055
13
ECONOMETRÍA BÁSICA: CON LAS MODERNAS TÉCNICAS DE LA
EDUCACIÓN DEL CONOCIMIENTO APLICADAS AL ANÁLISIS ECONÓMICO
Introducción
La aplicación de las innovaciones tecnológicas en diferentes campos del
conocimiento en los últimos años, ha revolucionado el qué, cómo, porqué, dónde
y cuándo hacer las cosas en cada uno de ellos. En este sentido destacan las
NTIC: Nuevas tecnologías de la Información y las Comunicaciones, que se han
dado a conocer con el nombre de “sociedad del conocimiento” y que ciertos
estudiosos prefieren llamarla “educación del conocimiento”. Cualesquiera que sea
su denominación, para la elaboración de este libro, dado el titulo que tiene,
considero que esta última acepción pone de manifiesto que su incidencia ya es
muy grande en la formación de recursos humanos, dentro de la cual está
comprendida la enseñanza de la econometría, disciplina que también ha cobrado
mucha importancia porque sustancia cuantitativamente el análisis empírico con el
que se coadyuva en la demostración de la tesis que sea de interés para el
investigador. Las NTIC han venido a fortalecerlo al ayudar por medio de la
información a la obtención y procesamiento de datos y, las comunicaciones,
principalmente por medio del internet, también hacen más rápida la obtención de
datos, pero además a la consulta de tablas estadísticas, de bibliografía, de
metodología, de autores, etc. con relativas sencillez y rapidez.
Derivado de lo anterior es que la docencia de la econometría últimamente ha
mejorado mucho debido a que los conceptos teóricos se explican con mejores
ilustraciones y con mayor disposición de tiempo al ahorrar las NTIC el que antes
se dedicaba a los planteamientos de los mismos. Ello ha favorecido la
instrumentación práctica de los mismos, es decir, con las NTIC se hace con
mayor propiedad tanto econometría pura como aplicada o empírica.
Es por esa razón que en los planes y programas de estudio universitario se hace
énfasis en la incorporación de las NTIC como un medio eficaz para la realización
de clases y prácticas de campo. En ese contexto, este libro responde a las
exigencias planteadas ya que su objetivo fundamental es que los profesores
además de mejorar la transmisión del conocimiento, ilustren su utilidad
aplicándolo a casos reales de la economía y, que los estudiantes, se familiaricen
con relativa facilidad con el tratamiento empírico del marco econométrico en el
análisis de casos existentes. En esa forma los lectores estarán en mejores
condiciones de adquirir por un lado la teoría, es decir, el sustento del análisis del
tema de su interés y, por el otro, de aplicar las técnicas econométricas en la
solución de los problemas que éste tenga.
Es por lo anterior que el enfoque didáctico del libro se caracteriza por la
exposición de la teoría econométrica, a la cual le sigue su aplicación a un caso
concreto de la economía mexicana, en el que se van usando los conceptos
teóricos apropiados para caracterizarlo, detectar su problemática y posible
solución. Para ello se utiliza Eviews por ser un programa amigable que se puede
adquirir fácilmente; con él se van indicando las acciones secuenciadas para la
obtención de los datos que sustenten el análisis e interpretación de los resultados
que se obtenga. En lo que se refiere al análisis e interpretación, se hace énfasis
tanto en el estadístico como en el económico de los datos, porque de ello
dependerá la toma de decisiones que se haga con respecto al fenómeno que se
14
esté estudiando. En este sentido es que cada tema va acompañado de ejercicios
resueltos y de reactivos con el objetivo de asentar el conocimiento de la teoría
econométrica y de consolidar el aprendizaje en el manejo de los procedimientos
de la información y de las comunicaciones.
Al respecto, conviene señalar que la oportunidad que nos brinda la UNAM a
través de la Facultad de Economía de hacer un libro sobre econometría básica
para estudiantes de licenciatura que empiezan a tener conocimiento de esta
disciplina en el quinto semestre, constituye un reto porque su nivel de estudios
todavíano les permite aplicar correctamente el método científico en la formulación
de la teoría económica que se desea estudiar con el instrumental econométrico.
Lo anterior implica que al no tenerla bien estructurada, posiblemente, ello incidirá
en la especificación incompleta o inapropiada del modelo que, en turno, producirá
estimadores de los parámetros que adolezcan de algunas de las propiedades
estadísticas que deben tener para fundamentar con precisión la aplicación que
se haga de ellos en los análisis de estructura, de predicción y de evaluación de
políticas públicas económicas.
Agréguese a lo anterior que al no estar seriadas las materias cuyos temas
constituyen la cimiente de la estructura teórica de la econometría, puede darse el
caso de que los alumnos aún no hayan tomado un curso de matemáticas, lo cual
afortunadamente ocurre con poca frecuencia; sin embargo, en el caso de la
estadística, esta situación si se presenta más seguido.
En consecuencia, los profesores tenemos que acudir a nuestra experiencia
didáctica para suplir en la medida de lo posible los conocimientos básicos que se
requieren para enseñar la econometría en forma medianamente satisfactoria.
Los enfoques, temas y resultados que se obtienen son distintos porque algunos
profesores optan por hacer énfasis en aspectos básicos de las matemáticas y de
la estadística a costa de no ver completo el programa de estudio exigido por la
Facultad de Economía, además de que no usan la cibernética para facilitar los
cálculos de los resultados a que se llegan con la aplicación de los métodos
econométricos. Otros si ven todo el programa pero apresuradamente y con la
sensación de que no se afianzaron debidamente los conocimientos econométricos
entre los estudiantes, quienes en su mayoría actúan con el deseo de simplemente
aprobar la materia, sin que, en consecuencia, les interese usar sus métodos en el
futuro para hacer análisis e interpretación de las variables económicas de su
interés. Por abundar sobre la docencia debemos decir que también hay
profesores, que para dar cumplimiento al programa de estudios, acuden a tácticas
como son el uso combinado de la exposición de la teoría econométrica en el salón
tradicional de clases y, en su momento, del aula de cómputo para ilustrar la
aplicación. En el otro extremo, existen profesores que todo el curso lo dan
utilizando los hardwares y software disponibles en la Facultad de Economía; esta
modalidad deja la sensación de que se enseñaron los métodos de la informática y
de la econometría (medios) pero que el análisis e interpretación de los resultados
(fines) es escueto y que quizás habría sido conveniente la realización de
ejercicios manualmente sobre ciertos temas básicos.
Esta heterogeneidad posiblemente explique en cierta forma los altos índices de
deserción y de reprobación que se observan semestralmente, y que sea unas de
las razones por las cuales las autoridades académicas me hayan autorizado la
15
elaboración de un libro que pedagógica y didácticamente pueda servir para la
enseñanza apropiada de la econometría básica con el uso de las Nuevas
Tecnologías de la Información y de las Comunicaciones, NTIC, además de que
puede servir de consulta en la investigación y el ejercicio profesional de la
economía.
Con esos antecedentes y deseando realizar un libro cuyos contenidos puedan
coadyuvar a la mejor enseñanza y uso de la econometría, es que invité a
colaborar a ciertos profesores que tienen experiencia docente en la materia al
igual que a algunos alumnos que ya aprobaron esta materia, con el objetivo de
que con nuestra visión de conjunto podamos formular los contenidos del citado
libro que requiere el lector para superar los obstáculos que plantean las
limitaciones, carencias y heterogeneidades antes mencionadas.
En este contexto es que hemos creído necesario empezar por establecer el marco
teórico que tiene la econometría, ya que al ser éste un grupo de conceptos
importantes que se utilizan para formular y argumentar ideas en pro de ciertos
objetivos y metas, en este caso son los fundamentos de la teoría, las
características y, alcance de la metodología econométrica, de manera congruente
con el nivel de estudios que tiene un estudiante de economía, primordialmente y
en general de las ciencias sociales. Con él tendremos una guía para la exposición
formal, lógica y secuenciada del temario que exige la Facultad de Economía en el
curso introductorio a la econometría. Se espera que con este procedimiento los
estudiantes también conozcan las propiedades que tiene esta disciplina como
método científico, al igual que la ilustración de su aplicación en el análisis e
interpretación de los resultados a que se llega con su metodología, la cual se
ilustra aplicándola en las variables económicas mexicanas de interés para el
investigador o el profesionista que las usa para hacer economía aplicada.
Con este enfoque es que se empieza a desarrollar el guión temático del libro,
usando para ello el instrumental que brinda el programa de computación EViews 5
y las NTIC, mostrando con ellos de manera secuenciada cómo se construye la
teoría económica que se desea estudiar; enseguida, cómo se expresa
matemáticamente y posteriormente, cómo se verifica estadísticamente.
Este proceso docente y en cierta forma de investigación nos lleva a la
identificación del método científico apropiado, así como a su uso en la creación
de conocimientos, en este caso sobre una teoría económica. Una vez formulada,
se enseña a los alumnos a localizar las bases de los datos adecuados que
permitan expresarla cuantitativamente. En virtud de que al contar con la
información necesaria ya se está en condiciones de empezar a hacer
econometría en el siguiente paso, dado que antes en el marco teórico ya se
expusieron y definieron los conceptos que integran la econometría ( entre los que
destacan la definición de un modelo, de los diferentes tipos que existen para
modelar la teoría económica, de sus características básicas, así como de los
métodos que existen para su instrumentación correspondiente, etc.), se inicia la
explicación e ilustración de los algoritmos de cada método con el que se arriba a
resultados específicos. En este contexto se pone especial énfasis en el apoyo que
brindan las NTIC así como en el análisis e interpretación de los resultados que se
obtienen con ellas, dado que estas fases son muy importantes porque permiten
16
cerciorarse de que se alcanzaron los objetivos cuando se hizo la planeación de la
investigación en torno a cierta teoría de interés para el investigador.
Así, el guión temático comprometido comprende:
I.- Las NTIC, su desarrollo e influencia en la enseñanza-aprendizaje, en particular
de la econometría;
I.1-Descripción de las características del Programa de Cómputo Eviews 5, de su
simbología e instrucciones necesarias para usarlo en la computadora;
II.- Origen, evolución, definición y objetivos, alcance, limitaciones y perspectivas
de la econometría.
III.- Aspectos fundamentales de la econometría.
IV.- El Modelo de regresión y correlación simple.MLS.
V.- El Modelo de regresión y correlación múltiple.MLM.
VI.- Las violaciones a los supuestos del método de MCO;
VI. 1.- Heteroscedasticidad.
VI.2.- Autocorrelación.
VI.3.- Multicolinealidad.
VII. Evaluación General de los Conocimientos Básicos de la Econometría.
VIII. Modelos con Cambio Estructural.
IX. Números Índice.
X. Series de Tiempo.
XI. Estacionariedad y Raíces Unitarias.
XII. Modelos Dinámicos: de Vectores Autorregresivos: VAR y VEC: Vectores de
Errores Corregidos, Cointegracion y Pronóstico.
Conviene enfatizar que este libro tiene un objetivo principal: mostrar cómo mejora
la enseñanza de la econometría básica usando las NTIC en las ciencias sociales,
en general, y concretamente, en la licenciatura de economía, de finanzas y de los
negocios, independientemente de que también se puede usar como libro de
consulta en el mundo de las ciencias sociales, entre los investigadores, los
estudiantes de posgrado y las personas (principalmente economistas) que ejercen
esta profesión.
Por consiguiente para la consecución del objetivo toral, es decir, para la
transmisión gradual y apropiada del conocimiento econométrico, aparte de usar
las NTIC, se utiliza la estrategia didáctica de exponer en la primera parte lo que
he dado en llamar la teoría (Capítulos I,II y III) y en la segunda (Capítulos IV, V, y
VI) lo que denomino la práctica, es decir, su ilustración con los métodos
econométricos fundamentales en forma reiterada periódicamente en lugares
clave y sin abrumaral lector; esta exposición es acompañada de reactivos
consistentes en ejercicios teóricos y numéricos debidamente secuenciados en
cada uno de los capítulos antes descritos, todo ello con el fin de afianzar el
conocimiento de la siguiente manera:
a) Al final de la exposición teórica debidamente sustentada con ejemplos
ilustrativos numéricos y gráficos de cada uno de los capítulos, estos se
complementan con la incorporación de cuestionarios con preguntas sobre los
aspectos relevantes de cada punto del tema visto, las cuales se contestan
primero, durante la sesión programadade trabajo en el seno del grupo y luego, en
las sesiones de repaso relacionadas con el avance que tenga el tema en el curso
17
presencial, así como con “tareas o investigaciones” que los alumnos debe de
realizar en la biblioteca y/o en su casa ;
b) Se complementa con ejercicios adicionales resueltos y sin resolver con el fin de
lograr aguzarla mente y la familiaridad de los alumnos con los temas, con el
manejo de los métodos y con el análisis e interpretación de los resultados que se
obtienen con ellos;
c) En ciertos reactivos se pide a los estudiantes/lectores que realicen
investigaciones sobre determinadas peculiaridades de la metodología aplicada a
casos concretos, cuyos resultados generalmente se comentan y comparan con
mis puntos de vista vertidos en el marco teórico establecido en los capítulos I, II y
III;
d) Derivada de la “capacitación” anterior, periódicamente, una vez terminadas las
actividades de preparación antes descritas, el libro contiene exámenes de
autoevaluación con el fin de que el lector confirme por si mismo que adquirió los
conocimientos programados y que puede seguir adelante;
e) Al terminar los capítulos IV, V, y VI, con objeto de recapitular la teoría y su
ilustración aplicada, se les pide a los alumnos/lectores que hagan una
investigación documental sobre una teoría económica que pueda ser de interés
suyo, por ejemplo, la teoría del empleo en México con el objetivo primordial de
que vayan sopesando su presunta incorporación al mercado laboral en el futuro
inmediato. Esta “práctica adicional” les ayuda para mejorar su compresión de la
importancia de la econometría, motivo por el cual generalmente la hacen con
entusiasmo;
Importancia del análisis e interpretación de los resultados. Este es de suma
importancia porque es la razón primigenia del proceso de enseñanza-
aprendizaje, dado que nuestro interés es formar analistas y no simplemente
calculistas. Así, una vez aplicada la metodología econométrica en forma
sistematizada a los datos de la teoría económica que se desea verificar, ello se
hace desde dos puntos de vista:
1.- Estadístico, mediante el cual se explica la calidad, bondad de ajuste o
aproximación que tienen los valores de los estimadores a los valores reales de los
parámetros, así como la fundamentación con rigor técnico de la relación que se
observa que existe entre las variables establecidas en el marco de la teoría
económica a verificar con estos métodos.
2.- El económico, en el que se constata si se verifica la teoría económica; y por
consiguiente, que el analista está en condiciones de hacer análisis estructural, de
predicción y de verificación de políticas económicas sustentadas en la teoría
económica en estudio.
Enseñanza congruente con el nivel educativo de los alumnos.
Con este enfoque se modifica el contenido de los textos de econometría básica
que suelen darle poca importancia a la metodología que debe usarse para la
formulación de las teorías económicas; dado que los autores prefieren hacer
énfasis en la metodología que se usa para probarlas y usar los datos en análisis
de estructura, de predicción y de evaluación de políticas económicas, lo cual es
18
muy cuestionable en virtud de que si no se privilegia la formulación adecuada de
la teoría que se desea verificar, posteriormente surgen lo que se conoce como
“problemas de especificación del modelo econométrico”; ésta situación conlleva a
revisar su formulación, que podría reducirse o eliminarse si antes se le hubiera
dado la importancia que tiene la formulación adecuada de la teoría económica.
En este contexto con el uso de las NTIC también hay un viraje de ciento
ochenta grados en la relación entre maestro y alumnos, puesto que la
enseñanza se vuelve más interesante al fluir con facilidad la metodología y su
aplicación para obtener datos, para hacer su análisis e interpretación
correspondiente, ya que con las NTIC se evitan los pasos inherentes a las
demostraciones ( que están en los cuatro apéndices: matemático, de la
probabilidad, de la inferencia estadística e introductorio a las series de tiempo)
del origen de los métodos ( se trabaja con axiomas principalmente y lo
estrictamente necesario con teoremas) que por supuesto son importantes cuando
se hace econometría pura o teórica, pero que no tienen esa relevancia en
situaciones en que los alumnos apenas empiezan a familiarizarse con la materia,
ya que como antes se indicó, aun no son sólidos sus conocimientos sobre la
formulación de las teorías económicas como tampoco de la probabilidad y
estadística y mucho menos de la teoría sobre las series de tiempo. Así, dado que
en el quinto semestre de la licenciatura en economía está programado este curso
que en mi opinión debería darse en semestres más avanzados por las razones
antes descritas, considero que la enseñanza debe ser congruente con el nivel
educativo que tienen los estudiantes.
Enseñanza caracterizada más por el enfoque axiomático que demostrativo de
leyes y teoremas.
Así, con base en la definición de que un axioma es la afirmación de que una idea
(conocimiento) es evidente por sí misma y por ende, que no necesita ningún tipo
de comprobación para enunciarla, yo transmito con ese enfoque la teoría y los
métodos econométricos exigidos por el Programa de Estudios de de Economía.
19
profundizar en ellos durante las asesorías personalizadas que doy en horarios
específicos en la Facultad.
20
comunicaciones en el aula) para bajar tablas estadísticas, para obtener bases de
datos, para aclarar ciertos conceptos o conocer algunos que surgen durante el
proceso de enseñanza- aprendizaje en la clase presencial, el maestro deja de
ser el único transmisor del conocimiento.
Al respecto, es muy importante señalar que gracias a las NTIC y a la
computadora, al disponerse de más tiempo para pensar y reflexionar sobre un
tema, y puesto que ahora existe un cúmulo enorme de información disponible que
permite profundizar sobre el mismo y que podría llevarse más tiempo del
programado, se debe tener mucho cuidado en que su exposición sea congruente
con el nivel de estudios que tengan los alumnos cuando van a tomar un curso de
econometría. Así, con base en lo antes dicho en párrafos arriba, es aconsejable
que cuando los profesores programan sus materias antes vía encuestas se
cercioren de que los alumnos ya cursaron y aprobaron los de estadística y
matemáticas mínimamente; si cursaron metodología de la investigación, mucho
mejor. En este contexto lo más importante, al saber que las teorías económicas
constituyen la razón de ser de la econometría, se sugiere que para la formulación
de las mismas se comience estableciendo relaciones sencillas de variables
económicas para que su complejidad no sea obstáculo para la enseñanza inicial
de esta disciplina.
Uso de reactivos y ejercicios con NTIC.
Conviene mencionar que todos estos materiales han sido sometidos a una prueba
personal conmigo mismo para cerciorarme de que los entiendo, que sé su alcance
y puedo aplicarlos con propiedad en el ámbito económico, y que también fueron
consensados con los alumnos en los grupos tanto de estadística como de
econometría. Precisamente esas “terapias” dieron la pauta para determinar el tipo
de reactivos académicos que conviene formular para asentar el conocimiento
econométrico entre los alumnos, ya que su aplicación le permite al profesor
afirmar el conocimiento y determinar el grado de entendimiento que ha alcanzado
la materia entre los estudiantes que asisten a los cursos presenciales, donde cada
uno de ellos en promedio es de 56 horas al semestre.
En esta perspectiva conviene decir que la nueva didáctica que aquí presentamos
usando NTIC, también se fundamenta en el análisis y evaluación de los libros
escritos por connotados autores en este campo dentro de los que destacan en el
campo de la estadística los profesores norteamericanos Mason y Lind, así como
en la econometría españoles como Carrascal et al, José Hernández y César
Pérez, por señalar algunos de los más recientes.
Los reactivos que aquí se presentan se describen a continuación, mismos que
son aplicados dentro de un ciclo de enseñanza-aprendizaje, que se inicia con el
análisis de los temas que integran el programa de estudios exigido por la Facultad
de Economía; enseguida los alumnos son familiarizados con los softwares que se
usan en las aulas de cómputo donde además muestro cómo acceder al internet
como medio de comunicación para hallar información complementaria al tema que
se está exponiendo, para acceder a bases de datos de Banxico, INEGI, SE, al
igual que a tablas estadísticas, a bibliografías especificas, etc. a la que le siguen
los ejercicios manuales y electrónicos en que se aplican los métodos al análisis de
variables representativas de la economía mexicana, como son el PIB, el empleo,
la inversión, etc. Con ese referente es que luego planteo ejercicios en los que
21
hago énfasis sobre ciertos aspectos que juzgo de importancia primordial, como
son el análisis e interpretación de los resultados; en la siguiente etapa les solicito
que hagan investigaciones sobre ciertos temas con objeto de que conozcan otros
puntos de vista para que los comparen con los míos y así arriben a una visión
clara de los mismos. El ciclo culmina con la presentación que hacen los alumnos
de exámenes parciales cuyos resultados me permiten determinar si es necesario
volver sobre ciertos temas con determinados tipo de datos, de métodos y de cierto
número de ejercicios, así como considerar qué otros temas han sido asimilados
satisfactoriamente y que, por consiguiente puedo continuar con el resto del
programa de estudios.
Nuevo procedimiento para transmitir la teoría econométrica.
La situación que priva entre gran parte del alumnado de economía, que manifiesta
cierta animadversión o poca preferencia por el uso de la econometría como
método de análisis económico, ratifica la conveniencia de reflexionar sobre si o no
se debe de modificar el enfoque tradicional de transmitir el conocimiento. Hacerlo
no sólo los beneficiará a ellos en particular sino posiblemente a muchos otros del
área de las ciencias sociales, ya que posiblemente los motivará a estudiar con
entusiasmo al ver que avanzan con este enfoque que hace énfasis en hacer
economía aplicada, es decir, econometría empírica , al observar que arriban a
resultados rápidamente con las NTIC y que les queda tiempo para hacer análisis
e interpretación con propiedad de los mismos, de manera que quizás además de
aumentar la masa crítica, se reducirá la deserción y aumentará su asistencia
presencial a los cursos que se impartan sobre esta disciplina.
En esta perspectiva es que ahora se ha juzgado conveniente empezar el libro
destacando la importancia de las NTIC y las características de Eviews 5 antes de
introducir el marco teórico, mismo que en su momento se expone (Capítulo III)
con el fin de que desde el principio el lector disponga de los conocimientos
necesarios para que posteriormente, cuando trabaje algún tema en especial, con
una secuencia previamente establecida para no saturarlo de conocimientos sin
sentido o desvinculados, se ubique porque ya tiene una referencia previa de su
importancia y del uso en economía. En este contexto es que la transmisión del
conocimiento será dinámica e interesante ya que para logarlo además de aplicar
las técnicas de NTIC, de regular la exposición de los contenidos sustantivos de
los temas, de la aplicación de reactivos para constatar la asimilación de la teoría,
despertará en ellos la inquietud de inquirir sobre si realmente se requiere de una
teoría para hacer análisis e interpretación económica- estadística. La respuesta a
estas dudas las dará el marco teórico o conceptual que se propone, con el
resultado adicional de que habrá aumentado su cultura econométrica y de que
será un profesionista o investigador que sepa estudiar un fenómeno económico
con rigor científico.
Sugerencias para los profesores de econometría de hoy.
Dado que existe una gran resistencia entre los alumnos a la práctica manual
(sobre todo de las demostraciones matemáticas) de métodos numéricos utilizados
para obtener resultados que les permitan analizarlos e interpretarlos en las
investigaciones económicas que le sugerimos que realicen, sugiero que ahora se
aproveche esta oportunidad para reflexionar sobre si ha sido correcto el enfoque
con que se ha actuado en la transmisión de los conocimientos econométricos a
22
los alumnos de la licenciatura. En este contexto surge la duda sobre si ello sea
una de las causas por la que la reprueban o desertan muchos alumnos y, lo más
grave, por la que la desechan como método de análisis económico.
Así, conviene que los profesores determinemos si debemos usar las NTIC como
eje rector permanente de la enseñanza aprendizaje de la econometría, lo cual
significaría exponer inclusive la teoría con este instrumental o, si sólo debemos
usarlo para bajar de internet (comunicación) en el aula de cómputo la información
necesaria para hacer en ella los cálculos electrónicamente con algún programa de
los que están instalados en las Facultades de las Universidades.
Amplitud temática del libro
Comprende los temas que exige el programa de estudios de la econometría en la
licenciatura, es decir, la introducción al uso de los métodos de la econometría
clásica y moderna.
Originalidad de esta obra
Difícil es tenerla sobre todo cuando muchos y reconocidos autores han precedido
este libro. Sin embargo, creo que la originalidad se da en que está escrita en
congruencia con el nivel de estudios que tienen los estudiantes, en el uso de las
NTIC aaplicadas de manera integral a la economía, en su aplicación al análisis
de variables mexicanas, en la presentación y desarrollo de los temas con un
énfasis eminentemente didáctico tanto para asimilar la teoría como para hacer
econometría empírica, así como por el uso de reactivos para afianzar el
conocimiento entre los estudiantes, los académicos, los profesionistas y el
público en general, que hacen economía aplicada.
Finalmente, deseo señalar que si bien, he contado con la valiosa ayuda de los
profesores José Alberto Reyes de la Rosa, Gabriela Longoria Hernández, Joel
Rojas Escudero, Fátima Liliana Nava Sesma y Roxana Sierra González, así
como de las becarias Celtzin Beatriz Bonilla Sánchez, Lidia Bonilla Zarrazaga,
María Luisa Jiménez López, Anaid Karina Limón Rivera, y Karina Valle Cruz, en la
elaboración de este libro, es justo decir que yo soy el único responsable de todas
los errores, incongruencias o defectos que se observen en los contenidos de sus
temas.
I.- LAS NUEVAS TECNOLOGÍAS DE LA INFORMACIÓN Y DE LAS
COMUNICACIONES, NTIC; SU DESARROLLO E INFLUENCIA EN LA
ENSEÑANZA –APRENDIZAJE EN LA ECONOMETRÍA.
La innovación tecnológica en materia de información y de comunicación cuya
aplicación se masificó durante los últimos treinta años empleándola en la creación
y transportación de la información por medio de excelentes canales de
comunicación, ha permitido la utilización de más y mejores datos para la
expansión del conocimiento humano en prácticamente todas las ciencias, los
cuales son manejados en las computadoras por medio de programas de computo
amigables prácticamente desde la temprana edad del ser humano, situación que
provoca cambios sustantivos en él por la rápida absorción del conocimiento que
hace sobre las características del mundo en que se desarrolla, que al hacerlo,
está en condiciones de educarse prematuramente y mejor, de especializarse y en
23
general para aumentar su cultura. La oportunidad que le brinda la innovación
tecnológica así descrita está sustentada en lo que se ha dado en llamar la
sociedad o educación del conocimiento, misma que he usado intensamente en
mis prácticas docentes desde hace diez años (La Facultad de Economía me ha
publicado libros de estadística y econometría con este enfoque); con ella he
revolucionado mis métodos y programas pedagógicos y de investigación tanto en
los niveles educativos de licenciatura como de doctorado.
I.1.-La triada que fundamenta la enseñanza usando NTIC.
Considero que si la educación del conocimiento hace posible que el ser humano
(headware) aplique la tecnología (hardware) para captar mediante el internet y
manipular la información con programas de cómputo (software) para transformarla
en producto, es indudable que brinda una opción para la mejor transmisión del
conocimiento a los estudiantes, quienes además de así adquirir una sólida
formación teórica, desarrollan con celeridad su capacidad creativa para ser
profesionistas e investigadores competitivos al contar, en el caso de los
economistas, con instrumentos que los auxilian para hacer análisis e
interpretaciones apropiadas de los fenómenos económicos que suelen estudiar.
Para que ellos puedan generar ese producto, que no es más que la aplicación del
buen acervo Adquirido y de su hábil instrumentación técnica en la solución de los
problemas económicos que aquejan a la sociedad, requieren de cambios
radicales no sólo en los contenidos de los programas de estudio, también en los
sistemas de enseñanza aprendizaje.
I.2.-Nueva pedagogía.
Si por pedagogía se entiende el conjunto de acciones mediante las cuales el
profesor educa a las personas, principalmente en los aspectos psicológico, físico
e intelectual, que, en el caso de los estudiantes de la UNAM, la educación se
ejerce como una actividad social que se debe caracterizar por la transmisión
efectiva de los conocimientos de manera masiva. Podemos decir que en ella se
conjugan y hacen congruentes las necesidades personales con las del grupo en
que participan.
En este contexto destaca la pedagogía activa en que el binomio maestro- alumno
tienen un rol fundamental; el primero como conductor, motivador y usuario de las
NTIC para mejorar la enseñanza y, el segundo, como receptor crítico responsable
de la calidad de su aprendizaje. En esta perspectiva conviene agregar que este
libro por medio de sus contenidos coadyuva no sólo con la pedagogía activa sino
también con la programada que es el fundamento para ir transmitiendo
gradualmente el acervo de conocimientos sin producir saturación o cansancio
entre los alumnos.
Ello conlleva al compromiso de elaborar un nuevo texto de econometría, que sea
diferentes a los vigentes, cuya obsolescencia se expresa no sólo por la ausencia
de un enfoque pedagógico acorde con el perfil escolar de los alumnos de la
Facultad de Economía y de las ciencias sociales en general; además por la
ausencia de bases de datos ( sobre todo de la economía mexicana) y de
softwares que faciliten la transmisión de sus contenidos hacia una generación
nacida en la era de la electrónica y por consiguiente ávida de libros de texto
24
caracterizados por el uso de la computadora, del internet y de programas de
cómputo. Lo anterior, conduce al diseño de una nueva pedagogía, cuya
connotación es la de enseñar a aprender dentro de la sociedad del conocimiento,
pero no sólo a los alumnos, también al profesor quien ahora debe tener la
humildad de aceptar que debe aprender todos los días a conocer el potencial de
estos medios para enseñar adecuadamente a sus discípulos.
Así, quiérase o no ha surgido una nueva pedagogía, la cual tiene como referente
básico la informática y borda en torno al uso de las NTIC, apuntaladas por la
tecnología del internet que es el vehículo que ha hecho posible el surgimiento,
expansión y rápida aplicación del conocimiento económico. De ahí que sea
conveniente abrevar en ésta para determinar los nuevos espacios y
circunstancias en que se debe educar sobre la ciencia económica en la UNAM.
Esta situación ahora induce a pensar cómo se debe enseñar a aprender y con
qué libros se debe hacer para evitar el rezago de la UNAM con respecto a otras
instituciones que enseñan economía en el país y en el extranjero. En efecto si en
el aula el profesor era el principal emisor de conocimientos, ahora con las
carreteras de la información se está en posibilidad de modificar o implementar
nuevos programas educativos, cuyo sustento para el profesor deben ser libros
que además de contener los conocimientos básicos sobre econometría, debe
tener un claro sustento en la cibernética. Vistos así los nuevos libros, su alcance
es muy grande porque deben hacer posible el uso en el aula de clase del internet,
que tiene la capacidad de transportar palabras, archivos, imágenes, gráficas y así
establecer una relación educativa entre tutores y alumnos sin más limitación que
la capacidad de los servidores utilizados.
En este contexto es que diremos que los nuevos libros de econometría deben
permitir a profesores y alumnos acceder conjuntamente a las bibliotecas virtuales,
a diccionarios especializados, a bases de datos y a una amplia gama de
softwares especializados que de manera enunciativa pero no limitativa, se pueden
mencionar al Office, Spss, Eviews, Stata, etc.
25
métodos, los cuales son los siguientes: el del diálogo socrático combinado con el
sistémico, el holístico y de Montessori. Con el del diálogo, con los alumnos
inquiero, busco, hallo, reflexiono, evalúo y digiero el conocimiento. Esta actividad
la complemento usando el método sistémico para descubrir y reconocer en los
alumnos, sus aptitutes, afinidades y para brindarles mi orientación para poder
cursar exitosamente la materia de econometría. Con el método holístico doy
sustento técnico a la exposición de los conceptos econometricos ya que procedo
explicándolos en forma rigurosa y sistemática, desde su fundamentación en los
axiomas hasta los teoremas y leyes en que se sustentan. Finalmente, con el
método Montessori procuro que aprendan con actividades lúdicas para
desestresarlos después de intensas sesiones de trabajo de concentración y
abstracción absorbiendo la teoría econométrica ya que sugiero “aprender
haciendo con acciones lúdicas que, inclusive, favorecen la autoeducación”.
a) ¿Cuáles son sus expectativas del curso? ¿Por qué lo tomaron conmigo?
c) ¿Qué importancia tiene para ellos este curso en relación con los demás que
tomará?, etc.
Creo que con esta práctica docente se eliminan el aburrimiento, hacen atractiva la
asistencia a clases y por consiguiente reducen la apatía, la deserción y
desesperación típica del ser humano (de los alumnos) de cómo sobrevivir en el
futuro inmediato, puesto que están adquiriendo conocimientos útiles para labrar
26
su destino en el mercado, ya sea como empleados o como emprendedores de
negocios.
Práctica docente.
3.- Para cerciorarme del grado de asimilación de la teoría adquirida por los
alumnos, acostumbro hacer lo siguiente:
a).- Elaborar un cuestionario con preguntas clave o básicas sobre el tema que se
ha visto; el cuestionario lo entrego a los alumnos para que lo contesten fuera de
aulas y cuando lo regresan, juntos revisamos si fueron correctas las respuestas
que escribieron, procediendo a hacer las correcciones pertinentes cuando no
haya sido el caso; los estudiantes que contestaron bien la mayoría de los
preguntas reciben una nota por su “participación en clase”, como estímulo para su
mejor desempeño en el futuro. Ello se acompaña con el trabajo en grupo que llevo
a cabo a través de los reactivos que aplico para afianzar los conocimientos
adquiridos.
b).- Enseguida les aplico exámenes parciales escritos u orales a los alumnos;
para ello los preparo en la siguiente forma: les comunico con anticipación el tema
sobre el que versará el examen, enseguida se les deja ejercicios para resolver
fuera del aula: Dicha solución se revisa en el pleno de la clase: cuando los
alumnos los resolvieron correctamente, les reconozco dicho mérito con
puntuación sobre su participación en clase, cuando no resolvieron o hicieron mal
los ejercicios, les corrijo e informo que el examen tratará sobre casos similares.
4.- Como puede observarse con este enfoque didáctico pretendo que el alumno
razone, infiera, deduzca, medite, reflexione y no repita o memorice. En este
27
sentido es que utilizo las tres aulas: la tradicional para presentarnos, conocernos
e introducir y adminstrar los tiempos del curso, además para establecer los
criterios de evaluación para calificar sus resultados al final del semestre. En el
aula de cómputo hacemos con rapidez los cálculos, situación que permite
disponer de más tiempo para hacer análisis e interpretación de los datos. El aula
multimedia sirve para exponer y hacer énfasis en ciertos puntos cruciales o
básicos del conocimiento.
Así pues, no pretendo enseñar econometría per se, sino que le enseño al alumno
a reflexionar sobre el alcance, uso y limitaciones de la econometría, en una
atmósfera propicia para considerar esta disciplina como una de las principales
herramientas para el análisis e interpretación de los fenómenos económicos que
le toque estudiar en el ejercicio profesional. En este contexto es que termino
haciendo una investigación económica mediante la cual indico cómo se plantea
una teoría económica, cómo se expresa matemáticamente y cómo se verifica o
rechaza estadísticamente. Algo similar les pide a los alumnos para que empiecen
a desarrollar modelando una teoría económica, presentándola matemáticamente y
probándola estadísticamente al final del curso de econometría.
28
Gracias a Eviews se pueden desarrollar relaciones estadísticas de datos
transversales y datos de panel de una forma sencilla, ya que muchas de las
operaciones que se pueden implementar usando los menús, también se pueden
introducir por la ventana de comandos.
Las operaciones más sencillas que admite e-views para la modificación de series
de tiempo o del modelo en general son: suma (+), resta o diferencia (-),
multiplicación o producto (*), división (/), potencia o función exponencial (^), raíz
cuadrada ( Obtención de logaritmo (log, ln) matriz, entre otras.
Cuadro I.1
1Kozhan,
Roman (2009) Financial Econometrics- with EViews, Ventus Publishing ApS.P.p 7 User´s Guide
EViews 5.
29
Función Descripción
Smpl +/- (Muestra) Presenta los datos en periodos seleccionados o para el total del rango.
Cuadro I.2
30
Funciones Descripción
Cuadro I.3
31
Funciones Descripción
=f La F-estadística
Cuadro I.4
32
Funciones Descripción
Cuadro 1.5
33
Funciones Descripción
Cuadro I.6
Distribución Función
Normal(Gaussian) @cnorm(x),
@dnorm(x),
=qnorm(p),
=rnorm, nrnd
=rtdist(v)
Cuadro I.7
34
Tipo de Función Empieza con el Nombre
Densidad o probabilidad @d
Inversa de CDF @q
Cabe señalar que el programa Eviews 5 que aquí se utiliza es una nueva versión
del iniciado para Windows de un grupo de herramientas cibernéticas diseñadas
para hacer econometría empírica.
Con este programa se pueden hacer, como se verá más adelante, análisis de:
1.- Estructura;
2.- Predicción;
35
Al término del capítulo el lector estará en condiciones de entender:
36
que hizo y publicó ese año el primer programa de demanda empírica; otros
consideran que su origen está en los trabajos realizados en dicho siglo XVII por
Sir William Petty, quien escribió en 1676 y luego publicó en 1690 su obra la
aritmética política o más recientemente, en 1758, con la Tableau Économique
elaborada por el célebre médico francés Francois Quesney.
Alguna vez William Stanley Jevons aseveró que con la ayuda de la estadística
podría llegar a conseguir desvelar las leyes de comportamiento de la economía de
un modo tan preciso como en las ciencias exactas. 2
La Etapa I se remonta hasta el siglo XVI con los trabajos aritméticos de Petty,
King o Devenant, los cuales hicieron uso por primera vez de sistemas basados en
hechos y cifras. Shumpeter, en su libro Historia del Análisis Económico (1994)
describe a éste grupo como “una ilustración perfecta de lo que es la econometría,
37
los econometrístas y lo que estamos tratando de hacer” 4 Este periodo se destaca
por ser el de descubrimiento de las leyes en la economía, muy similares a las de
las ciencias exactas.
La Etapa II surge con Henry Moore en 1914, ya que fue éste el primero en
estimar estadísticamente las relaciones económicas en el centro de análisis
cuantitativo de la economía. A la par del trabajo de Moore y sus discípulos se
comenzó a desarrollar el interés y estudio por los ciclos económicos basados en
series de tiempo y la construcción de modelos econométricos para su estimación.
Clemente Juglar fue el primero en estudiar los ciclos económicos, su mayor
aportación es el Ciclo Juglar que es el ciclo de inversión con una duración de
poco más de 11 años. Dicho tema fue de interés para otros economistas como
Kitchin, Kuznets y Kondratieff, los cuales también aportaron sus ciclos.
4 Shumpeter, en http://ftp.iza.org/dp2458.pdf
38
Para 1959 inicia la Etapa IV o de extensión con la publicación de la monografía
número 10 de Cowles Commision bajo el título de Stadistical Inference in
Dynamic Economic Models, en la cual se establecen las normas básicas de la
elaboración de las investigaciones econométricas, dicho esfuerzo se vería
cristalizado hasta la monografía número 14, publicada en 1962, con el título de
Studies in Econometric Methods.
Es en esta etapa cuando los españoles comienzan a escribir textos en los que se
destaca la exposición ordenada de los avances más relevantes de la
econometría. La primera obra publicada fue en 1962, bajo el nombre de
Fundamentos y Posibilidades de la Econometría del profesor A. García Barbacho.
Para 1963 A. Alcaide publicó Conferencias sobre Econometría y Métodos
Estadísticos, en el cual, además de mostrarse los modelos econométricos más
actuales, incorporó la elaboración de tablas de input-output y números índices,
entre otros.
Entre los aportes teóricos de ésta etapa sobre sale el método de los mínimos
cuadrados trietápicos (MCT) expuesto por Theil y Zellner en la revista
Econometrica en 1962, dentro del artículo “Three-Stage Last squares.
Simultaneous Estimations of Simultaneous Equations”.
39
El cambio suscitado en el campo de la econometría hacía mediados y finales de
la década de los setentas, está relacionado con el incremento en el precio de los
energéticos y la crisis que le siguió y en la que se vieron involucrados la mayoría
de los países, en los cuales se incrementó la inflación y el desempleo. Para esos
fenómenos, la teoría dominante no fue capaz de proporcionar una explicación.
Para la econometría lo anterior representó un problema, ya que todos los modelos
estructurados hasta el momento comenzaron a presentar fallas sistemáticas en
sus predicciones, por ello se puso en duda la capacidad predictiva, baluarte en
todos los modelos hasta esa fecha.
Leamer, por su parte, publicó en 1983 “Let´s Take the Con out of Econometrics”,
en el que pone de relieve la subjetividad de la modelización econométrica y sus
resultados, recomendó entonces, que dicha subjetividad e incertidumbre quedara
recogida en un análisis específico al que denominó “análisis de valores extremos”.
40
variables dependen de todas, según la estructura de los retardos que se puede
especificar a través de datos.
Aunado al análisis que hizo con respecto al modelado econométrico, Sims abordó
otra problemática, la de los instrumentos de política económica y las decisiones
que se toman con base a éstos. La decisión de política económica se puede dar
desde dos enfoques de evaluación de ésta. El primero es el enfoque de
instrumentos-metas, llamado prospectivo, el cual consiste en proponer acciones
alternativas que le competan al sector público, para analizar los efectos sobre
variables endógenas, de tal manera que, bajo la norma de eficiencia, sea más
simple elegir la opción adecuada. El segundo enfoque es el de metas-
instrumentos, nombrado también introspectivo, el cual se basa en la coherencia
de las metas de política económica planteadas para evaluar las estrategias a
realizar. Cuando la estrategia fue seleccionada, entonces se somete a evaluación
en términos de factibilidad, sin embargo, los gobiernos no encuentran esa
factibilidad, lo cual representa un problema dentro de éste enfoque.
41
basa en la descomposición de las series históricas en componentes de frecuencia
alta o rápida y de frecuencia baja o lenta.
II.2.1.-México
42
Posteriormente, en 1976, surgió el modelo de Clavijo, el cual tiene por objetivo la
estimación y análisis coherente de la economía mexicana de ese entonces, así
como un pronóstico para 1976 a 1977. El modelo se estima por MCO y rezagos
polinomiales escalonados (ALMON), el periodo comprendido en el modelo es
entre 1965 y 1975, de forma trimestral. Consta de 9 ecuaciones estocásticas y 22
identidades, el enfoque es monetarista en lo referente al gasto de gobierno y sus
afectaciones a la demanda agregada.
La década de los ochenta también fue prolífera para los modelos mexicanos, que
además fueron fruto de la ola de cambios que se vinieron dando en el campo de
la econometría, como es el caso del modelo de Ruffat surgido en 1981 y cuyo fin
es la incorporación de una metodología para establecer una función de bienestar,
como meta, a partir de la cual se determinarían los instrumentos de política
económica a seguir, tal y como lo planteó Sims en su enfoque introspectivo.
En ese mismo año se dio a conocer el primer modelo que implementó el cambio
estructural por medio de la prueba Chow. El periodo de estimación comprende de
1950 a 1980 y lleva el nombre de modelo Amieva Huerta.
El modelo Ricardo Lago conocido a partir de 1991 fue el primero que destaca la
importancia de la programación financiera, el cual es estimado para el periodo
anualizado de 1960 a 1983. La contribución de este modelo consiste el
perfeccionamiento de la metodología tradicional, al permitir la determinación de la
balanza de pagos, actividad económica, meta inflacionaria y déficit público al
mismo tiempo.
43
En la actualidad se han hecho modelos para la toma de decisiones dentro de las
instituciones de gobierno como es el caso del Instituto Nacional de Ecología que
desde 2007 cuenta con el modelo de renta de la tierra, el cual se basa en la
premisa de que cualquier tierra puede tener diversos usos que compiten entre sí,
dejando una renta al dueño de la tierra. El modelo se compone de siete variables
interactivas entre las que destaca la población, ejidatarios y la ganadería; y se ha
venido estimando desde 1996.5
5
http://www2.ine.gob.mx/publicaciones/gacetas/464/procede.html
6www.cefp.gob.mx
7http://www.cefp.gob.mx/intr/edocumentos/pdf/cefp/2009/cefp0972009.pdf
8http://www.banxico.org.mx/documents/%7B1EDA8A25-618D-690F-A73B-DD4F93AB8D9C%7D.pdf
44
II.2.2.- Los modelos macroeconómicos más conocidos .
II.2.2.1. Norteamericanos.
Se dice que en 1998 apareció publicado al mismo tiempo que se inauguró un sitio
en Internet gratuito con la versión electrónica, el MME para la economía de EEUU
con el nombre de US Model, de Ray Fair, profesor de la Universidad de Yale.
Entre otras aplicaciones, es útil como simulador al contener información para
crear escenarios en sectores claves como: los hogares, las empresas, el sector
financiero, el sector gobierno federal, el sector gobierno local, y el sector externo.
II.3.1.-Original y su evolución.
45
Sus hallazgos también conocidos como Ley de Regresión Universal fueron
corroborados por su amigo Kart Pearson con una muestra de mil individuos cuyas
estaturas registró, analizó y encontró “que la estatura promedio de los hijos de un
grupo de padres alta era menor que la estatura de sus padres y la estatura
promedio de los hijos de un grupo de padres de estatura baja era mayor que la
estatura de sus padres, generando un fenómeno mediante el cual los hijos altos e
hijos bajos, “regresaban” por igual hacia la estatura promedio de todos los
hombres”. En palabras de Galton, se trataba de una “regresión hacia la
mediocridad”.
46
II.3.3.- Definición apropiada para captar fácilmente la importancia de la
econometría.
Mi opinión es que “es una disciplina con la que una teoría económica se puede
describir o expresar matemáticamente y probarse con los métodos de la
estadística inferencial”. En esta perspectiva se puede decir que los
econometristas tienen como meta usarla para explicar e interpretar
cuantitativamente una teoría sobre un fenómeno bajo estudio, cuya realidad o
universo estadístico conoce parcialmente a través de una muestra que utiliza
para describirla en términos estadísticos, es decir, para inferir a través de los
valores muestrales los valores o características estadísticas de los datos que
integran la población o universo estadístico.
Así pues, considero que esta definición ha pasado la prueba del tiempo, se ha
verificado que sigue siendo la expresión sencilla sin alambicamientos
conceptuales de esta disciplina; en particular creo que es fácilmente entendido su
significado y alcance entre los personas que inician su aprendizaje de la misma,
dado que de inmediato se visualiza que se moverá en un escenario en que los
actores son la teoría económica, las matemáticas y la estadística y, cuya
instrumentación ahora cuenta con el valioso apoyo de las NTIC.
II.4.1.-Alcance.
47
virtud de que es la integración de una teoría económica con las matemáticas y las
técnicas estadísticas, que fundamentan sólidamente a la primera.
2.- Es muy útil porque con su metodología se puede probar la relación hipotética
que se establezca entre las variables de interés para el investigador. Cuando la
relación estimada no pasa las pruebas estadísticas, es necesario modificar la
relación hipotética (teoría económica) entre las variables bajo estudio. Si pasa
dichas pruebas, se cuenta con un sustento metodológico para decir que la
relación existe entre las variables.
II.4.1.1.-Ejemplos:
Para ello se selecciona una muestra constituida por datos de series de tiempo del
PIB y del Consumo. Se establece la hipótesis de que el Consumo depende del
48
PIB y, aplicando el método de mínimos cuadrados para encontrar la ecuación de
regresión que muestre el coeficiente o pendiente de la variable independiente
(PIB), cuyo valor expresa la propensión marginal a consumir (PMC) y que de
acuerdo con la teoría macroeconómica, además de indicar cuánto se dedicará al
consumo por cada unidad de aumento en el PIB, sirve para determinar el
multiplicador de la inversión (M), así:
M=1/1-PMC
1.- Indica que por cada aumento de una unidad (un peso) en el PIB el consumo
nacional aumentará en 72 centavos; y
2.- Que M será igual a 3.57, indicando que un aumento (o reducción) de un peso
en la inversión inducirá un incremento (o reducción) de 3.57 veces en el PIB.
Cabe señalar que en este caso el cálculo clave es el de la PMC en virtud de que
M se obtiene con su valor. Como puede observarse la PMC proporciona valiosos
elementos para la adopción de una política pública, en este caso, una política
fiscal que incidirá en el crecimiento del PIB, del Consumo y finalmente, en el
empleo y calidad de vida de la sociedad.
49
II.4.2.- Limitaciones
1.- Al expresarse la relación entre las variables mediante un modelo
econométrico, y, por consiguiente, al considerarse éste último como
una representación sencilla de la realidad, siempre quedará la duda
sobre si la estimación fue o no correcta, situación que obliga a
revisar cuidadosamente su especificación.
2.- En este contexto, si en el análisis de regresión se usa el método
de mínimos cuadrados para estimar el valor de los parámetros de las
variables independientes, si no se cumplen los supuestos teóricos
que sustentan dicho método, las estimaciones pueden no tener las
propiedades que sustentan la solidez de las pruebas de hipótesis y
por consiguiente, inducir a la toma de decisiones equivocada: por
ejemplo, aceptar o rechazar la hipótesis o teoría económica.
3.- Al usarse una muestra de datos para expresar la relación entre
las variables, siempre quedará la duda sobre el grado de
representatividad que tenga la muestra de los datos, aun cuando se
especifique la probabilidadde que el error de muestreo sea diferente
del error permitido.
4.- Al basarse la econometría en el análisis de regres ión suele
decirse que dicho análisis identifica la relación causal entre las
variables independiente y dependiente; lo anterior no siempre es
posible porque los métodos utilizados no permiten hallar una
causalidad absoluta, entre otras razones porque,“ las relaciones
entre las variables económicas son inexactas y algo
erráticas”(Salvatore, 1999:4); yo agregaría que si dicha relación de
causa-efecto no se especificó en la teoría económica, entonces está
relación es un mero ejercicio estadístico o como dice S urignac (
2001) “ es una relación que aflora por casualidad y no por
causalidad.
Para ilustrar esta relación usa el ejemplo siguiente: “El hecho de que se trata al
producto de la cosecha como dependiente de la lluvia, ello se debe a
consideraciones no estadísticas”, yo intuyo que quiere decir que ello se debe
atribuir a la teoría que previamente se ha establecido, cuya modelización
matemática hace depender el producto de la cosecha de la lluvia,
independientemente de que al correr la regresión entre estas dos variables los
resultados indiquen que existe una fuerte relación estadística, en otras palabras:
que no hay una relación de causa-efecto sino una relación establecida
apriorísticamente: la teoría económica modelada matemáticamente.
50
II.4.3.- Limitaciones de la metodología.
51
7.- Derivado de la complejidad de la realidad económica, algunos
estudiosos de la econometría señalan que ésta es un arte y una
ciencia, dado que para que brinde resultados confiables es necesario
saber especificar la teoría económica que fundamenta el modelo, los
métodos a utilizar y los datos para obtener y estimar correctamente
las relaciones entre las variables en estudio; situación que en mucho
depende de la experiencia del investigador, de su formación
académica, de su intuición, de su buen juicio y familiaridad con el
fenómeno de interés para él, entre otros factores.
II.5.-Perspectivas
Estos son algunos de los conocimientos frontera que han modificado el estado del
arte econométrico.
52
III.ASPECTOS FUNDAMENTALES DE LA ECONOMETRÍA.
III.1.-Marco teórico.
Con el fin de contar con los conocimientos básicos requeridos para poder hacer
análisis e interpretación apropiada y suficiente de los resultados que se vayan
obteniendo con los cálculos de los valores de los estimadores, de la bondad de
ajuste de los mismos a los valores de los parámetros poblacionales, del grado de
asociación o relación que tengan entre si las variables explicada con la
explicativa, de las pruebas de hipótesis que se realicen para verificar si se
constata la teoría económica, etc. he juzgado conveniente establecer un marco
conceptual .que sirva de referencia para interpretar correctamente los resultados
que se obtengan y para evaluar si es suficiente aplicar uno u otro método de
trabajo. Así, dado que el método de MCO: Mínimos Cuadrados Ordinarios
continúa siendo uno de los métodos econométricos preferidos para obtener las
estimaciones de las pendientes de los coeficientes de las variables
independientes introducidas en el modelo lineal de regresión, es importante
comprobar que no se violaron los supuestos establecidos para su uso, es decir,
que se satisfacen, de manera que es necesario introducir la teoría que subyace o
justifica su aplicación, etc.
53
forma reiterativa y ampliada de la transmisión de los conocimientos, consolide su
cultura econométrica y al final termine bien familiarizado con la teoría y práctica
de esta disciplina aplicada al estudio cuantitativo de la economía.
Con ese propósito es que en este libro se han incorporado cuatro apéndices: uno
matemático, otro de probabilidad, otro de inferencia estadística y otro de series de
tiempo para que el lector fortalezca, actualice y conozca el instrumental básico
que requerirá para hacer investigación aplicada en economía usando la
econometría como sustento fundamental de la misma.
54
3.- Los conceptos estadísticos de gran uso en la verificación de una teoría
económica que es conveniente dominar son en general los de la estadística
descriptiva para identificar y cuantificar con familiaridad las características
estadísticas de una distribución de datos, es decir los parámetros. Para ello es
conveniente recordar o aprender las medidas de tendencia central, de dispersión
y de asimetría, así como los conceptos de números índice, mínimamente.
55
independiente(s) explican o no la variable dependiente: la teoría económica de
interés para el investigador.
56
parte del fenómeno e inicia su estudio aplicando el método científico en la forma
antes descrita, de manera que en esa forma hace ciencia: aporta nuevos
conocimientos que obtuvo con un proceso inferencial y de abstracción sobre el
fenómeno, dada la limitante de no conocer en forma directa la realidad total del
mismo. Conectando este razonamiento con la teoría económica, puede decirse
que ésta es el punto de referencia sobre el cual se va inducir el conocimiento de
la realidad aplicando los métodos econométricos que se describen y constituyen
la esencia de este libro.
En la actualidad con base en los avances de los últimos años en que ha mejorado
la medición de los datos de las variables que integran el modelo, en que han
surgido más y poderosos métodos para conformar la asociación, relación causa-
efecto que se establece entre las variables que componen la teoría económica,
así como en el manejo de muestras grandes con las innovaciones derivadas del
uso de las NTIC (Nuevas Tecnologías de la Información y de las
Comunicaciones), por mencionar algunos cambios sustantivos, se estima que la
econometría se ha consolidado como una disciplina científica que hace factible el
análisis e interpretación de los cambios en la oscilante y compleja economía de
estos tiempos; en otras palabras, con los resultados a que se llega y que sí
describen la realidad económica, aun que sea en forma parcial (muestra),
considero que la econometría es una de las formas más completas de aproximar
la economía a las ciencias duras, dentro de las que sobresale la física, que como
antes se dijo de ella la economía tomó varios conceptos, leyes, axiomas y
teoremas para estudiarla como ciencia y para usarla como instrumento para hacer
que la economía mejore la calidad de vida del ser humano.
57
III.4.- La teoría económica.
58
III.5.1.- Tipos de modelos económicos.
Por el número de variables que constituyen el modelo diremos que existen los de
regresión y correlación lineal simple, que se caracterizan por el uso de una
variable independiente como explicativa de las variaciones de una dependiente.
Los de regresión y correlación lineal múltiple son aquellos en que se usa más
de una variable independiente para describir los cambios en la variable
dependiente.
59
datos de las variables económicas por lo general está presente la incertidumbre
en ellos, situación que incide en la bondad de ajuste de los estimadores. .
Como es del dominio público, se dice que en toda investigación los objetivos de la
misma determinan los métodos para su consecución. En este contexto es que
conviene abordar y discernir sobre los métodos que existen para hacer análisis
económico y discernir sobre cuáles son los más apropiados.
60
Con el fin de enfatizar el uso del concepto de abstracción sugerido por Lange
(op.cit) en su concepción de las etapas secuenciadas con que se aplica el método
científico en la investigación, que fueron descritas en las secciones previas, ahora
es conveniente visualizarla como aquella porción de la realidad que concretiza el
investigador para utilizarla en la formulación de su teoría y en su momento,
modelarla matemáticamente y evidenciarla estadísticamente.
Derivado de lo anterior podemos agregar que con la ecuación con letras griegas
se expresa el modelo en tanto que con la de letras latinas a sus estimaciones
correspondientes.
Ahora debemos agregar que se considera apropiado decir aquí que para la
formulación del modelo se debe aplicar la siguiente:
61
III.8.-Relación de la variable estocástica o aleatoria con los
modelos.
62
III.10.- Las variables aleatorias o estocásticas como representantes de las
variables económicas
Al respecto Wooldridge (2009: 847) informa que una variable aleatoria es aquella
cuyo resultado es incierto y Gujarati ( 2004:23) comenta que la naturaleza
estocástica del comportamiento de los datos se puede ilustrar con su ejemplo de
“centro del blanco”, cuyo aplicación al tema que nos ocupa la describe diciendo
que si existe un tablero que tenga dibujado un centro al que se le puedan arrojar
dardos varias veces con el propósito de dar siempre en el blanco, esto último
constituye lo que se denomina proceso estocástico, mismo que se construye con
los valores que va tomando la variable aleatoria cada vez que se lanza un dardo.
Como no hay seguridad de dar en el blanco, de antemano sabemos que es
incierto el resultado de dar en el blanco y por eso es correcta la definición que
hace Wooldridge (op. cit.) de variable aleatoria.
Ahora bien, como el arrojar los dardos tienen siempre el objetivo dar en el blanco,
ello lamentablemente no siempre se logra dado que en algunas ocasiones se
errará al hacerlo. Errar significa que el proceso de arrojar dardos produce errores.
Este razonamiento por analogía se aplica en el análisis de regresión para ilustrar
que la dependencia de Y, variable dependiente, de X, variable independiente, es
estadística, es decir, que es inexacta, que no está exenta de errores. Esto es así
porque por ejemplo, al obtener los valores utilizados para expresar la
dependencia de las variables Y de X puede suceder que se cometan errores de
medición de los mismos, por señalar una causa de la inexactitud. Así, los errores
de medición son equivalentes a los errores que se cometen cuando se tira un
dardo varias veces y no siempre da en el blanco. De ello se infiere que las
variables usadas en el análisis de regresión son aleatorias o estocásticas, cuyo
estudio de la distribución de sus datos puede indicar que tiene semejanza con la
distribución de los datos de alguna de las distribuciones de probabilidad teóricas
y por consiguiente con base en sus características estadísticas ( media aritmética
63
y varianza) se puede hacer econometría empírica determinando la dependencia
y/o pronóstico de una variable económica de otra(s) previamente seleccionadas
con ese propósito; en otras palabras, con el fin de explicar la variable que
representa la teoría económica en estudio.
En este contexto también conviene citar el alcance que le dan los profesores
Galindo y Catalán(2003) a los modelos econométricos al decir que éstos expresan
la realidad de un fenómeno económico, por lo que “el modelo teórico es una visión
simplificada de la realidad, y por lo tanto, tiene una aplicación parcial”. Considero
que esta conceptualización es congruente en mucho con los juicios establecidos
párrafos arriba por los expertos que allí se mencionan, incluido el suscrito.
64
Con este basamento conceptual ahora procedamos a aplicarlo en la economía.
Contexto referencial.
III.11.1.1.-De la competitividad
65
relativo puesto que no todas las empresas tienen los mismos niveles de
competencia en los mercados.
III.11.1.2.-Proceso de la investigación.
66
hacer los análisis de regresión y de correlación, utilizando el método de mínimos
cuadrados.
Abstracción:
67
Con esa información el investigador empieza a formular su teoría económica de la
competitividad empresarial, la cual empieza a describir señalando las relaciones o
independencia que existe entre los conceptos, cuyo cúmulo viene a constituir lo
que se ha dado en llamar el marco teórico. En el caso de las empresas, el
investigador empieza a desarrollar la idea de que las empresas son de diferentes
tamaños, es decir que tienen diferentes tamaños de planta y por consiguiente de
niveles de producción. Ello lo lleva a señalar que son diferentes los montos de
inversión entre ellas y en consecuencia, que es distinta la oferta con que
concurren al mercado a satisfacer las necesidades de los consumidores. Otros
datos importantes que deben incluirse en el marco teórico son por ejemplo: los
procesos de fabricación que usan para generar su producción o servicio cuando la
empresa no sea industrial, así como el número de trabajadores que agregan valor
a las materias primas e insumos que usan en los procesos productivos. De ello
puede concluir que la producción está en función de los factores capital y trabajo y
que la competitividad con que actúe en el mercado dependerá mucho de estos
dos factores de la producción.
Dado que la generación del conocimiento usando el método científico, entre otras
cosas, proviene de un proceso de análisis secuenciado lógicamente, se intuye
que la siguiente información valiosa que incorpora al marco teórico son las
características del mercado, es decir, su capacidad, las características de los
diferentes oferentes y consumidores, al igual que los precios con que se hacen las
transacciones comerciales de su producto o servicio.
Concretización:
Algo que salta a la vista de los resultados que obtiene el estudioso del proceso de
investigación mediante el cual le fue posible integrar el marco teórico que requiere
para conocer la competitividad de las empresas, es el hecho de que la producción
(Q) está relacionada con los Trabajadores (L) y con la maquinaria y equipo (K)
que de manera combinada usa el empresario en determinado tiempo y lugar para
producir Q en una situación competitiva de su empresa.
68
alguna otra sobre la competitividad de la empresa y, a la que suele llamársele
hipótesis alternativa.
69
4.- Verificación: Es la aceptación o el rechazo de la teoría económica mediante el
método de pruebas de hipótesis estadísticas.
En este contexto conviene decir que una vez enunciado y especificado el modelo
se plantean las hipótesis en relación con los parámetros de las variables explicitas
describiendo la dirección (signo) y fuerza ( impacto en la variable dependiente)
dentro de la ecuación de regresión que se establezca para el modelo. Así por
ejemplo, si el investigador establece en un modelo uniecuacional dentro de las n
variables explicativas que n5 no debe tener efecto sobre la variable dependiente
o explicada, ésta hipótesis es equivalente a decir que su parámetro ( digamos β)
tiene una restricción: debe β=0; si no es así, entonces puede establecer la
hipótesis de que β≥0; quizás la hipótesis también pueda ser que β≤1.
Por otra parte conviene decir que este procedimiento inicial que requiere
seleccionar entre distintas alternativas puede incurrir, sin embargo en errores. Por
ello es conveniente someter al modelo elaborado y estimado a diversas pruebas
estadísticas que permitan comprobar su validez y calidad antes de utilizarlo en el
70
trabajo empírico. De ahí que se diga que un modelo se especifica cuando se
definen variables como las siguientes:
a) Tipos de Variables:
Si decimos que una variable es la literal que toma valores dentro del
“dominio” determinado por la función matemática, entonces decimos
que pueden ser:
Endógenas: son las que explican el modelo y cuyo valor se determina dentro del
mismo.
Aleatoria de Bernoulli o binaria: Variable aleatoria que toma los valores de cero o
de uno.
71
Aleatoria discreta: Toma un número finito de valores enteros no negativos.
72
suelen tener ciertas restricciones para que ésta se cumpla, por ejemplo con el
signo para indicar que se cumple o no cierta relación entre las variables
dependiente e independiente o en su valor: digamos, 0≤β≤1.
c) Ecuaciones.
Luego entonces son relaciones matemáticas con las que se trata de expresar la
forma en que aparecen relacionados las variables y los parámetros que
componen el modelo. Matemáticamente se clasifican así:
i).- Efecto causal: es el cambio ceteris paribus que tiene una variable sobre otra:
73
d).- Datos:
En virtud de que los datos que utiliza el economista u hombre de negocios son
datos observados (como también lo hace por ejemplo el meteorólogo) y por
consiguiente no provienen de un experimento controlado como sucede en la
biología o en la física. Al no poder controlarlos personalmente, como sucede
cuando maneja datos experimentales, para la formulación empírica de modelos, él
debe conocer y dominar habilidades adicionales a las que tiene para analizar
datos experimentales, además de que debe de estar familiarizado con la
naturaleza y estructura de los datos con que pretende verificar su teoría
económica.
Para los de series de tiempo, antes es conveniente decir que una serie de tiempo
se define como una sucesión de puntos de una variable económica en cierto
periodo de tiempo. En este sentido se dice que los datos corresponden a
diferentes momentos o puntos de tiempo en que la variable económica registró
información. Pueden ser los valores que toma una acción en una semana, los
cinco días en que se registraron constituyen una serie temporal.
iii).- De panel.
También se les conoce como combinados porque pueden ser los datos del
ingreso de 30 familias obtenidos en encuestas que se hacen mensualmente. Su
connotación específica es que se refieren a las mismas 30 familias cuyos ingresos
son los que varían de una a otra encuesta. Son útiles para medir por ejemplo las
variaciones de los ingresos en el tiempo de esas 30 familias.
74
Son pues estos datos los que corresponden a una serie temporal de
una variable incluida en una base de datos de corte transversal
(personas, empresas, ingresos, etc.). Su característica fundamental
(W ooldridge, 2009:10) es que se registran los datos de las variables
durante un intervalo de tiempo de: dos, cinco, diez años, etc. de
dichas variables de corte transversal.
ii). Por la forma de sus ecuaciones, pueden ser lineales cuando sus ecuaciones lo
son, no lineales si alguna no lo es.
iv). Por el momento del tiempo a que se refieren sus valores: son estáticos o
dinámicos. En el primer caso todas las variables están referidas al mismo instante
de tiempo; en el segundo, cuando dentro del modelo se incorpora alguna variable
retardada.
75
III.12.1.1.3.- Estimación de los parámetros de la ecuación que
representa al modelo.
III.12.1.1.3.1.- Presentación:
76
III.12.1.1.3.2 Supuestos básicos del método MCO
77
para inferir que lo que se verifica en la muestra es válido en la
población estadística.
Ŷ es estimador de Y
â es estimador de
b̂ es estimador de
es el estimador de Ui
ê1
y na b x (1)
xy a x b x 2
(2)
78
apropiados?; dicho en otras palabras, ¿De qué manera los métodos
estadísticos de estimación pueden aplicarse al análisis de regresi ón
para que éste a su vez fundamente la inferencia estadística, es decir,
pruebe la teoría económica?
n xy x y 2
n y
2 2
y
n x 2 x
2
2
S bˆ
n 2 n x 2 x 2
S bˆ = S b̂2
79
los errores e Y Yˆ son aleatorios e independientes. Ahora haremos
un supuesto adicional; que están distribuidos normalmente. Así, si la
bˆ
distribución de los errores es normal, la cantidad t sigue
S bˆ
la distribución t con (n -2) grados de libertad.
80
III.12.1.1.3.3.2.-Ejemplo con datos de corte transversal:
Y X X2 XY Y2 Y
e (Y Yˆ ) e2
5 10 100 50 25 3. 3 2 2 7 1. 6 7 7 3 2. 8 1 3 2
-4 -4 16 16 16 - 6. 6 6 7 4 2. 6 6 7 4 7. 1 1 5 2
-6 4 16 - 24 36 - 0. 9 5 8 8 - 5. 0 4 1 2 2 5. 4 1 4 1
-2 1 1 -2 4 - 3. 0 9 9 5 1. 0 9 9 5 1. 2 0 8 9
5 16 256 80 25 7. 6 0 4 2 - 2. 6 0 4 2 6. 7 8 2 1
-8 - 12 144 96 64 - 12 . 3 7 6 1 4. 3 7 6 1 1 9. 1 5 0 2
-1 5 25 -5 1 - 0. 2 4 5 2 - 0. 7 5 4 8 0. 5 6 9 8
- 10 -6 36 60 100 - 8. 0 9 4 6 - 1. 9 0 5 4 3. 6 3 0 6
Y= - 2 6 X= 17 X 2 = 86 3 X Y= 5 5 1 Y 2 = 59 6 - 26 . 00 0 0 0. 0 00 0 10 3 .6 7 51
81
Si la ecuación de regresión en la población es Y=α+βX+Ui y si
usamos una muestracon datos de corte transversal en un
momento dado, como la del Cuadro anterior en que la teoría
económica establece que el consumo de las familias (Y) depende de
su ingreso (X), de manera que usamos sus datos para estimar con la
ecuación de regresiónŶ= â y b̂ X+ ei los valores de sus parámetros α
y β. Para calcular dichos valores se usa el sistema de ecuaciones
simultáneas explicado párrafos arriba. Ahora bien si suponemos que
Ui es cero, entonces las tabulaciones sobre los cálculos necesarios
para su obtención se describen de la columna tres a la seis.
Manualmentese pueden hacer usando cualquiera de los métodos
contenidos en el Apéndice matemático A de este libro. Aquí, en este
ejemplo concreto la solución del sistema de ecuaciones simultáneas
se obtiene con el método de Cramer (ilustrado en el Apéndice A),
cuyos cálculos específicos son:
863 26 17 551 31805 3.8131 :
10 551 17 26 5952 .7136
10 863 17 2 8341 10 863 17 2 8341
Y =-3.8131+0.7136X
82
Interpretación: si X aumenta en una unidad (∆X=1), Y lo hace(∆Y )
en 0.7136, ya que (∆Y/(∆X)=β=0.7136. Por esa razón se dice que a
ese cociente en economía también se le llama propensión marginal al
consumo, ya que indica que un aumento del ingreso (X) en una
unidad, digamos un peso, da lugar a un aumento de 71.36 c entavos
en el consumo de las familias.
n xy x y 2
n y
2 2
y
n x 2 x
2
2
S bˆ
n 2 n x 2 x 2
Donde los grados de libertad son iguales a n -k; n es el número de
familias (10); k es el número de parámetros (2).
Sustituyendo:
bˆ 0 .7136 0
t 5 .7317
S bˆ 0 .1245
83
nivel de significación, que expresa la probabilidad de cometer error
tipo I, es decir, rechazar algo que es cierto,( el cual es muy distinto
al de α aqu í usado para expresar la ordenada al origen de la
ecuación de regresión de la recta de la población),.al cual
probaremos la hipótesis nula Ho de que β=0. Sup óngase que
escogemos el 5% de significación, con n -2=10-2=8 grados de
libertad, la tabla indica que t =2.306, cuya interpretación es que
podemos esperar un valor positivo o negativo de β tan grande como
2.306 si la hipótesis es cierta, es decir, sí el coeficiente de la
población es cero. Podemos esperar una diferencia entre cero y el
empírico , que es el resultado de la selección aleatoria de la
muestra, pero esta difere ncia no puede ser tan grande como para
conducir a valores de t que exceden de 2.306 (positivos o negativos).
Aceptamos Ha Aceptamos Ha
Rechazamos Ho Rechazamos Ho
t
-2.306 β +2.306
84
Aquí rechazamos Ho porque t t bˆ luego β es diferente de cero, hay
una diferencia significativa que no puede atribuirse a la selección
aleatoria de la muestra, sino a los valores de la variable exógena X
explicando la variable endógena Y.
Uso del error estándar del coeficiente de r egresión: Sb2ˆ Sb2ˆ para
calcular los límites de confianza que tiene el intervalo de
confianza
a) 0.7136- β =+2.306(0.1245)=0.2871
85
b) 0.7136- β =-2.306(0.1245)=-0.2871
Sabemos que ˆ b
n2 10 2
r n2
Se hace con la f órmula t r luego trabajando con los datos de
1 R2
la tabla anterior y sabiendo que n=10; r=0.897 y R 2 =0.805 tenemos
0.897 8 0.8972.37
tr 5.74 .
1 0.805 0.442
1.-A medida que r crece es más probable que sea signif icativamente
diferente de cero.
86
III.12.1.1.3.5.1.-Propiedades de los estimadores
Gráficamente 9 :
87
Gráfica 2.Estimador insesgado
88
muestral. En términos del grado, mientras más eficientes es una
“estadística” más pequeña es la varianza de su distri bución.
89
empírico o probabilístico; si se usa este último, de acuerdo con la
selección que se haga con o sin reemplazo. Así según la muest ra
utilizada, es el valor que se obtiene para â y b̂ . Luego entonces para
tener una idea de las oscilaciones que pueden producirse en sus
valores al pasarse de una muestra u otra, se calculan las varianzas
de estos dos estimadores: â y b̂ , cuya interpretación es la definida en
los cursos de estadística descriptiva e inferencial, i.e., mientras más
pequeñas sean, serán más confiables los estimadores muestrales.
III.12.1.1.4.1.- Predicción.
90
En los modelos en que los coeficientes expresan elasticidades resulta fácil y
práctica sus interpretaciones puesto que se refieren a efectos porcentuales: En fin
como mera sugerencia sobre la selección del método de estimación, es
recomendable decir que de conformidad con los objetivos que tenga en mente el
investigador, ellos le indicarán cuál de los datos utilizar cuando desee estudiar un
fenómeno económico específico.
91
IV. MODELO LINEAL SIMPLE: MLS.
Cabe reiterar que así como se usa el método didáctico recurrencial para afianzar
entre los alumnos el significado delos conceptos que aquí se describen, su
aplicación correspondientes se hace de manera ampliada en la sección de
ejercicios con NTIC. También es necesario mencionar que estos conceptos se
apoyan con el instrumental de matemáticas y estadística que se presentan en los
apéndices A y B.
Así, el análisis de regresión se inicia con un modelo lineal simple, MLS, que
describe la variación promedio de Y en función de las variaciones de X. Al
respecto, se debe comentar que algunos estudiosos de la materia indican que la
regresión simple tiene escaso uso en la econometría aplicada, afirmación que yo
no acepto. Considero que independientemente de su aplicación en econometría
empírica, aquí se utiliza para introducir los conceptos básicos de la teoría que
subyace entre Y y X puesto que son sencillas las aplicaciones algebraicas que se
usan. Pero sobre todo lo describo con detalle porque considero que su uso es
imprescindible en todos los países por los micro y pequeños empresarios para
trabajar con método sus análisis de mercado, mismos que en México, éstos
representan el 98.0% del total registrado en los Censos Económicos que elabora
el INEGI quinquenalmente.
Yi X i U i …………………………….(1)
92
Como se recordará, el significado de las literales ya se dio en el Capítulo III, aquí
se reitera y amplia en consonancia con el método didáctico recurrencial.
Ello tomando en cuenta lo dicho en párrafos arriba, considera aspectos como los
siguientes: i). que la relación entre Y y X no es exacta; ii). Que por ejemplo a
través de diagramas de dispersión aplicados previamente se ha resuelto el
problema de expresar matemáticamente su relación con una forma funcional
apropiada y iii).- que dicha relación es ceteris paribus (es decir, cuando las otras
variables no explicitadas en la ecuación no tienen efectos sobre Y)
En esa ecuación se observa que si los valores de los conceptos que representa U
permanecen constantes: ceteris paribus, entonces ello indica que el cambio
93
denotado por (∆) en U es cero, situación que permite decir que X tiene un efecto
lineal, constante, en Y expresado por:
Por otra parte α se le identifica como la ordenada al origen, como coeficiente del
intercepto o también como término constante.
Por lo que se ha visto, puede decirse que la teoría económica constituye el origen
y razón de ser de la modelistica econométrica. Ello indica que la econometría es
un medio o método para alcanzar los fines económicos, de manera que una vez
aceptado el modelo con base en la bondad de ajuste estadístico de sus
estimadores con respecto a los parámetros de la población que constituye una
realidad económica, se puede crear para crear escenarios sobre relaciones
estructurales entre las variables o usarse para hacer pronósticos sobre la mismas.
Así, puede decirse que al usar el método científico de Lange para producir
conocimientos, se está en condiciones de generalizar su aplicación hacia
cualquier campo del conocimiento, y que al verificarse las hipótesis (que
provienen de la abstracción y de la concretización de la realidad del fenómeno de
interés para el investigador), estos pasan a ser parte del acervo científico en
determinado campo del conocimiento.
94
ante entre variables para constituir el cuerpo teórico de las mismas y que,
generalmente son de causa-efecto o de dependencia, por ejemplo la
dependencia de la variable Y de las cambios que operen en la variable X: Dichas
relaciones son lo que constituye en econometría “la especificación del modelo”.
95
establece la simbiosis entre las proposiciones de la teoría económica con los
datos “observados” que suponemos que cuantifican o miden la los conceptos de
la teoría a través de una teoría estadística.
En resumen pues, dada una teoría económica que da las bases para especificar
un modelo econométrico, este se convierte en el instrumento adecuado para
pretender describir, cuantificar y predecir una realidad determinada.
96
fundamentando así que r como expresión cuantitativa de su relación
tiende a +1.
Gráfica 1 sobre la Correlación positiva .
97
relación con r sólo cuando sus valor oscila entre 0 y 1; sin embargo
en tanto que r mide en términos relativos la relación que existe entre
Y y X, decimos que R 2 indica qué tanto explican los cambios de X
los cambios en Y.
98
la relación entre las dos var iables, misma que se obtiene mediante el
diagrama de dispersión, cuya traza se hace usando el sistema de
ejes cartesianos, es decir, se establecen las coordenadas de cada
uno de los puntos de Y e X que, al unirlos, dan lugar a una
distribución de puntos que es el primer indicio de la posible forma
funcional que conviene usar para expresar el modelo lineal de
regresión simple, ejemplo, si la figura es la siguiente:
Gráfica 3. Diagrama de Dispersión lineal.
Esto nos índica la distribución que tie nen los puntos de las variables.
Si tienen la forma anterior, inmediatamente se ve que el ajuste o
ecuación a manejar es lineal.
Pero si tiene la siguiente forma, entonces la ecuación a manejar es
cuadrática o de segundo grado.
80
70
60
50
40
y
30
20
10
0
0 2 4 6 8 10
99
IV.6.1. -Elección de la forma funcional cuando en el modelo se
establece la relación entre más de dos variables.
100
regresión se obtienen con el método de denominado de “mínimos
cuadrados”. Su nombre se debe a que, como se demuestra
enseguida: la suma de las diferencias elevadas al cuadrado entre los
valores reales(Y) y los estimados (Ŷ) de una muestra es un mínimo.
Gráficamente se ve así:
En virtud de que la ecuación de regresión es la que aparece en
seguida, con la cual se obtienen los valores estimados o “ajustados”
(que dan lugar a la recta de regresión) a los valores reales ( Cuadros
de color azul), la relación entre ambos gráficamente es la siguiente:
120
100
80
60
y
40
20
0
0 2 4 6 8 10 12
101
Q Yˆi a bX i Hacemos
2
2 (Yˆi a bX i )(1) 0
2 (Yˆi a b X i )(1) 0
2 Yi 2 a 2b X i 0
Dividimos entre dos y hacemos
Y i na b X i
Si dividimos entre n
Q
Si ahora hacemos 0 2 Yi a bX i ( X i )
b
2 Y X 2a X 2b X
i i i
2
0
Dividimos entre 2 y hacemos
Y Xi i a X i b X 2
Y na b X
i i (1)
X Y a X b X
i i i i
2
(2)
IV.7. Otros Métodos de Estimación
Así: i) e i 0 ó (Y i a bX i ) 0 (1)
ii) x e
i i 0 ó X i (Yi a bX i ) 0 (2)
102
Sabiendo que a na , las ecuaciones (1) y (2) también se pueden
escribir de la siguiente manera:
Y na b X .............................(1)
i i
X Y a X b X ....................(2)
i i i i
2
n X i Yi X i Yi
bˆ
n X i2 X i
2
aˆ Yi bX i
Y X i i nX (Y bˆX ) bˆ X i2
S YY (Yi Yi ) 2 Yi 2 nYi 2
S XY ( X i X i )(Yi Yi ) X i Yi nX i Yi
así como S XX ( X i X i ) 2 X i2 nX 12
103
S
La ecuación (3) se puede denotar como bˆS xx S xy obteniéndose bˆ XY
S XX
así como
aˆ Yˆ bXˆ
RSS Yi aˆ bˆX i 2
= Yi Yi bˆ X i X i
2
= Yi Yi bˆ 2 X i X i 2bˆ Yi Yi X i X i
2 2
= S YY bˆ 2 S XX 2bˆS XY
S S2
Puesto que bˆ XY , se tiene RSS S YY XY S YY bˆS XY
S XX S XX
104
IV.7.3 Otros Métodos de Estimación.
Se dice que el análisis es simple cuando sólo se estudian dos variables: una
dependiente (Y) y otra independiente) y es múltiple cuando se incluyen en el
estudio dos o más variables independientes (X, Z) para explicar los cambios en la
variable dependiente (Y).
De lo anterior se puede inferir que existe una relación de causa-efecto entre las
dos variables; sin embargo, debe enfatizarse que con este análisis de regresión
únicamente se indica que puede existir una relación matemática entre ellas, dado
que la causalidad se establece externamente, es decir, en la teoría económica
que se formula previamente.
105
IV.8.1.- Aspectos básicos a considerar para usar MCO.
1.- Puesto que entre las variables Y e X nunca existe una relación exacta, ¿Cómo
incluir otras variables que también influyan en los cambios de Y?;
2.- ¿De qué forma se puede expresar matemáticamente con propiedad esa
relación de dependencia entre Y e X?
Se debe de establecer dicha relación con la forma funcional más sencilla que es
Y=α + βX +U…………………………..(1)
106
humana (Maddala, 1996:73), así como los errores de medición de Y e X y,
también, a las otras variables no observadas que están implícitas en la
ecuación, que no aparecen como explicativas en la ecuación (1).
Precisiones
∆Y=β∆X si ∆U=0,……………..(2)
En este sentido conviene agregar que α se conoce como parámetro ( por ser del
universo o población estadística) de la ordenada al origen también llamada
intercepto o término constante ( valor que toma Y cuando X=0). Al respecto, es
importante indicar que para algunos estudiosos de la econometría, α no es de
gran interés porque no expresa lo fundamental: la determinación de la
dependencia que se establece al formular la teoría económica, en otras palabras,
para ellos α no tiene una gran importancia en la cuantificación de los efectos que
producen los cambios de X en Y.
107
Reiteración de la importancia de la selección de la forma funcional y su
identificación con el diagrama de dispersión.
¿Pero cuál es la que más aproxima (mejor ajusta) los valores estimados a los
reales, es decir dado que existen muchas formas funcionales matemáticas que se
pueden usar con ese fin, ¿cuál es la que mejor expresa la relación entre Y e X?
La respuesta la proporciona elDiagrama de dispersiónque es una gráficaque se
obtiene trazando las coordenadas de Y e X en el el sistema de ejes cartesianos.
Si al unir los puntos de esa gráfica se observa que sus puntos tienen una
tendencia ascendente o descendente, el investigador intuye que la relación entre
Y e X se puede describir adecuadamente con la forma funcional de la recta; por
otra parte, si dicha tendencia es similar al comportamiento de la de una curva de
segundo grado, se dice que la forma funcional matemática a usar es la de la
parábola, etc.
Ŷ=â+b̂X+e……………………………………………….……..(3)
Ahora bien, dado que en la muestra cada uno de los valores de Ŷ es diferente de
su correspondiente Y, su diferencia se cuantifica con e= Y- Ŷ= Y– â+b̂X , la cual
indica que cuando cierta e es mayor que 0 se refiere al hecho de que Y tiene un
valor mayor que su Ŷ correspondiente; en ese caso gráficamente se ve que Y
está por encima de su Ŷ (valor promedio) en la curva de la recta de regresión.
Por el contrario, cuando cierta e es menor que 0, ello significa que el valor de Y es
menor que el de su Ŷ (valor promedio) correspondiente y se sitúa por debajo de
ésta última.
108
IV.8.3.- Situación en que el ajuste de la recta de regresión es perfecto a los
valores de Y.
Es importante decir que idealmente siempre quisiéramos que e=0, dado que en
ese caso Y= Ŷ, lo cual no es posible por la selección aleatoria de la muestra que
se utilizó para obtener los valores de â y b̂, por su tamaño, etc. La situación ideal
gráficamente se ve en el siguiente diagrama de dispersión donde los puntos de
la recta de regresión están sobrepuestos en los puntos reales de Y cuando r=-1
indicando que la asociación o relación de Y con X es perfecta, pero inversa o
negativa dado que la pendiente de la recta de regresión es negativa.
Ahora bien cuando r=+1, el siguiente diagrama de dispersión muestra que los
puntos de la recta de regresión también están sobrepuestos en los puntos reales
de Y indicando que la asociación o relación de Y con X es perfecta, pero directa o
positiva, lo cual se constata con la pendiente positiva de la recta de regresión.
109
El cual indica que no hay relación o asociación clara entre las variables Y e X.
E(U)=0 ……………....(5)
La covarianza E(U/X)=E(U)………………………………………………(6)
IV.8.4.-Aleatoriedad de X y U.
Por otra parte decimos que estas dos variables: X, U son aleatorias porque
expresan eventos impredecibles difíciles de prever: Ejemplo de la primera es que
X puede provenir de cierta muestra seleccionada aleatoriamente de entre muchas
a disposición del investigador. El ejemplo de la aleatoriedad de U se ilustra con
cualquiera de las tres fuentes que le dan origen, y que fueron descritas párrafos
arriba.
Ahora bien combinando las ecuaciones (5) y (6) se puede arribar al concepto de
“Bondad de Ajuste” en los siguientes términos: Primero, E(U/X)=0 ayuda a
visualizar mejor la ecuación (1) ahora en dos componentes: al componente α+βX
que representa a E(Y/X) se le denomina “parte explicada de Y por X”; segundo,
por ende, a U se le conoce como la parte no explicada en Y por X.
110
de los valores estimados de α y β con â y b̂, respectivamente. En otras palabras,
los valores de Ŷ de la muestra serán próximos a los de Y del universo estadístico,
cuya suma del cuadrado de sus diferencias: ∑(Y- Ŷ)2 es un mínimo obtenido con
MCO.
E(Y/X)=α+βX…………………………………………………..………….(7)
Ecuación que muestra que la función de regresión poblacional, E(Y/X), “es una
función lineal de X, donde la linealidad significa que por cada aumento de una
unidad en X el valor esperado de Y se modifica en la cantidad β” (Wooldridge,
2009: 26). Al respecto, recuérdese que el valor esperado es el valor promedio de
Y que se obtiene en función de las fluctuaciones de X.
Inicio: Una vez que se han obtenido los estimadores (â y b̂) de de los parámetros
poblacionales ( α y β) con MCO, de manera que ya se dispone de una recta de
regresión que, a su vez, permite “ajustar” los valores estimados (Ŷ) a los reales de
(Y) , el siguiente paso es constatar que con esa función matemática se expresa
bien la teoría económica .Ello se puede hacer en dos formas:
111
muestrales de la ecuación de regresión, en una prueba de hipótesis sobre la
significación estadística de sus parámetros poblacionales correspondientes, en
este caso tanto de α como de β y de r, como se explica a continuación:
xy aˆ x bˆ x cˆ x
2 3
(2)
x y aˆ x bˆ x cˆ x
2 2 3 4
(3)
112
Observar la siguiente tabla:
V en d ed o r V en t as E xp er ie n c i as en X 2 X3 X4 X*Y X2 *Y
( Y) añ o s ( X)
A 9 6 36 21 6 1, 2 96 54 32 4
B 6 5 25 12 5 62 5 30 15 0
C 4 3 9 27 81 12 36
D 3 1 1 1 1 3 3
E 3 4 16 64 25 6 12 48
F 5 3 9 27 81 15 45
G 8 6 36 21 6 1, 2 96 48 28 8
H 2 2 4 8 16 4 8
113
ŷ e ( y yˆ ) e 2 ( y yˆ ) 2 (Y Y ) (Y Y )2
8.3464 0.6536 0.4272 4 16
6.1329 -0.1329 0.0177 1 1
3.4111 0.5889 0.3468 -1 1
2.9629 0.0371 0.0014 -2 4
4.4878 -1.4878 2.2135 -2 4
3.4111 1.5889 2.5246 0 0
8.3464 -0.3464 0.1200 3 9
2.9028 -0.9028 0.8150 -3 9
40 0.0 6.4662 0 44
Objetivos
114
interpretar estadística y económicamente dichos valores; en particular se
hará énfasis en el ajuste de los valores estimados a los observados ;
6. Realizar inferencias sobre los parámetros de la población o universo
estadístico que representa la forma funcional, inicialmente de la recta de
regresión para después sofisticar el estudio;
7. Predecir e interpretar intervalos de confianza e intervalos de predicción
para la variable dependiente;
8. Realizar una prueba de hipótesis para verificar si con este modelo se
constata la teoría económica establecida previamente.
Donde el Consumo está en función del ingreso, en este caso del PIB.
Consumo aˆ bˆPIB eˆ
aˆ 0
9 El PIB puede ser calculado o analizado desde tres concepciones: 1) Método del gasto; 2) Método
del ingreso; y 3) Método del Valor Agregado.
10 En matemáticas â es la ordenada al origen.
115
Por su parte b̂ representa la Propensión Marginal a Consumir (PMgC), misma que
mide cuanto se incrementa el consumo cuando se incrementa en una unidad el
ingreso11, por tanto, el valor que asume b̂ se encuentra entre 0 y 1:
0 ≤ b̂ ≤ 1
PMgS = 1- b̂
Ahora bien, en cuanto al software, EViews tiene una estructura tipo Windows, la
cual contiene una barra de menú, una barra de comandos, el área de resultados o
de trabajo y una barra de estado de la aplicación (ver Cuadro 1.1).
11 En matemáticas b̂ es la pendiente.
116
Para generar o crear un nuevo archivo de trabajo, desde la barra de menú vamos
a File/ New/ Workfile con lo cual se desplegará una ventana en la cual deberá
especificarse la frecuencia de los datos (Date specification) e inclusive, de manera
opcional, el nombre del archivo de trabajo (Workfile) y de la página de éste
(Names (optional)). Asimismo, también puede obtenerse dicha ventana
escribiendo en la barra de comandos la palabra “new” seguido de la tecla enter.
Cabe mencionar que en la opción de tipo de estructura del archivo de trabajo
(Workfile structure type) por el momento nos quedaremos con aquella que el
programa proporciona por default, a saber, Datos – Frecuencia regular (Dated –
regular frequency) (ver Cuadro 1.2).
En cuanto a la especificación de los datos el programa proporciona diversas
opciones desplegando la lista de la opción frecuencia (Frequency), entre ellas:
datos de frecuencia anual (Annual), datos semestrales (Semi-annual), datos
trimestrales (Quarterly), datos mensuales (Monthly), datos semanales (Weekly),
datos diarios con semanas de 5 días (Daily – 5 day week), datos diarios con
semanas de 7 días (Daily – 7 day week) y datos sin frecuencia definida (Integer
date) (ver Cuadro 1.3).
117
Cuadro 1.3. Frecuencia de los datos.
118
poseen el mismo periodo y por ende el mismo número de observaciones: 124 en
total. Si deseáramos ampliar o disminuir el rango basta con dar un doble click
sobre el mismo dentro de la ventana del Workfile; de forma similar, se
deseáramos únicamente trabajar con una parte del rango, es decir, con una
muestra de éste, entonces hay que dar un doble click sobre el Sample y en la
ventana que despliega escribir el rango de la muestra que se va a utilizar.
Posteriormente, el archivo de trabajo genera dos objetos por default, por un lado,
un objeto coeficiente de vectores (β) y, por otro, un objeto serie titulado “residuos”
(Resid). Para guardar el Workfile vamos a la barra de menú del programa, a File/
Save as/ y en la ventana que despliega seleccionaremos el lugar en donde
deseamos guardar el archivo, se le pondrá un nombre y deberemos asegurarnos
que el tipo de archivo sea con terminación “wf1” lo que indica que se trata de un
archivo de trabajo (Workfile). En nuestro caso el archivo se llamará “Teoría del
consumo”. En caso de que no se muestre la terminación “wf1” deberemos volver a
la ventana del archivo de trabajo seleccionándola dando un click sobre la barra de
titulo y volver a seguir los pasos antes descritos. Al realizar la operación de
guardar, el programa nos desplegará una ventana cuestionando sobre la
conservación de los datos en el archivo de trabajo, la opción “Single precision”
creará archivos más pequeños en el disco pero guardará los datos con menos
dígitos de precisión, por lo que se corre mayor riesgo en cuanto a perder
información o dañarse el archivo, por su parte “Double precision” creará archivos
más grandes en el disco pero guardará los datos con más dígitos de precisión (16
frente a 7).
Por otra parte, existen varias formas para ingresar los datos: 1) Desde menú; y 2)
Desde comandos. En cuanto al menú, vamos a Quick/ Empty Group (Edit Series),
con lo cual se desplegará una ventana tipo Excel en la cual podrán capturarse o
pegarse los datos (ver Cuadro 1.6). Esta ventana es un objeto grupo, misma que
posee una barra de menú y un área para capturar los datos. Para colocar el
nombre a las series hay que desplegar completamente hacia arriba la barra
desplazadora de la derecha, después colocáremos el cursor en la primera celda
en blanco con el nombre de “Obs” y escribiremos la palabra “consumo” seguido
de oprimir la tecla enter, el programa devolverá una ventana cuestionando sobre
el tipo de objeto que se va a crear, si se trata de una serie numérica (Numeric
series), series numéricas que contienen fechas (Numeric series containing dates)
o series alfa (Alpha series), en este caso seleccionaremos la primera opción y por
tanto la primera columna se llama “consumo”; en seguida realizamos el mismo
procedimiento pero ahora nombráremos a la columna 2 como “PIB” (ver Cuadro
1.7). Automáticamente el programa generará las variables de forma individual
como objetos serie, mismos que aparecerán en el Workfile, si nosotros deseamos
guardar las series pero como objeto grupo, es decir, de forma conjunta, entonces
en la ventana del objeto grupo en la barra de menú vamos a Name/ y en la
ventana que despliega, “Object name”, escribimos el nombre del grupo (Name to
identify object), en este caso nos quedáremos con el nombre que el programa
119
proporciona por default “group01” mismo que aparecerá en el Workfile (ver
Cuadro 1.8 y 1.9)
Cuadro 1.6. Ventana de datos.
120
Cuadro 1.9. Estructura del Workfile.
En nuestro caso, para colocar los valores de las series Consumo y PIB los
copiáremos del archivo de la base de datos en Excel y los pegáremos en la
ventana del objeto grupo a partir de la fecha 1980Q1 dando un click derecho y
seleccionando la opción “Paste” (ver Cuadro 1.10). Con ello se estará ya en
condiciones de analizar el comportamiento de cada una de las series, la relación
entre ellas y los resultados del análisis de regresión.
Por otra parte, para capturar las series desde la barra de comandos, en ésta
escribiremos “data consumo PIB” con lo cual se desplegará una ventana como la
que se muestra en el Cuadro 1.8, sin necesidad de escribir el nombre de las
variables en cada una de las columnas como en la forma anterior. A continuación
se copian y pegan los valores de las series siguiendo los pasos anteriormente
descritos.
121
Una vez que ya están creadas las series (como se muestra en el Cuadro 1.9)
podemos realizar el análisis gráfico y estadístico de las mismas. Para ello, desde
la ventana del workfile seleccionamos primero la serie “PIB”, por tratarse de la
variable independiente, dando un click izquierdo sobre ella en el workfile y
después seleccionamos la serie “Consumo”, por tratarse de la variable
dependiente, oprimiendo la tecla “control” y dando un click sobre la misma. A
continuación, damos un click derecho dentro de la selección anterior, con lo cual
se desplegará una lista de opciones, vamos a open/ as Group, (ver Cuadro 1.11),
con lo que abriremos de forma conjunta las dos series (ver Cuadro 1.12). Lo
mismo puede obtenerse dando un doble click sobre el objeto grupo (group01) que
guardamos en el workfile.
-
Cuadro 1.11. Apertura de series.
122
Ahora, sobre la ventana de datos (Cuadro 1.12) vamos a View/ Graph/ Line, con
lo que se obtendrá una ventana con las gráficas conjuntas del PIB y el Consumo
(ver Cuadro 1.13). No obstante, el programa proporciona una amplia variedad de
tipos de gráficos: lineales (Line), de áreas (Area), de barras (Bar), etc., así como
gráfica de forma individual, para ello en la ventana de los datos vamos a View/
Multiple Graphs/ Line, con lo cual se obtendrá una ventana como la que se
muestra en la gráfica 1.1.
Gráfica 1.1. Gráfica lineal del PIB y el Consumo Privado de México, 1980-
2010.
(Miles de pesos a precios constantes de 2003)
123
Gráfica 1.2. Gráficas individuales de las series.
124
Cuadro 1.13. Opciones de gráfica.
Análisis Estadístico.
Para realizar el análisis estadístico de las series, una vez que éstas se han abierto
conjuntamente (ver Cuadro 1.11 y 1.12) vamos a View/ Descriptive Stats/
Common Sample/ok con lo que se desplegará una ventana como la que se
muestra en el Cuadro 1.14.
Cuadro 1.14. Análisis estadístico de las series.
125
La ventana anterior proporciona estadísticos como la media (Mean), la mediana
(Median), el valor máximo (Maximum), el valor mínimo (Minimum), la desviación
estándar (Std. Dev.), la asimetría (Skewness), la curtosis (Kurtosis), la estadística
de normalidad Jarque-Bera (JB) con su probabilidad asociada (Jarque-Bera y
Probability), la suma de todas las observaciones (Sum) y el número de
observaciones (Observations) para cada una de las series.
De los datos anteriores se desprende que ninguna de las dos series, PIB y
Consumo, son simétricas, pues la media no es igual a la mediana. Asimismo,
éstas son platocúrticas ya que la curtosis es menor a 3 y ambas están cargadas a
la derecha de la media ya que la asimetría es mayor que cero, por lo que las
series no se distribuyen como una normal. Por otra parte, la estadística Jarque-
Bera (JB), misma que se abordará con mayor detalle más adelante, permite
probar la normalidad de las series, para ello se establece la siguiente prueba de
hipótesis:
Ho: La serie se distribuye como una normal.
Ha: La serie no se distribuye como una normal.
n = Número de observaciones.
s = Asimetría.
k = Kurtosis.
126
de mínimos cuadrados se realizan sobre los residuales obtenidos a través de la
regresión y no sobre las series originales. Así, el estudiante tendrá que poner
especial atención en la correcta especificación del modelo en cuanto a la forma
funcional, tamaño de la muestra, omisión de variables relevantes, inclusión de
variables redundantes, etc.
127
Selección de la forma funcional con el diagrama de dispersión.
Como puede apreciarse la relación que siguen las variables se ajusta a una línea
recta.
128
despliega “Global Fit Options” no modificamos nada, seleccionamos Ok., con lo
cual se despliega una ventana como la que se muestra en la gráfica 1.4.
La ecuación de regresión.
129
Cuadro1. 16. Estimación de la ecuación.
130
La ventana mostrada en el Cuadro 1.17 contiene los resultados de la regresión.
Así, en la parte superior se muestra el nombre de la variable dependiente
(Dependent Variable), el método de estimación (Method), el día y la hora de
creación (Date and Time), la muestra (Sample) y el número de observaciones
(Included observations). Posteriormente en la parte central de la ventana de
resultados se muestra el nombre de los estimadores (Variable), donde la “c”
representa al estimador â y “PIB” al estimador b̂ , hacia la derecha se muestra el
valor de los estimadores (Coefficient), seguido de su respectivo error estándar
(Std. Error), el valor de su “t” estadística (t-Statistic) y la probabilidad asociada a la
misma. En la parte inferior de la ventana de resultados se muestra el coeficiente
de determinación (R2), el coeficiente de determinación ajustado ( R 2 ), el error
estándar de la regresión o estimación (S. E. of regression), la suma de los
residuos al cuadrado (Sum squared resid), el logaritmo de verosimilitud (Log
likelihood), la estadística Durbin-Watson (Durbin-Watson stat), la media de la
variable dependiente (Mean dependent var), la desviación estándar de la variable
dependiente (S. D. dependent var), el criterio de información de Akaike (Akaike
info criterion), el criterio de Schwarz (Schwarz criterion), la “F” estadística (F-
statistic) y su probabilidad asociada (Prob(F-statistic)).
Como se recordará, en teoría, â debe ser mayor que cero, pues representa el
consumo mínimo (autónomo) que la sociedad debe tener, independientemente de
su ingreso monetario. Por lo que al ser el coeficiente de dicho estimador negativo
131
no se está cumpliendo con la teoría establecida, ello puede deberse a una mala
especificación de la forma funcional, al tamaño de la muestra, a la omisión de
variables explicativas, a la naturaleza de los datos, etc. No obstante, si se verifica
que se cumple con todos los supuestos del método de estimación y dicho
estimador continúa sin ser positivo se concluirá que la teoría así establecida no se
cumple para el caso de México temporal y espacialmente, conclusión que puede
ser totalmente aceptable, siempre y cuando se cumpla a cabalidad con los
supuestos del método.
Ahora bien, en caso de que el valor del PIB fuera de cero, de acuerdo con la
ecuación de regresión, el consumo autónomo, â , será de – 392238091.6 miles
de pesos constantes de
2003, puesto que:
Lo que significa que por cada unidad monetaria adicional de ingreso obtenido,
0.7205 se destinan al consumo y 0.2795 a ahorrar.
132
de decisiones, puesto que desconocemos aún si se cumplen o no los supuestos
detrás del método de estimación12.
bˆ 0.720557 0
t 62.9303
sbˆ 0.011450
Así, al ser t = 62.9303 > tα = 2.2694 se rechaza la Ho, por lo que la variable
independiente explica a la dependiente, en nuestro caso, el ingreso (PIB) explica
al consumo al 95% de probabilidad de que así sea.
12 Como se verá más adelante, el incumplimiento a los supuestos del método de estimación
genera estimadores sesgados, ineficientes, inconsistentes, etc., lo cual conlleva a que los
resultados obtenidos no puedan ser aceptados y utilizados con fines de análisis de estructura, de
predicción y de toma de decisiones.
133
El programa también proporciona la probabilidad asociada al estadístico “t” (p-
value), la cual representa la probabilidad máxima a la cual se rechaza la Ho. Los
criterios de decisión, con un nivel de significación al 5%, para rechazar o no la Ho
con el p-value son:
F = t2
F = (62.93031)2 = 3960.224
Bondad de ajuste.
134
El coeficiente de determinación ajustado ( R 2 ), el cual se ajusta mediante la
introducción de grados de libertad, determina la variación que es explicada por la
variable independiente, con respecto a la variable dependiente, cuando se
introduce una variable independiente adicional al modelo. Éste viene dado por:
n 1
R 2 1 (1 R 2 ) *
n k
Donde:
124 1
R 2 1 (1 0.970101) *
124 2
123
R 2 1 (0.029899) *
122
R 2 1 (0.029899) *1.008196
R 2 0.969869
r R 2 0.970101 0.984944
Como se recordara “r” asume valores desde -1 hasta 1, pasando por el cero. El “r”
no mide causalidad o dependencia, mide el grado de relación o asociación que
existe entre dos variables, pudiendo tener éstas una relación inversa o negativa,
cuando “r” tiene signo negativo, y directa o positiva, cuando “r” tiene signo
positivo. En teoría se considerará un “r” aceptable cuando éste asume un valor
mayor o igual a 0.5 en términos absolutos, trabajando con las series en sus
valores originales (niveles). Así, para nuestro ejemplo, obtuvimos un r=0.984944,
lo que significa que existe un alto grado de asociación entre las dos variables y
además dicha relación es directa, dado el signo positivo, por lo que si una crece la
otra también lo hará y viceversa. Cabe mencionar que al decidir el signo del
resultado de la raíz cuadrada del R2 nos quedamos con el positivo, en este caso,
135
porque el signo obtenido en la ecuación de regresión del estimador de la variable
independiente, el PIB, es positivo.
Correlación parcial.
Por su parte, EViews presenta “r” como una matriz de correlaciones parciales,
para generarla existen dos formas: 1) Desde menú; y 2) Desde comandos. Para el
caso del menú, una vez que se han abierto las series conjuntamente (ver Cuadro
1.12) vamos a View/ Correlations/ Common Sample, con lo cual se desplegará
una ventana como la que se muestra en el Cuadro 1.19. Desde comandos, en la
barra de comandos escribimos: cor pib consumo, seguido de oprimir la tecla
enter, con lo que se desplegará una ventana igual a la del Cuadro 1.19. Como
puede apreciarse la diagonal principal de la matriz de correlaciones es igual a 1,
ya que se están relacionando las variables consigo mismas, aquí lo que interesa
son los coeficientes de correlación parciales que están por arriba o por debajo de
la diagonal principal de la matriz y que son exactamente iguales, ya que la matriz
es simétrica. Así, el “r” entre el consumo y el PIB es exactamente igual al “r” entre
el PIB y el consumo.
Observaciones: Por ser regresión simple vemos que ambos, los coeficientes de
correlación general y parcial tienen el mismo valor porque sólo se usa una
variable explicativa; en otras palabras, si fuera regresión multiple, ergo, que
usaramos dos o más variables explicativas, sus valores difiririan, como se verá
mása adelante.
Finalmente, por lo que respecta a los valores estimados del consumo a través de
la ecuación de regresión ( Yˆ ), estos se obtienen al sustituir los valores que asume
la variable independiente, el PIB, en dicha ecuación. Así, por ejemplo, el valor que
asume el PIB en el primer y segundo trimestre de 1980 es 4384924682.44 y
4372424964.63 miles de pesos constantes de 2003, respectivamente. Estos
136
valores se sustituyen en la ecuación de regresión, obteniendo para el primer
trimestre de 1980:
Errores o residuos.
Los errores o residuos se obtienen de restar al valor real de la variable
dependiente, en este caso el consumo, el valor estimado de la misma mediante la
ecuación de regresión, en este caso Consˆumo , es decir:
ei Y Yˆ Consumo Consˆumo
Así, el error tanto para el primero como para el segundo trimestre de 1980 es:
137
Cuadro 1.20. Valores reales y estimados de la variable dependiente y
errores.
138
IV.12.1.1.1.- Predicción.
139
Una vez realizado el procedimiento anterior, en el Workfile seleccionamos y
abrimos la serie “PIB” dando doble click sobre ella. Con ello se obtienen los
valores de la serie comentada, nos desplazamos sobre dicha ventana hacia a
bajo y observamos que ahora contiene una celda vacia, misma que representa el
incremento que realizamos tanto al Rango como a la muestra (ver Cuadro 1.23).
140
Cuadro 1.24. Nueva composición de la serie PIB.
141
En el Cuadro 1.26 se muestra el estadístico de Theil entre otros indicadores
estadísticos. Éste en particular nos permite determinar la bondad estadística de la
proyección: Cuando Theil tiende a cero se dice que la proyección es confiable, lo
cual se corrobora al observar en la gráfica que los valores estimados y el
proyectado se encuentran dentro de las bandas de confianza.
142
IV.12.1.2.- Ejemplo 2: Hipótesis del crecimiento económico impulsado por
las exportaciones.
En este contexto, tomando como base la Ley de Thirlwall, en la cual explica que la
demanda de exportaciones es fundamental para explicar las diferencias de
crecimiento entre países, se formulará una hipótesis en la que las exportaciones
afectan positivamente al crecimiento de la economía en los países que mantienen
relaciones de comercio exterior. Asimismo, Michaely y Balassa(bibliografía),
suponen que la liberalización comercial es un instrumento eficaz para promover el
crecimiento de los países. Estos autores obtuvieron coeficientes de correlación
significativos y positivos entre las tasas de crecimiento de las exportaciones y las
tasas de crecimiento económico de diversos países (Cuadros, 2000: 38).
143
El modelo matemático se plantea de la siguiente manera:
Esto quiere decir que el Producto Interno Bruto está en función de las
exportaciones.
â + b̂ X+ ê
La relación teórica entre el Producto Interno Bruto (PIB) y las exportaciones (X) es
directa, es decir, si las exportaciones crecen se espera que el Producto Interno
Bruto también lo haga, y viceversa, si las exportaciones disminuyen el Producto
Interno Bruto también lo hará.
aˆ 0
En cuanto a b̂ , éste es el multiplicador del Producto Interno Bruto (PIB) ante los
cambios que pueden suscitarse dentro de las Exportaciones, en este caso se
espera que éste sea positivo de acuerdo con la teoría.
bˆ 0
144
Ejemplo 2: Crecimiento impulsado por las exportaciones.
En las gráficas individuales podemos observar que tanto el PIB como las
exportaciones tienen pendientes crecientes. En el caso de las exportaciones se
da un rápido crecimiento durante 1990 hasta el año 2000, ello debido a que
durante la década de 1990 Estados Unidos tuvo un crecimiento promedio de
3.3%, por lo que se incrementó la demanda interna y se necesitaba abastecer
estos mercados importando bienes y servicios. Esto fue ventajoso para México
debido a la cercanía y las relaciones comerciales que se estaban formando, todo
esto culminando con la firma del Tratado de Libre Comercio en 1994. Durante el
período de 2000 a 2010 las exportaciones crecen pero no tan aceleradamente
debido a que Estados Unidos sufrió dos crisis, en 2001-2002 y en 2008-2009,
esta última crisis se originó en el sector financiero, afectando a la economía real
reduciendo el consumo en todo el mundo y contrayéndose las exportaciones.
En cuanto al PIB se ven los efectos negativos dentro de 1995 debido al error de
diciembre con la devaluación del peso causando una salida masiva de capitales
del país y en 2008 debido a la crisis originada en Estados Unidos por la burbuja
hipotecaria, que afectó de manera directa y en mayor proporción que otros países
latinoamericanos debido a la fuerte dependencia de exportaciones e
importaciones con aquel país.
145
Análisis estadístico inicial.
Por otra parte, tanto las curvas del PIB como las exportaciones no se distribuyen
simétricamente, pues la media no es igual a la mediana. En cuanto al grado de
picudez de la curva, son platocúrticas ya que la curtosis en el caso del PIB es
1.72<3 y en las exportaciones 2.26<3. Las series no son simétricas, siguen una
asimetría positiva o cargada a la derecha ya que el coeficiente de asimetría es
mayor que cero, por lo que las series no se distribuyen como una normal (ver
Cuadro 2.1).
146
Cuadro 2.1. Histograma y estadísticas de las series.
147
Gráfica 2.3. Diagrama de dispersión con regresión.
La recta de regresión (gráfica 2.2) muestra la forma en que el promedio del PIB
aumenta conforme lo hacen las exportaciones, en este caso su relación parece
ajustarse a una línea recta.
148
Como se recordará, en caso de que el valor las de exportaciones fuera de cero,
de acuerdo con la ecuación de regresión vemos que el PIB independiente del
comportamiento de las exportaciones, ( â ), será de 4531969112 miles de pesos
constantes de 2003 puesto que:
Ho: β = 0, por tanto, las exportaciones (X) no explican al Producto Interno Bruto
(PIB).
Ha: β ≠ 0, por tanto, las exportaciones (X) explican al Producto Interno Bruto
(PIB).
Así, al ser t = 52.53 > tα = 2.2694 se rechaza la Ho, esto quiere decir que la
variable independiente explica a la dependiente, es decir, las exportaciones
explican al PIB al 95% de probabilidad de que así sea.
149
2. Si la probabilidad asociada al estadístico “t” es mayor a 0.05 no se rechaza
la Ho.
Bondad de ajuste.
Finalmente, por lo que respecta a los valores estimados del Producto Interno
Bruto a través de la ecuación de regresión ( Yˆ ), estos se obtienen al sustituir los
valores que asume la variable independiente, las exportaciones, en dicha
ecuación. Así siguiendo el ejemplo 1, tomáremos el valor que asumen en este
caso las exportaciones en el primer y segundo trimestre de 1980 que equivalen a
5,810.920 y 6,059.96 millones de dólares, respectivamente. Estos valores se
150
sustituyen en la ecuación de regresión, obteniendo para el primer trimestre de
1980:
Mediante EViews se pueden obtener la tabla y la grafica de los valores reales del
PIB, de los valores estimados de la variable dependiente PIˆB , y los errores, esto
véase en la obtención en el Cuadro 2.4 y 2.5 siguientes:
151
Gráfica 2.5. Representación de los valores observados y estimados de la
variable dependiente y lo errores.
152
empresas piden préstamos para comprar bienes de capital por lo que la tasa de
interés es un determinante fundamental para ampliar los activos fijos de compra.
Cuanto más alto es el tipo de interés de esos préstamos, menores son los
beneficios que pueden esperar obtener las empresas pidiendo prestamos para
comprar nuevas maquinas o edificios y por lo tanto menos estarán dispuestas a
pedir préstamos y a invertir. En cambio, cuando los tipos de interés son más
bajos, las empresas desean pedir más préstamos e invertir más.
aˆ 0
153
adicional, por tanto, el valor que asume b̂ será menor que cero por la relación
inversa de las variables, la tendencia de la regresión será negativa, ya que, como
lo habíamos afirmado, cuando aumenta la tasa de interés disminuye la inversión.
Por cada unidad porcentual que se incremente la tasa de interés, dicho
incremento se verá reflejado en la inversión según la magnitud de “b”, por ser
este el multiplicador.
0 > b̂
Pasemos ahora a analizar el comportamiento de las series. En la gráfica 3.1
observamos la tendencia de nuestras variables; la inversión por su parte tiene
tendencia creciente, al paso del tiempo tiene 3 caídas notables que se explicaran
históricamente más adelante. La tasa de interés cuenta con una tendencia hacia
la baja, hacia el año 2010 es constante y estable con las cifras más bajas en el
periodo establecido para nuestro estudio, aunque se pueden observar claramente
tres periodos con un aumento considerable de la tasa de interés, estos valores
altos coinciden con la tendencia a la baja del interés.
154
Análisis estadístico inicial.
Del análisis anterior se desprende que los datos son muy volátiles en ciertos
puntos como lo vimos en la grafica de tendencia ya que los valores de la tasa de
interés están entre 4.12 a 122.0400, medidos en unidades porcentuales, que
comparados con la mediana del interés, ésta se encuentra cargada hacia la
izquierda de la media con valor de 16.55; si hablamos de la inversión, pasa lo
mismo, los datos están cargados a la izquierda de dicha media aritmética (1.27e).
Ninguna de las dos series, Inversión e Interés, son simétricas, pues la media no
es igual a la mediana. La asimetría es positiva con valores en el interés de 1.65 y
en la Inversión de 0.31, esta asimetría positiva quiere decir que la cola de la
derecha es más larga que la de la izquierda, es decir, hay mas valores separados
de la media a la derecha, por lo que las series no se distribuyen como una normal.
Esto es más fácil de observar en los histogramas.
155
Con el análisis de la curtosis, en el caso del interés, ésta es leptocúrtica ya que
está por encima de la normal (con valor 3 para la mesocúrtica), o sea que es más
alta y fina. Hay una mayor centralización de las variables en torno a la media; esto
se corrobora con el histograma donde tiene pocos valores pero muy altos. Con la
inversión pasa lo contrario, al ser menor que 3 es platocúrtica, es decir, responde
a una distribución por debajo de la normal. La no normalidad de las series se
corrobora con la estadística Jarque Bera. Para ello se plantea la siguiente prueba
de hipótesis:
156
recta de regresión, que también ha sido trazada y que muestra la relación
“promedio” que existe entre las dos variables.
Como se recordará, en teoría, âdebe ser mayor o igual que cero, pues representa
la inversión que las empresas deciden hacer independientemente de la tasa
interés. Si la tasa de interés fuera igual a 0% la inversión sería de 1576792123
miles de pesos constantes de 2003.
En cuanto al valor del estimador b̂ , observamos que la teoría se cumple con este
dato ya que por cada unidad porcentual que se incremente el interés este se verá
reflejado en una disminución de la inversión de 11608400.65 miles de pesos
157
constantes de 2003, de forma inversa, si la tasa de interés disminuye en 1%
entonces la inversión se incrementará en 11608400.65 miles de pesos constantes
de 2003. La tasa de interés tiene relación inversa con la inversión, por ello, el
signo del estimador es negativo. Con los resultados de la regresión corroboramos
la teoría planteada en el principio del ejercicio.
bˆ - 11608401 0
t bˆ -11.035461 9
s bˆ 1051918
158
Los criterios para rechazar o no la Ho son los siguientes:
Así, al ser t = 11.03547 > tα = 2.2694 se rechaza la Ho, por tanto, los CETES a
28 días (Interés) explican a la Inversión.
159
r R 2 0.544198 0.73769777
Así, el error tanto para el primero como para el segundo trimestre de 1985 es:
160
en 1988 a 1994 dadas las situaciones que analizábamos antes, ya que en
tiempos de crisis, las variables pueden comportarse de manera distinta o atípica;
de la grafica también se desprende la magnitud de los errores.
161
En el Cuadro 14 se observa la inversión en datos reales en color azul, y la
inversión resultante de nuestra regresión en color rojo, las dos series cambian
mucho, mientras en una vemos una tendencia marcada, en la serie estimada
Inversionf tenemos que es mas horizontal con algunas caídas notables, pero
dentro de un rango mas pequeño, esto puede deberse como ya lo habíamos
dicho a una mala especificación del modelo o a el manejo de una forma funcional
equivocada.
162
Gráfica 3.6 Pronóstico de la variable dependiente.
c) El diagrama de dispersión;
163
Su fin es determinar por inspección ocular la relación funcional entre
X y Y.
Yˆi a bX i
Yˆi a bX i ei
164
Porque su suma es igual cero.
Para la verdadera: Yi X i U i
Para la estimada: Yˆi a bX i ei
165
Se calculan:
n 12, Yi 1,524, Y 127, X i 1,740, X 145, X i Yi 225,124, X i2 257,12
a Yi bX i =127-(0.86*145)=127-124.70=2.30
160
Yˆ 2.30 0.86 X i
140
CONSUMO Y
120
100
100 120 140 160 180
INGRESO X
1. ¿Qué es regresión?
2. ¿Qué es correlación?
166
4. ¿Entre que valores oscila el valor de r?
El valor de r oscila entre los valores –1 hasta + 1, pasando por el cero. En donde
si r tiene un valor de – 1, decimos que existe una fuerte relación o correlación
negativa o inversa entre X e Y, es decir, tiene una relación decreciente o lo que es
lo mismo, a medida que X aumenta Y disminuye. Si r toma el valor de + 1,
entonces decimos que existe una fuerte relación positiva entre X e Y, es decir,
tiene una relación creciente, lo cual significa que a medida que X aumenta Y
también lo hace. Por último, si r tiene un valor de 0, se sostiene que existe nula
relación o correlación entre X e Y.
Y i na b X i (1)
X Y i i a X i b X i2 (2)
y na b x c x 2
(1)
xy a x b x c x2 3
(2)
x y a x b x c x
2 2 3 4
(3)
167
independiente, también llamado el error estándar del estimador. El
primero indica qué tan próximos están los valores estimados con la
ecuación de regresión, de los valores reales u observados de la
variable dependiente; el segundo sirve para calificar la calidad de la
estimación del parámetro del universo con el coeficiente o
“estadístico muestral” de la variable independiente. De tal suerte
que, en este segundo caso, si se obtiene una error estándar de la
estimación pequeño, se dice que el valor del parámetro muestral es
cercano al poblacional, y por tanto, la estimación es adecuada y
viceversa.
168
C.- EJERCICIO CON RESPUESTAS.
Nombre del
alumno:__________________________________________________
__
Años Yi Xi
1 102 114
2 100 118
3 108 126
4 110 130
5 122 136
6 124 140
7 128 148
8 130 156
9 142 160
10 148 164
11 150 170
12 154 178
donde:
â = 2.30, b̂ =0.86
Preguntas:
1. ¿Cuál es el significado de a y de b?
El estimador â =2.30 es la ordenada al origen y el valor del consumo
total cuando el ingreso disponible es cero. Como â >0 se confirma
dY
que siempre habrá un consumo básico. El estimador bˆ 0.86 es
dX
la pendiente de la línea de regresión estimada. Mide la propensión
marginal al consumo o el cambio que experimenta el consumo con el
cambio en una unidad adicional en el ingreso. Como 0< b̂ <1 confirma
la teoría del consumo de que las personas incrementan sus gastos
de consumo cuando aumenta el ingreso disponible, pero en menor
proporción que este.
169
X
2. Sabiendo que b̂
Y
Donde:
X 145
Y 127
Calcule e interprete
X ˆ 145
Tenemos b * 0.86 0.98
Y 127
Interpretación: mide el cambio porcentual en consumo derivado de
un cambio porcentual en el ingreso disponible.
H o : =0 versus H A : 0
170
7. Con =5% pruebe si y son significativos estadísticamente.
Interprete los resultados.
aˆ a 2.30 0
ta 0.32 . Dado que t 2.228 en una prueba de dos
Saˆ 7.17
colas decimos que no es significativa estadísticamente: no
rechazamos Ho.
bˆ 0.86 0
Igualmente si t 17.2 . Como t β >t a decidimos aceptar
S bˆ 0.05
H A y decimos que estadísticamente difiere significativamente de
cero, que X i si explica a Y i . Observación si hubiéramos aceptado H o ,
no se cumpliría la relación hipotética de Y i con X i , mismo que
debemos modificar y reestimar hasta lograr una relación est imada de
consumo satisfactoria.
Tal que está entre –13.67 y 18.27 con confianza del 95%. Como
dice Salvatore (1991:103) el intervalo es más amplio (e insensato), lo
cual es consecuencia de que es altamente insignificativa.
171
5. ¿Qué es un estimador suficiente?
6. ¿Qué es un estimador eficiente?
7. Explique usted las hipótesis o supuestos básicos del modelo de
regresión lineal clásico.
8. Con los datos de Y i : inversión en miles de pesos, X i : tasa de
interés en porcientos, estime la ecuación de regresión de Y i
sobre X i .
Yi Miles de Xi Tasa de
pesos interés
6 9
8 10
8 8
7 7
7 10
12 4
9 5
8 5
9 6
10 8
10 7
11 4
9 9
10 5
11 8
9. Con los datos anteriores probar con un nivel de significación del 5%, la
significación estadística de los parámetros y .
10. Hallar e interpretar R2 y R 2
I.En las siguientes diez frases escriba en las celdas vacías correspondientes No
cuando sean falsas y SI cuando sean verdaderas:
Si______ No______
Si______ No______
172
Si______ No______
Si______ No______
Si______ No______
Si______ No______
Si______ No______
8.- Según los supuestos básicos del Modelo Lineal Simple “todas las
Si______ No______
Si______ No______
Si______ No______
II.- Suponga usted concretamente que el ñconsumo (Yi ) y el ingreso (Xi) para los
últimos 4 años (en miles de millones de pesos) son los siguientes
173
Año (Yi) (X1)
1 3 5
2 4 6
3 5 8
4 8 9
174
IV.14.- Transformaciones de formas funcionales no lineales en lineales.
Propósito.
175
Beneficios de las transformaciones:
176
Ejemplo 1: Forma funcional lineal: Lin-Lin.
Consumo = f (CETES)
Por lo que respecta al análisis estadístico de las variables (ver Cuadro 1.2)
observamos que ninguna de las series se distribuye como una normal puesto que
la media no es igual a la mediana. Tanto la variable Consumo como CETES no
son simétricas y siguen una distribución asimétrica positiva o cargada a la
derecha ya que el coeficiente de asimetría es mayor que cero. Por su parte, la
variable Consumo es platocúrtica ya que el valor de la curtosis es menor a 3; y la
variable CETES es leptocúrtica ya que el valor de la curtosis es mayor a 3. La no
normalidad de las series se corrobora con la estadística Jarque-Bera (JB) ya que
la probabilidad asociada a dicho estadístico es menor a 0.05 y su valor es igual o
mayor a 6.
177
Gráfica 1.1 Análisis gráfico de las series.
178
ilustrar la importancia de seleccionar la adecuada forma funcional que siguen las
variables, interpretar los estimadores y el coeficiente de determinación.
179
previamente en teoría. Asimismo, el valor de â , que representa en este caso el
Consumo autónomo, es positivo, lo cual concuerda cabalmente con la teoría
keynesiana del Consumo.
Por tanto, para nuestro ejemplo, ante un incremento en una unidad porcentual13
(1%) en los CETES, el Consumo privado disminuye 28,569,768.73 miles de pesos
constantes de 2003, pues tomando únicamente:
bˆ * CETES
Tenemos que:
28569768.73 * CETES
28569768.73 * (1)
28569768.73
28569768.73 * CETES
28569768.73 * (1)
28569768.73
13 Aquí es importante mencionar que las unidades en las que está dada la variable independiente son
porcentajes, por lo que al utilizar la forma funcional lineal el cambio que ocurre en ésta es en una unidad
porcentual más no en uno por ciento. En el primer caso la variable independiente al incrementarse en una
unidad porcentual pasaría de 5% a 6%, por ejemplo; y si ésta disminuyera en una unidad porcentual,
entonces pasaría de 5% a 4%, por ejemplo. Mientras que en el segundo caso al incrementarse en uno por
ciento la variable independiente, ésta pasaría de 5% a 5.05%, por ejemplo, ya que el 1% de 5% es 0.05%;
por el contrario, si la variable independiente disminuyera en uno por ciento, entonces ésta pasaría de 5% a
4.95%, por ejemplo.
180
Cabe destacar que ambos estimadores obtenidos son estadísticamente diferentes
de cero ya que la probabilidad asociada a ambos es menor a 0.05. Por lo que, la
Tasa de Interés explica al Consumo y el valor de â es de relevancia económica.
14Recuérdese que no es lo mismo que una variable que está dada en unidades porcentuales se incremente
en una unidad porcentual que en un 1%, véase al respecto la nota al pie de página anterior.
181
Ejemplo 2: Forma funcional logarítmica-logarítmica o doble logarítmica:
Log-Log.
LConsumo = f (LCETES)
Si llamamos:
bˆ0 a Log ( aˆ )
182
punto mínimo, debido a la recesión de 2001-2002, para el 2009 hubo una
disminución también pero no tan significativa, lo quiere decir que la política
monetaria no fue muy activa para solucionar la crisis. Para el caso de LConsumo,
ésta tiene un comportamiento creciente constante, existe un único punto mínimo
para 1994 debido a la crisis de 1994, para 2009, debido a la crisis, hubo una
disminución del consumo, pero no de manera muy significativa.
Por lo que respecta al análisis estadístico de las series encontramos que la media
y la mediana no son iguales, por lo tanto las variables no se distribuyen cómo una
normal. Se desprende también de dicho análisis que éstas no son simétricas y
que están cargadas a la derecha ya que el coeficiente de asimetría es mayor que
cero. Asimismo, ambas series son platocúrticas ya que el valor de la curtosis es
menor a 3. Se corrobora la no normalidad de las series con la probabilidad del
estadístico Jarque-Bera (JB) puesto que es menor a 0.05 (ver Cuadro 2.2.).
183
En la siguiente gráfica 2.2 se puede ver la relación que tiene la variable
dependiente con respecto a la variable independiente; se observa con el diagrama
de dispersión que el comportamiento es lineal con pendiente negativa. Es
importante mencionar que correlacionar estas variables mediante una relación
funcional doble logarítmica se hace para ejemplificar la importancia de seleccionar
la forma funcional adecuada, para interpretar los estimadores y el coeficiente de
determinación.
184
La ecuación de regresión es la siguiente:
185
Por otra parte, cabe destacar que ambos estimadores obtenidos son
estadísticamente diferentes de cero ya que la probabilidad asociada a ambos es
menor a 0.05. Por lo que, la Tasa de Interés explica al Consumo y el valor de â
es de relevancia económica.
186
Ejemplo 3: Forma funcional semilogarítmica, modelo Log-Lin.
Por lo que respecta al análisis estadístico de las series (ver Cuadro 3.1) se puede
observar que ninguna de las dos variables se comporta como una normal debido
a que la media y mediana son diferentes entre si para cada caso. La dispersión o
187
asimetría es diferente de cero para ambas variables, sin embargo la variable
CETES está cargada a la derecha, más que la variable LCons, la cual se carga
ligeramente a la derecha. La curtosis para la variable LCons es menor a 3, con un
valor de 1.79, teniendo como resultado una distribución platocúrtica. Por otra
parte, la curtosis para la variable CETES es mayor a 3, con un valor de 4.97, por
lo que se obtiene una distribución leptocúrtica. La falta de normalidad en las
variables se contrasta con los valores de la prueba Jarque-Bera, para la cual la
regla de decisión es rechazar la presencia de normalidad si el valor es mayor que
6. Los valores bajo los que se rechaza la presencia de normalidad son, para
LCons 6.572782 y CETES 64.38228, con probabilidades menores a 5%,
respectivamente.
Gráfico 3.1 Análisis gráfico.
188
Para determinar la relación de la variable independiente con respecto de la
dependiente se procederá a realizar el análisis del diagrama de dispersión (ver
Cuadro 3.2). Antes de continuar, es preciso comentar que el diagrama de
dispersión siguiente es similar al diagrama de dispersión mostrado en el ejemplo
de la forma funcional lineal (ver Gráfica 1.2), lo único que cambia es la escala del
eje de las ordenadas, pues ahora la variable consumo se ha transformado en
logaritmos para disminuir su dispersión. Así, observamos en la Gráfica 3.2 que la
relación entre las variables LConsumo y CETES es inversa, tal y como se
estableció en la teoría; sin embargo, su comportamiento no se ajusta a una línea
recta. Como se comento anteriormente, el hecho de relacionar estas dos variables
mediante una forma funcional Log-Lin se realiza con la finalidad de ilustrar la
correcta especificación del modelo y la selección de la forma funcional adecuada
al comportamiento de nuestras variables.
189
Ahora bien, los estimadores obtenidos mediante una forma funcional Log-Lin
representan semielasticidades. Es decir, ante un cambio absoluto en la variable
independiente ocurre un cambio relativo en la variable dependiente. Ello se debe
a que ésta última se encuentra en logaritmos mientras que la primera se
encuentra en niveles o valores originales. Así, para poder interpretar el valor del
estimador b̂ , éste se multiplica por 100 para obtener el cambio relativo que ocurre
en la variable dependiente ante el cambio absoluto que ocurre en la dependiente.
bˆ * 100
0.006785 * 100
0.6785 %
15
En este caso la variable independiente se incrementa en una unidad porcentual ya que está expresada originalmente en
términos relativos, es decir, tal y como se tomó de la fuente. En caso de que la variable independiente estuviera dada en,
por ejemplo, millones de pesos, entonces diríamos que ésta se incrementa o disminuye en un millón de pesos.
190
entonces el Consumo disminuye en 0.6785%, promedio trimestral; por el
contrario, si la tasa de interés (CETES) disminuye en una unidad porcentual,
entonces el Consumo se incrementa en 0.6785%, promedio trimestral.
0.6785% * 4 2.714%
ln Yˆ aˆ
Yˆ Anti log(aˆ )
En nuestro ejemplo:
Consˆumo Anti log(aˆ )
Consˆumo Anti log(22.36)
Consˆumo 5,138,361,031
16
Se multiplica la tasa promedio trimestral por 4 ya que un año tiene cuatro trimestres.
191
asciende a cero. Por tanto el Consumo autónomo en nuestro ejemplo es de
5,138,361,031 miles de pesos constates de 2003 (véase el resultado obtenido
para el consumo autónomo mediante el uso de la forma funcional lineal, Cuadro
1.2 del ejemplo 1).
Pendiente bˆ * Y
192
0.1797%; mientras que, si los CETES disminuyen en 1%, entonces el Consumo
se incrementa 0.1797%. En este contexto diríamos que el Consumo no es muy
sensible a las variaciones que experimenten los CETES, sin embargo, si lo
afectan.
Log (Y ) f (Tiempo )
Para nuestro ejemplo el modelo queda planteado de la siguiente manera:
LConsˆumo aˆ bˆ * Tiempo + e
Nótese que en el modelo anterior el signo esperado del estimador b̂ es positivo,
ya que el resultado que se espera representa la tasa de crecimiento promedio de
la variable dependiente, de ahí, precisamente, el nombre del modelo.
193
A continuación procedemos a realizar la ecuación de regresión, para ello en la
barra de comandos del programa escribimos: ls lconsumo c tiempo, seguido de la
tecla enter, con lo cual se obtendrá una ventana como la contenida en el Cuadro
4.2.
194
Cuadro 4.2 Resultados de la regresión.
Consumo = f (LCETES)
195
Cuadro 5.1 Barra de Comandos.
Por otra parte, por lo que respecta al análisis gráfico de las series ( Gráfica 5.1),
se observa que éstas tienen el mismo comportamiento, en cuanto a sus
tendencias, como en el ejemplo 1 de formas funcionales, es decir, como en la
forma funcional lineal. El único cambio que sobresale se da en la modificación de
escala en la serie de la Tasa de Interés (CETES), ya que se procedió a
transformar la variable en logaritmos (ver Cuadro 5.4).
196
no normalidad de las series como se ha venido manejado en los ejemplos
anteriores de regresión simple, múltiple y de formas funcionales, se corrobora con
la estadística Jarque-Bera (JB) ya que la probabilidad asociada a dicho
estadístico es menor a 0.05 y su valor es igual o mayor a 6 (ver Cuadro 5.3).
197
entre las variables no es totalmente lineal, manteniéndose un comportamiento
inverso o negativo, aunque a diferencia de la forma funcional lineal, la variable
independiente al estar ahora en logaritmos se ajusta mejor a dicho
comportamiento lineal con respecto a la variable dependiente.
Gráfica 5.2. Diagrama de dispersión con regresión lineal.
.
198
Con la ecuación de regresión que se obtuvo puede observarse que se sigue
comprobando la teoría que se planteó desde un principio, esto quiere decir que se
tiene una relación inversa entre el logaritmo de la Tasa de Interés (LCETES) y el
Consumo. Por lo que respecta al Consumo autónomo, â , continua teniendo un
comportamiento positivo, lo cual sigue siendo válido para la teoría keynesiana del
Consumo. Asimismo, se destaca el hecho de que los estimadores obtenidos son
estadísticamente significativos o diferentes de cero, puesto que la probabilidad
asociada a ambos es menor a 0.05. Por tanto, el logaritmo de la Tasa de Interés
explica al Consumo y el valor de â es de relevancia económica.
7317958821
Con sˆumo 10105402 * 0
100
Con sˆumo 73179588
199
Por otra parte, como se ha comentado, los estimadores obtenidos mediante el uso
de la forma funcional Lin-Log representan semielasticidades. Sin embargo, éstos
pueden ser transformados en multiplicadores o elasticidades.
1 1
PMg bˆ * bˆ *
X CET ES
1
PMg 1010540198* 38,151,862.08
26.48731
17 Nótese que en la interpretación del ahora multiplicador o Propensión Marginal (PMg), la variable
independiente (CETES) aumenta o disminuye en una unidad porcentual y no en un 1%. Por lo que dicha
variable vuelve a estar en niveles y no en logaritmos, de ahí que se hable de CETES y no de LCETES.
Asimismo, el cambio ocasionado por dicho incremento o decremento en la variable independiente, repercute
en términos absolutos en la variable dependiente.
18 Al convertir el estimador obtenido mediante el uso de la forma funcional Lin-Log, que es una
200
En cuanto a la prueba de bondad de ajuste tenemos que: R2 = 0.769878 =
76.9878%, lo que significa que el 76.9878% de los cambios en el Consumo se
explican por variaciones en la Tasa de Interés (LCETES), el resto es explicado
por otras variables que no fueron incluidas en el modelo. Si se compara con el
primer ejemplo de formas funcionales, se puede observar que hay un incremento
en la bondad de ajuste, esto quiere decir, que las variables se explican de mejor
forma. Sin embargo, si se comparan las cinco formas funcionales, se notará que
la Log Lin es la que produjo el mejor ajuste de los valores estimados a los valores
reales u observados de la variable dependiente, en virtud de que su Coeficiente
de Determinación es de 0.9438, es decir, el más alto, en otras palabras, se dice
que la forma funcional Lin Lin es la que produce la menor bondad de ajuste
porque su Coeficiente de determinación es es el menor: 0.53 (Cuadro 1.2).
Por otra parte, se observa que a medida de que la variable independiente, en este
201
Esta variable se obtiene de manera simple con un comando; en la barra de
comandos se escribe “genr” seguida de un espacio y después el nombre que se le
dará a esta variable “rcetes”, después de esto sin espacios se escribe “=” seguido
de la operación a realizar, en este caso 1/cetes, cabe recalcar que la variable
CETES ya fue ingresada en EViews previamente, ésta debe existir ya en el
programa sino no tiene relevancia la operación y no generará ningún resultado;
después se presiona Enter. El comando final es este: genr rcetes=1/cetes, (ver
Cuadro 6.1).
Cuadro 6.1 Área de comandos
202
Cuadro 6.2 Análisis estadístico de las series.
203
Gráfica 6.2 Diagrama de dispersión con regresión lineal.
Para explicar mejor la relación que tiene la variable independiente RCETES con la
variable dependiente Consumo, pasáremos al Cuadro 6.3 que muestra los
resultados de la regresión.
204
Cuadro 6.3. Resultados de la regresión
Por otra parte, como se sabe, en este tipo de modelos a medida que la variable
dependiente, en este caso CETES, aumenta indefinidamente el término
bˆ * (1 / CETES ) se acerca a cero y la variable dependiente, en este caso, el
Consumo, se aproxima a su valor asintótico, â , que para nuestro caso equivale a
3,227,465,254 miles de pesos constantes de 2003. Asimismo, si la variable
independiente disminuye constantemente sin llegar a tocar el cero, el término
bˆ * (1 / CETES ) crece y por tanto el valor de la variable dependiente disminuye,
dado el signo negativo del término anterior, para este caso. Sin embargo, para
fines de interpretación es necesario realizar algunas transformaciones.
1
Pendiente bˆ * 2
X
Donde:
x Media de la var iable independiente
205
1 1
Pendiente bˆ * 2
14,767,225 ,170 * 2
CET ES 26.49
Pendiente -21,044,324.04
1 1
Elasticidad bˆ * bˆ *
X *Y CET ES * Cons umo
1
Elasticidad 14,767,225,170 *
4.44 x10 * 0.082031
9
Elasticidad -0.1255
206
IV.14.1.- Reactivos para reafirmar los conocimientos.
A.-Conteste con una “X” en SI cuando la frase sea verdadera y también con
una “X” en NO cuando la frase sea falsa:
6.-Al usar la log-log con las pendientes de las variables regresoras no siempre se
obtienen economías de escala: SI___; NO____.
7.-Al usar la log-log si las variables regresoras son factores de la producción, con
sus pendientes se pueden obtener economías de escala cuando la su suma es
mayor que 1: SI____; NO______:
1
10.- La siguiente es la fórmula de la elasticidad del modelo log recíproco: 2
X
: SI____; NO______.
207
V. Modelo lineal general o multiple, MLG.
YX 1 a X b X c X X
1
2
1 1 2 (2)
YX 2 a X b X X c X
2 1 2
2
2 (3)
19
Recuérdese que los estimadores α y β (alfabeto griego) representan el universo, mientras que â, b̂ y ĉ
(abecedario) representan a la muestra. En este caso α ≠ al nivel de significación.
208
Para ilustrar el uso de tres variables en el caso del coeficiente de
correlación múltiple, podemos introducir el subíndice Y=Y 1 , tal que
se representa con r 1 2 3 y generalizando hacia el coeficiente de
determinación, ahora lo denominamos por: R 2 1 2 3 : e indica que los
cambios en Y 1 , se deben a las variaciones de X 1 y X 2 .
yˆ aˆ bˆX i cˆX 2 ei
Dónde:
y = Y calculada o estimada
ei expresa que no hay una relación exacta de Y con respecto a
“X1 “y” X”2 por lo que
ei es conocida como el complemento residual.
Así, para encontrar y se requiere conocer los valores de a, b , c mismos que se
determinan con las tres ecuaciones normales siguientes:
YX 1
a X b X c X X
1 2
1 1 2
YX 2
a X b X X c X
2
1 2
2
2
209
( x1 y)( x22 ) ( x2 y)( x1 x2 )
b
( x12 )( x22 ) ( x1 x2 ) 2
cX
a Y bX 2
1
( b ) = β parámetro de la población
( c ) = π parámetro de la población
Recuérdese que es el símbolo de la esperanza matemática.
En esta regresión múltiple b , c son estimadores parciales de β y π.
Tabla 1: Relación del consumo (Y) con el ingreso (X1) y la inflación (X2)
(del año 1 al 10)
Años Y X1 X2 Y x1 x2 yx1 x 12 x 22 x1 x2 x2 y
1 3 1 8 -3.1 -4.65 +0.9 14.415 21.623 0.81 -4.185 -2.79
2 2 2 15 -4.1 -3.65 +7.9 14.965 13.323 62.41 -28.835 -32.39
3 4 2.5 10 -2.1 -3.15 +2.9 6.615 9.923 8.41 -9.135 -6.09
4 5 3 9 -1.1 -2.65 +1.9 2.915 7.023 3.61 -5.035 -2.09
5 5 4 7 -1.1 -1.65 -0.1 1.815 2.723 0.01 +0.165 +0.11
6 7 5 6 +0.9 -0.65 -1.1 -0.585 0.423 1.21 +0.715 -0.99
7 6 7 8 -0.1 +1.35 +0.9 -0.135 1.823 0.81 +1.215 -0.09
8 8 8 4 +1.9 +2.35 -3.1 4.465 5.523 9.61 -7.285 -5.89
9 9 9 3 +2.9 +3.35 -4.1 9.715 11.223 16.81 -13.735 -11.89
10 12 15 1 +5.9 +9.35 -6.1 55.165 87.423 37.21 -57.035 -35.99
n=10 61 56.5 71 0 0 0 109.349 161.03 140.9 -123.15 -98.10
Nota: Y, X1, X2 son los valores originales, en tanto que y, x 1 y x2 son
minúsculas e indican las desviaciones de los términos con respecto a sus
medias aritméticas respectivas.
210
Y 6.1
X 1 5.65
X 2 7 .1
Sustituyendo del Cuadro anterior, tenemos:
Ahora bien en virtud de que no hay una relación lineal exacta de Y con X1 y X2,
necesitamos calcular la relación residual que se expresa con ui; misma que no
conocemos porque pertenece al universo, razón por la cual es estimada
mediante ei, cuyo cuadrado ei2 , minimiza la suma de cuadrados de todos los
residuos: e 2
i .
Para obtener ei (donde (i) = 1, 2, 3... ...8, 9,10), antes necesitamos determinar yi
para cada uno de los 10 años. Así:
211
Nota: estos resultados están “redondeados”; la computadora ofrece más
decimales; por ello las cifras no coinciden exactamente con las que se
obtienen al correr los datos en computadora.
Continuación de la Tabla 1:
Relación del consumo (Y) con el ingreso (X 1) y la inflación (X2) (del año 1
al 10)
ei Y y
ˆ y la e 2
(Y yˆ ) 2
2.1610 en la forma que aparecen en las columnas
correspondientes en la continuación de la tabla 1.
2
212
e1 3 3.7800 0.7800;e12 0.6084
e2 2 2.0115 0.0115;e12 0.0001
e3 4 3.8065 0.1936;e12 0.0375
e4 5 4.3406 0.6594;e12 0.4348
e5 5 5.4089 0.4089;e12 0.1672
e6 7 6.1620 0.8380;e12 0.7022
e7 6 6.4074 0.4074;e12 0.1660
e8 8 8.1016 0.10160;e12 0.0113
e9 9 8.8592 0.1408;e12 0.0198
e10 12 12.1170 0.1170; e12 0.0137
e2 2.1610
Var b 2u
x 2
2
x x2
1
2
2 ( x1 x2 )2
x
2
Var c 2 1
x x ( x1 x2 )2
u 2 2
1 2
Conviene decir que con base en la forma como está planteada esta teoría
económica, aquí no se calcula la varianza de a (ordenada al origen) por que no
ayuda a probar la teoría económica, ya que lo que se desea es probar las
variaciones de yi en función de las variaciones de X1, X2.
Por otra parte, como 2u es desconocida por que es del universo, se estima con
S2, como una estimación insesgada, es decir, E (S 2) = 2u .
Su fórmula es:
S 2 2u
e2
i
nk
Dónde:
213
Por lo que el número de los grados de libertad es de: 10 - 3 = 7
S Var ( b )
2 e 2
i x 2
2
; Sb Sb2
b
nk x x 2
1
2
2 ( x1 x 2 ) 2
e x
2 2
Var ( c ) ; S c S c2
2 i 1
S
x12 x22 ( x1 x2 )2
c
nk
S bˆ , S cˆ son los errores estándar de b , c con los que se pueden probar las hipótesis
sobre β, π, relativos a que hay o no hay relación de Y con respecto a X 1, X2, con
la estadística t de Student porque n 30 términos:
Para β: Para π:
Ho: β = 0 Ho: π= 0
Ha: β 0 Ha: π 0
bˆ cˆ
t t
Sbˆ Scˆ
Estas t´s “empíricas” u observadas se contrastan con las t´s “teóricas” o de tablas.
Estas últimas se denotan con las literales t , donde = nivel de significación que
junto con los grados de libertad (n-k) determinan los puntos “críticos” donde se
toma la decisión de aceptar o rechazar Ho.
2
Así, para probar Ho primero calculamos Sb , S c2 ; sustituyendo los valores de las
tablas en las fórmulas originales:
También:
214
e x
2 2
2.1610 161.0250
S 2
Var (cˆ) i 1
n k x x ( x1 x2 ) 10 3 (161.0250)(140.9) (123.15) 2
cˆ 2 2 2
1 2
161.03 161.03
0.3087 0.3087(0.0214) 0.0066
22,688.4225 15,165.9225 7,522.5
bˆ 0.4379 0 cˆ 0.3087 0
t 5.7542 t 3.8017
Sbˆ 0.0761 Scˆ 0.0812
Para llevar a cabo la determinación del grado de la relación que existe entre la
variable dependiente o explicada y las variables independientes o explicativas
primero se determina el Coeficiente de Determinación Múltiple.
R2 1
e 2
i
1
2.1610
1 0.0267
y i
2
80.9
R 2 0.9733 o 97.33%
215
n 1 10 1
R 2 1 (1 R 2 ) 1 (1 0.9733)
nk 10 3
1 (1 0.9733)(1.2857)
1 (0.0267)(1.2857) 1 0.0343
R 2 0.9656
y2
i
R2
( k 1) k 1
Fk 1,n k
ei2 (1 R 2 )
(n k )
(n k )
Dónde:
0.9733
2 0.4866
F2 , 7 128 .0526
1 0.9733 0.0038
7
Si decimos que = 1%, buscamos Fen tablas con 2 grados de libertad para el
numerador (varianza explicada) y 7 grados de libertad para el denominador,
vemos que F = 9.55.
216
V.2.6.- Coeficientes de Correlación Parcial.
Estos coeficientes son útiles por que miden la correlación parcial entre la variable
dependiente (Y) y una variable independiente (sea X1 o X2) después de suponer
que la(s) otra(s) variable(s) independiente(s) permanecen constantes en el
modelo uniecuacional. Así, decimos en el caso de la siguiente notación que:
ry x1 ,x2 es la correlación parcial entre X1 e Y después de suponer que los cambios
en X2 no afectan a Y, Algo similar se puede decir de X2 .Sus fórmulas son:
ryx1 ryx2 rx1 ,x2
ryx1 ,x2
1 r2 x1 ,x2 1 ryx2 2
En forma análoga:
ryx2 ryx1 rx1 ,x2
ryx2 ,x1
1 r2 x1 ,x2 1 ryx2 2
ry x1
yx 1
109.35
109.35
109.35
0.959
x y2
1
2
16103
. 80.9 ( 12.68 )( 8.99 ) 113.99
ry x2
yx 2
981.
981
.
981
.
0.919
x y2
2
2
140.9 80.9 ( 1187
. )( 8.99 ) 106.71
rx1 x2
x x 1 2
12315
.
12315
.
12315
.
0.818
x x 2
2
2
1
140.9 16103
. ( 1187
. )( 12.68 ) 150.51
Sustituyendo:
ry x ry x r x , x ( 0 .959 ) ( 0 .919 )( 0 .818 )
ry x , x 1
2 1 2
1 r x , x 1 ry x
1 2 2 2
1 2
0 .33 0 .15
2
r y x1 , x 2 0 .936 o 93 .6 %
T a m b i én :
r y x 2 r y x1 r x1 , x 2 ( 0 .919 ) ( 0 .959 )( 0 .818 )
r y x 2 , x1
1 r 2
x1 , x 2 1 r 2
y x2
0 .33 0 .08
0 .919 0 .784 0 .135
0 .838
( 0 .574 )( 0 .282 ) 0 .161
luego r y x 2 , x1 0 .838 o 83 .8 %
217
En este contexto, decimos que como ry x 1 ,x2
0.936 " y" ry x 2 , x1 0.838
Se indica que el ingreso (X1) es más importante explicando las variaciones del
consumo (Y) que la inflación (X2); obviamente en sentido inverso, como lo indica
la teoría económica.
X1 5.65
E ib b 0.44 0.44( 0.92 ) 0.40
Y 6.1
X2 7.1
E ic c 0.31 0.31( 116
. ) 0.36
Y 6.1
V.2.7.3.- El uso de variables ficticias como variables explicativas
en la regresión y correlación múltiple.
218
Ahora bien, cuando un modelo de regresión sólo incluye variables
explicativas que son cualitativas se denominan modelos de análisis
de varianza, ANOV A. Así, por ejemplo, sirven para probar si
estadísticamente dos o más promedios difieren significativamente y
por esa razón son una extensión de la prueba t que prueba dicha
diferencia estadíst ica sólo para dos promedios.
219
15 72 60 8 0
16 272 20 5 1
17 94 58 7 0
18 190 40 8 1
19 235 27 9 0
20 139 30 7 0
Y= 393.67-3.9628(20)-11.334(3)+77.43(0)= $ 280.90/mes
Y= 393.67-3.9628(20)-11.334(3)+77.43(1)= $ 358.30/mes
Ho: d=0;
Ha: d 0
220
con la t de tablas (también llamada teórica), la cual con = 5% y n-
k= 20-4 = 16 grados de libertad resultó ser igual a 2.12. Como la t
empírica resultó estar fuera de la zona de aceptación de la t
“teórica”, es decir, está en la zona de rechazo de que d=0, entonces
vemos que el coeficiente de regresión d no es cero, aceptamos la
Ha, de manera que concluimos indicando que el garage si es una
variable explicativa de los costos de calef acción en la s casas, por lo
que $ 77.71 si es una diferencia significativa en el costo de calentar
una casa en invierno en Ciudad Juárez. Luego entonces si es
conveniente incluir la variable independiente X 3 en el análisis de
costos de calefacción.
sobre cómo medir la asociación que existe entre dos variables cualitativas.
Respuestas:
Con los siguientes datos:
6 D 2
a) r ' 1
n(n 2 1)
dónde
D= diferencia entre rangos de pares correspondientes de las dos
variables (en orden ascendente o descendente, con el rango medio
asignado a observaciones del mismo valor).
n= número de observaciones.
221
6 D 2 6(10.50) 63
r 1
'
1 1 0.94
n(n 1)
2
10(99) 990
Con ello se constata que existe una fuerte asociación entre las dos
variables cualitativas.
De acuerdo con la teoría keynesiana del consumo, éste depende del ingreso. Por
lo que:
222
Con sˆumo aˆ bˆPIB eˆ
Donde:
b̂ = Propensión Marginal a Consumir (PMgC), cuyo valor oscila entre cero y uno;
En dicho análisis todo o parte del ingreso adicional que obtienen las familias o la
sociedad en su conjunto lo destinan a consumir o a ahorrar. Así, la diferencia 1- b̂
es igual a la Propensión Marginal a Ahorrar (PMgS). Si b̂ = 0, todo el ingreso
adicional se destina al ahorro; si b̂ = 1, todo el ingreso adicional se destina al
consumo; si 0 < b̂ < 1, entonces parte del ingreso adicional se destina al consumo
y parte al ahorro.
223
CETES a 28 días medida en porcentaje y la inflación corresponde a la tasa de
inflación expresada en porcentaje.
Por otra parte, como se recordará, una vez que se ha generado el archivo de
trabajo (Workfile) en EViews, para ingresar los datos, en la barra de comandos
escribimos: “Data consumo pib cetes inflacion” seguido de la tecla enter, ello
desplegará una ventana tipo Excel en la cual se copiarán los datos.
Pasemos a realizar el análisis gráfico de las series. Para ello en EViews abrimos
el objeto grupo que contiene todas las series, en este caso cuatro, o
seleccionamos cada una de las series y las abrimos como objeto grupo. En la
ventana que se despliega vamos a View/ Multiple Graphs/ Line, con lo que se
desplegará una ventana como la que se muestra en la Gráfica 1.1.
224
estrategia seguida para salir de la crisis de 1982 y 1995 fue primeramente
incrementar la tasa de interés para atraer capitales al país y así estabilizar el tipo
de cambio, hacer frente a los pasivos con el exterior y adquirir productos que no
se elaboran internamente, para posteriormente disminuir la tasa de interés con la
finalidad de canalizar dichos recursos a la esfera productiva, es decir, hacia la
inversión. Llama la atención que tras la crisis económica de 2008-2009 no se
haya incrementado significativamente la tasa de interés, ello en parte puede ser
atribuible a la estabilidad macroeconómica del país y a las grandes reservas
internacionales con las que cuenta el país, aunque sería preciso realizar un
análisis más profundo sobre el particular. Por último, la inflación presenta un
comportamiento decreciente, observándose cuatro periodos: 1) De 1985 a 1987,
2) De 1988 a 1994, 3) De 1995 a 2002 y, 4) De 2002 a 2010. En el primero se
observa un comportamiento creciente de la inflación ante las crisis recurrentes en
los años ochenta (1982 y 1986-1987). Para el segundo periodo la inflación
disminuye como consecuencia de la reestructuración de la deuda externa y como
resultado del crecimiento de la economía a partir de los pactos entre el gobierno,
los empresarios y los trabajadores (contención salarial). En el tercer periodo la
inflación vuelve a dispararse ante la crisis económica de 1994-1995 y comienza a
disminuir como resultado del mejor desempeño de la economía acompañado de
una política monetaria restrictiva y de contención salarial. El cuarto periodo puede
considerarse como de estabilidad en la inflación ya que ésta ha permanecido
constante y no ha sobrepasado de un dígito en los últimos años. Nuevamente,
llama la atención que ésta no se haya incrementado ante la crisis de 2008-2009 y
ello puede deberse, en parte, a la estabilidad macroeconómica del país, a la
política monetaria restrictiva y a la contención salarial.
En cuanto al análisis estadístico de las series (ver Cuadro 1.1) observamos que
ninguna de ellas se distribuye como una normal ya que en ninguno de los casos la
media es igual a la mediana. En todos los casos las series no son simétricas y
siguen una distribución asimétrica positiva o cargada a la derecha ya que el
coeficiente de asimetría (Skewness) es mayor que cero. Asimismo, las series
consumo y PIB son platocúrticas ya que el valor de la curtosis en los dos casos es
menor a 3 y en el caso de los CETES y la inflación, al ser la curtosis mayor que 3,
las series son leptocúrticas. Por lo que, ninguna de las series se distribuye
normalmente.
225
Cuadro 1.1. Análisis estadístico de las series.
Es oportuno recalcar que la ausencia de normalidad en las series nos alerta sobre
el posible incumplimiento de algunos supuestos del método de estimación al
relacionarlas. Sin embargo, ello no implica que las series no puedan relacionarse
mediante el análisis de regresión y correlación, pues las pruebas sobre las
violaciones a los supuestos del método de mínimos cuadrados se realizan sobre
la serie de los residuales obtenidos a través de la regresión y no sobre las series
originales. Así, el estudiante tendrá que poner especial atención en la correcta
especificación del modelo en cuanto a la forma funcional, tamaño de la muestra,
omisión de variables relevantes, inclusión de variables redundantes, etc.
226
Cuadro 1.2. Histograma de las series.
227
Gráfica 1.2. Diagramas de dispersión con regresión lineal.
Como puede apreciarse en la Gráfica 1.2, la relación funcional que siguen el PIB y
el consumo es directa o positiva y fácilmente puede ajustarse a una línea recta, es
decir, ambas siguen una relación directa lineal. En cuanto a la tasa de interés
(CETES) y el consumo se observa que éstas siguen una relación inversa o
negativa, sin embargo, es claro que su relación no se ajusta a un comportamiento
lineal, sino más bien se ajusta a un comportamiento polinómico o inversa.
228
Cuadro 1.3. Resultados de la ecuación de regresión.
Con sˆumo 568786493 .3 0 .7434 * PIB 252453 .78 * CETES 508519 .97 * Inflación
229
En cuanto a la interpretación de los estimadores obtenidos en la ecuación de
regresión, independientemente de que no cumplan con la teoría establecida,
tenemos que:
2. Dado que b̂1 = PMgC y ésta es igual a 0.7434, la PMgS=1- b̂1 =1-
0.7434=0.2566, por lo que, por cada mil pesos constantes de 2003 que la
sociedad obtenga como ingreso adicional, ésta destinara 0.7434 miles de
pesos constantes de 2003 a consumir y 0.2566 miles de pesos constantes
de 2003 a ahorrar.
230
Ha: 1 0, por tanto, el ingreso (PIB) explica al consumo.
Por tanto, al ser la probabilidad asociada al estadístico “t” del ingreso menor a
0.05, se rechaza la Ho y por tanto el ingreso (PIB) si explica al consumo con un
95% de probabilidad de que así sea.
231
cumple con la teoría y la lógica económica. Ello también puede ser atribuible a la
mala especificación del modelo.
Por otra parte, por tratarse de regresión múltiple procedemos a realizar la prueba
de significancia global del modelo mediante la estadística “F”, para ello
planteamos la siguiente prueba de hipótesis conjunta:
R2 /(k 1)
F
(1 R2 ) /(n k)
Donde:
n = Tamaño de la muestra.
R2 = Coeficiente de determinación.
0.966920/(4 1)
F
(1 0.966920) /(104 4)
0.966920/ 3 100(0.966920)
F
0.03308/100 3(0.03308)
96.692
F 974.3246
0.09924
Obsérvese que el valor obtenido de “F” es el mismo que proporciona el programa
en la ventana de los resultados de la ecuación de regresión en la parte inferior
derecha (ver Cuadro 1.3).
232
se deben especificar el nivel de significación (α), en este caso α=5%, y los grados
de libertad para el numerador y el denominador. Los grados de libertad en el
numerador se determinan con k-1=4-1=3, y los grados de libertad en el
denominador con n-k=104-4=100.
F3,100 2.6955
Como “F” calculada es mayor que la “F” teórica, 974.3246 > 2.6955, se rechaza la
Ho, y por tanto, concluimos que el ingreso (PIB), la tasa de interés (CETES) y la
inflación si explican al consumo.
233
96.5928%, lo que significa que el 96.5928% de los cambios en el consumo se
explican por cambios en las tres variables incluidas en el modelo y una variable
adicional, por tanto, el 96.5928% de los cambios en el consumo se explican por
cambios en cuatro variables independientes incluidas en el modelo. Como se
puede infiere de este resultado, incluir una variable adicional en el modelo no
repercute significativamente en el ajuste del mismo.
234
Finalmente, a continuación se muestra gráficamente la estimación del consumo
mediante la ecuación de regresión obtenida, su comparación con los datos reales
de la misma variable y sus errores, es decir, su diferencia. Para ello, como se
recordará, en EViews en la ventana de la regresión vamos a: View/ Actual, Fitted,
Residual/ Actual, Fitted, Residual Graph, con lo cual se despliega una ventana
como la que se muestra en la Gráfica 1.3.
En consonancia con el enfoque didáctico de ampliar los tres ejemplos del MLS al
MLG, ahora recordando que en el ejemplo 2 de regresión simple se planteó la
hipótesis que sostiene que el crecimiento del Producto Interno Bruto (PIB) es
impulsado únicamente por las Exportaciones (X). Sin embargo, no sólo las
Exportaciones impulsan el crecimiento del producto, existen otras variables que
afectan a éste. Entre ellas se encuentran las Importaciones (M), éstas inciden de
manera negativa ya que son bienes elaborados en el extranjero aunque sean
consumidos en el país, además de que representan una salida de ingresos, pues
se debe pagar por ellas. En cuanto a la Inflación, como se mencionó en el ejemplo
1de regresión múltiple, mide el crecimiento de precios en bienes y servicios; en
resumen, si se da un incremento en la inflación el Producto Interno Bruto
disminuye, y viceversa. Por último, el Tipo de Cambio, que es el precio de una
unidad de moneda extranjera reflejada en moneda nacional, afecta a las variables
Importaciones y Exportaciones, dando pauta a un incremento o decremento de la
competitividad, y por ende afectando directamente al Producto (PIB).
235
En este contexto, el modelo econométrico se plantea de la siguiente manera:
En cuanto al análisis estadístico de las series (ver Cuadro 2.1) observamos que
ninguna de ellas se distribuye como una normal ya que en ninguno de los casos la
media es igual a la mediana. En todos los casos las series no son simétricas y
siguen una distribución asimétrica positiva o cargada a la derecha ya que el
coeficiente de asimetría es mayor que cero. Asimismo, las series del Producto
Interno Bruto, Exportaciones, Importaciones y Tipo de Cambio son platocúrticas
ya que el valor de la curtosis en los cuatro casos es menor a 3 y en el caso de la
Inflación, al ser la curtosis mayor que 3, la serie es leptocúrtica. Con ello se puede
concluir que ninguna de las series se distribuye normalmente.
236
Gráfica 2.1. Análisis gráfico de las series.
237
Cuadro 2.1. Análisis estadístico de las series.
238
Ahora pasamos a determinar la relación que siguen cada una de las variables
independientes con la dependiente. Así, en los diagramas de dispersión (ver
Gráfica 2.2) puede observarse que la relación funcional que sigue el PIB con
respecto a las Exportaciones se ajusta a una la línea recta y además siguen una
relación directa o positiva. En cuanto a la relación que sigue el PIB con respecto a
las importaciones también se ajusta a una la línea recta y su relación es directa.
Por lo que respecta a la relación entre el PIB y el Tipo de Cambio ésta no se
ajusta completamente a una línea recta, sin embargo, parecen seguir una relación
directa. Por último, la relación entre el PIB y la Inflación no se ajusta claramente a
una línea recta y la relación entre ambas variables es inversa.
239
En cuanto a los resultados de la ecuación de regresión (ver Cuadro 2.3) tenemos
que la ecuación de regresión es la siguiente:
P IˆB 4367687566 29026 .12614 * X 69365 .26982 * M 413171 .2236 * Inflación 89900775 .1 * TC
240
Cuadro 2.3. Resultados de la ecuación de regresión.
4. En cuanto el Tipo de Cambio, por cada peso por dólar que éste aumente, el
Producto Interno Bruto aumentará en 89900775 miles de pesos constantes
de 2003; si el Tipo de Cambio disminuye en un peso por dólar, el Producto
241
Interno Bruto disminuirá en 89909775 miles de pesos constantes de 2003,
permaneciendo sin cambios el resto de las variables independientes
incluidas en el modelo.
242
Aquí la probabilidad asociada al estadístico “t” de la Inflación es mayor a 0.05, se
acepta la Ho y por tanto, la Inflación no explica al PIB al 95% de probabilidad.
Por otra parte, por tratarse de regresión múltiple procedemos a realizar la prueba
de significación global del modelo mediante la estadística “F”, para ello
planteamos la siguiente prueba de hipótesis conjunta:
R2 /(k 1)
F
(1 R2 ) /(n k)
0.988286 /(5 1)
F
(1 0.988286) /(124 5)
0.988286 / 4 0.2470715
F
0.011714 / 119 9.8437x10 -5
F 2509.94609
243
Retomando el ejercicio anterior el valor calculado de “F” se contrastará con la “F α”.
Para encontrar el valor de la “F” se seguirá utilizando un nivel de significación de
α=5%, y los grados de libertad para el numerador y el denominador. Los grados
de libertad en el numerador son k-1=5-1=4, y los grados de libertad en el
denominador con n-k=124-5=119.
F4 ,119 2.4479
Como “F” calculada es mayor que la “F α”, 2509.94609 >2.4479, se rechaza la Ho,
y por tanto, concluimos que las Exportaciones, las Importaciones, la Inflación y el
Tipo de Cambio si explican al PIB.
244
Los coeficientes de correlación (r) que se analizarán son: el PIB con las
Exportaciones o viceversa, el PIB con las Importaciones o viceversa, el PIB con la
Inflación o viceversa y el PIB con el Tipo de Cambio o viceversa.
245
Gráfica 2.3. Representación gráfica de los valores reales y estimados de la
variable dependiente y los errores.
246
La explicación de la incorporación de las dos variables mencionadas, está dada
por el sustento teórico neoclásico acerca de que la Inversión está relacionada
negativamente con la tasa de interés, en sentido positivo con el Producto Interno
Bruto y en sentido negativo con el Consumo de Gobierno.
Donde:
I = Inversión
i = tasa de interés
Y= Ingreso
Cg= Consumo del Gobierno
247
2003, el ingreso corresponde al Producto Interno Bruto (PIB) expresado en miles
de pesos a precios constantes de 2003 y la Tasa de Interés corresponde a los
CETES a 28 días medida en porcentaje.
248
1982 comienza una crisis, ésta freno considerablemente el ritmo de crecimiento
de la economía nacional ya que las tasas de interés bajas por ajuste se elevaron
dado el uso de ingresos en consumo mayores que en producción, este hecho
afectó la economía llegando a la situación de que México no pudo hacer frente a
sus obligaciones contraídas, lo que desató la crisis de la deuda externa. Durante
este periodo las tasas de crecimiento del PIB fueron muy bajas pero se logró un
repunte en 1984 para que en el año de 1986 se incurriera en una crisis de
hiperinflación con la cual se tuvo una notable caída que afecto fuertemente al
desarrollo del país. Al llegar el año de 1987 México logra tener una tasa de
crecimiento económico positiva, la cual se mantuvo relativamente estable hasta el
año de 1994. Sin embargo, tras la crisis de 1994-1995 el PIB cayó casi un 8%, al
recuperarse de esta crisis México vuelve a tener un ritmo de crecimiento estable
llegando a tener tasas de crecimiento hasta del 5% que se vieron realmente
afectadas al llegar el año 2008, año en que inicio la crisis hipotecaria
estadounidense que arrastró a todas las economías. En lo que respecta al
Consumo del Gobierno, en el periodo que analizamos este es muy variable pero
tiene una tendencia positiva, parecida en altas y bajas igualmente con la Inversión
y el PIB, lo que muestra que con las crisis el gasto se contrae para tener mayores
ingresos y poder solventar la desventaja o mala situación que conlleva una crisis.
Ahora pasamos al análisis cuantitativo con el Cuadro 3.1 que muestra los
estadísticos descriptivos básicos de cada variable.
Cuadro 3.1. Análisis estadístico de las series.
Del Cuadro 3.2 observamos que todas las variables utilizadas en el modelo
(Inversión, Interés, Producto Interno Bruto y el Consumo del Gobierno) no se
comportan como una normal ya que la media no es igual a la mediana, por ello no
son simétricas. En cuanto al dato de asimetría todas las variables tienen asimetría
positiva y cargada a la derecha por tener valores mayores que cero. Con la
curtosis observamos que la Inversión, el PIB y el Consumo del Gobierno son
platocúrticas por su valor en curtosis menor a tres y en el caso del Interés es
249
leptocúrtica por su valor en curtosis mayor a tres. Ninguna variable se distribuye
como una normal.
Para que las variables fueran normales JB 6, en los Cuadro 3.1 y 3.2 se
muestran los datos para cada variable del estadístico Jarque-Bera. En el caso de
la Inversión, el Interés y el Producto Interno Bruto se tienen valores mayores a 6
de dicha estadística, ello nos indica que la serie no se distribuye como una
normal, por tanto, se rechaza la hipótesis nula. Para el caso de la variable
Consumo de Gobierno que al tener la estadística Jarque-Bera un valor de 2.2738,
que es menor a 6, no se rechaza la hipótesis nula, por lo que, esta variable si
presenta normalidad. Se corrobora esto al analizar las probabilidades asociadas a
dicho estadístico, ya que la única mayor a 0.05 para indicar normalidad es la
variable de Consumo de Gobierno.
250
Con el histograma podemos visualizar y constatar lo antes mencionado acerca de
normalidad en las series evaluando el estadístico Jarque-Bera, pero ahora con el
método visual ya que la única distribución con forma de campana es la variable
Consumo de Gobierno.
Ahora realizamos los diagramas de dispersión para determinar la relación
funcional que siguen cada una de las variables independientes con respecto a la
variable dependiente.
Al observar la Gráfica 3.2 que contiene los diagramas de dispersión, tenemos que
la relación de la Inversión con el Interés es negativa como lo habíamos explicado
anteriormente, aunque su relación no es lineal al no coincidir con la línea de
regresión que muestra una relación lineal perfecta. En cuanto a la Inversión con el
Producto Interno Bruto tenemos que la relación si es lineal al coincidir nuestros
datos con la línea de regresión mostrando una relación positiva y lineal, es decir,
al incrementarse el Producto Interno Bruto se incrementará la Inversión por esta
relación. Al pasar al diagrama que muestra la Inversión con relación al Consumo
del Gobierno se torna complicado su análisis ya que aunque la relación se
muestra positiva, los puntos observados en el diagrama son muy dispersos y no
251
sigue la relación lineal de las variables, por ello se puede afirmar que el diagrama
de dispersión no muestra ningún tipo de relación que sigan ambas variables.
252
tenemos el estimador del Consumo Gubernamental ( b̂3 ) el cual también cumple la
teoría neoclásica que dice que la Inversión con el Consumo del Gobierno es
negativa dado que al incrementarse la participación del Gobierno se reduce la
participación del sector privado y por lo tanto la Inversión.
253
Para el estimador del Producto Interno Bruto la probabilidad asociada al
estadístico t de dicho estimador es menor que 0.05 por lo que se rechaza la
hipótesis nula (Ho) mostrando que el PIB explica a la Inversión al 95% de
probabilidad de que así sea.
Para el caso del estimador del Consumo del Gobierno tenemos que la
probabilidad asociada al estadístico t es de 0.2763, lo que es mayor a 0.05, por lo
que no se rechaza la hipótesis nula afirmando que el Consumo del Gobierno no
explica a la Inversión al 95% de probabilidad de que así sea.
R2 /(k 1)
F
(1 R2 ) /(n k)
254
0.96837/(4 1)
F
(1 0.96837) /(104 4)
0.96837/ 3 100(0.96837)
F
0.03163/ 100 3(0.03163)
96.837
F 1020.5185
0.09489
F3,100 2 .6955
Como “F” calculada es mayor que la “F” teórica, 1020.5185 > 2.6955, se rechaza
la Ho, afirmando que el Interés, el Producto Interno Bruto y el Consumo del
Gobierno si explican a la Inversión.
Por lo que, al ser la probabilidad asociada a la estadística “F” menor a 0.05, con
un valor de 0.0000 que se observa en el Cuadro 21, se rechaza la Ho y se
corrobora la conclusión de que las variables independientes incluidas en el
modelo explican a la variable dependiente, en este caso la Inversión.
255
incorrecto uso de formas funcionales lineales entre variables independientes con
la dependiente o al incumplimiento de alguno o algunos de los supuestos detrás
del método de estimación.
256
Gráfica 3.3. Representación gráfica de los valores reales y estimados
de la variable dependiente y los errores.
En la Gráfica 3.3 observamos como los errores son notables entre 1994 y 1998
dadas las situaciones que analizábamos anteriormente, ya que en tiempos de
crisis, las variables pueden comportarse de manera distinta o atípica. En la
comparación de la Inversión real y la estimada en la Gráfica 3.4 se observa que
los datos reales y los estimados son muy semejantes, con la diferencia de que en
los periodos de crisis, que coinciden con bajas notables en la Inversión, la serie
estimada con la ecuación de regresión tiende a hacer menos abruptas dichas
caídas, con la excepción del periodo 2008-2009.
257
V.2.9.- Reactivos para reafirmar los conocimientos.
Respuestas:
En los dos casos se toma la decisión de aceptar o rechazar la Ho, i.e., de indicar
que dichos coeficientes son o no significativamente diferentes de cero con cierto
nivel de significación (denotado por α, que no es la misma α de la ecuación de
regresión múltiple) y ciertos grados de libertad previamente especificados.
Respuesta:
La interpretación económica es que se verifica la hipótesis de que X 1 y X2 si
explican a Y
Respuesta:
258
Es conveniente cuando la teoría económica en estudio le asigna un papel
relevante. Cuando no es así, por lo general suele omitirse la prueba de hipótesis
sobre su significación estadística.
Examen de autoevaluación 1.
Año Yi Xi Zi
1 7 9 1
2 8 8 2
3 7 9 3
4 8 7 2
Preguntas:
1.- Obtenga la ecuación de regresión: Y a bX i cZi
2.- Encuentre el valor para cada yi donde i=1,2,3,4:
3.- Encuentre el valor del error residual
4.- Pruebe la hipótesis nula de que la rentabilidad de la inversión
depende de la tasa de interés y de inflación, con un nivel de
significación del 5% e interprete los result ados.
5.-Calcule R, R2, R 2 y junto con t, F, y con el error estándar de estimación
interprete sus resultados.
I.-Conteste con una “X” en SI cuando la afirmación sea verdadera y también con
una “X” en NO cuando la afirmación sea falsa:
259
1.- Una variable cualitativa no se puede expresar cuantitativamente: Si___;
No____.
6.- Al correr la regresión, cuando los signos de los coeficientes obtenidos de las
variables regresoras no coinciden con la concepción teórica de su relación con la
variable regresada, de inmediato se debe de cambiar de variable regresora :
SI____; NO______:
260
VI.- Las violaciones a los supuestos del metodo de MCO.
Como se recordará, este método se usa para obtener estimadores contenidos en
la ecuación de regresión, considerando que se cumplen ciertos supuestos que
sustentan sus propiedades de ser: a).- insesgados; b).- eficientes, c).- suficientes
y d).- consistentes, principalmente.
VI.1 Heteroscedasticidad.
Uno de los principales análisis que se realizan sobre la violación de los supuestos
en que se basa el método de MCO para determinar el valor y por consiguiente la
calidad de los estimadores, se refiere a la verificación, Ho, de si las
perturbaciones Ui de la función de regresión poblacional, son homoscedásticas,
i.e., que todas tienen la misma varianza: que ésta se mantiene a lo largo de las
observaciones; en otras palabras, es conveniente señalar que hasta el momento
hemos establecido el supuesto de homoscedasticidad, es decir, que las
distorsiones o errores Ui de la ecuación de regresión tienen la misma varianza.
261
Ahora bien, cuando dichos errores no observan una misma varianza se acepta la
Ha y se dice que hay heteroscedasticidad o que las Ui son heteroscedásticas. En
otras palabras las Ui no tienen una varianza constante, que es lo mismo que
decir que la varianza del error no es constante para todas las observaciones de la
serie histórica a partir de la que se determinó la ecuación de regresión.
Señala Gujarati (1990:258) que no es fácil detectarla, que “no existen reglas
fijas y seguras para detectarla, sino sólo unas cuantas reglas generales”;
por ello se han creado algunos métodos informales y de aproximación para
detectar la presencia de heteroscedasticidad, los cuales generalmente examinan
los residuos obtenidos de la aplicación de MCO para identificar en ellos
patrones sistemáticos. De manera que si las Ui presentan dichos patrones, se
está en condiciones de recomendar procedimientos para transformar los datos
originales bajo estudio, tal que con la nueva ecuación de regresión con datos ya
transformados las Ui ya observen una misma varianza, es decir varianza
constante.
262
Lo anterior en palabras de Carrascal (2001:227): “no existen reglas fijas para
saber si en un modelo existe heteroscedasticidad; pues en todos los contrastes
estadísticos se plantea la hipótesis nula de homoscedasticidad. Además, dado
que las perturbaciones aleatorias no son observables, las formas de detección se
basan en los errores de la estimación por mínimos cuadrados ordinarios. En
concreto, la mayor parte de los contrastes van a utilizar el cuadrado de dichos
errores como indicativo de la varianza de cada perturbación o el valor absoluto de
dicho error para aproximar la desviación típica.”
1. Método gráfico
2. Ramsey: RESET
3. Glejser
4. Breusch y Pagan
5. White
6. Goldfeld y Quant
7. Razón de verosimilitudes
Y-Yc=Ui
FAMILIA Y Yc X RESIDUO
263
13 33.5 35.0213897701 38.0 -1.52
14 13.1 13.5275297304 14.1 -0.43
15 14.8 15.5959765125 16.4 -0.80
16 21.6 22.520776609 24.1 -0.92
17 29.3 27.9167247361 30.1 1.38
18 25.0 26.297940298 28.3 -1.30
19 17.9 17.2147609506 18.2 0.69
20 19.8 18.9234778576 20.1 0.88
Dependent Variable: Y
Method: Least Squares
Sample: 1901 1920
Included observations: 20
Variable Coefficient Std. Error t-Statistic Prob.
C 0.847052 0.703355 1.204302 0.2441
X 0.899325 0.025309 35.53360 0.0000
R-squared 0.985944 Mean dependent var 23.55500
Adjusted R-squared 0.985164 S.D. dependent var 10.78691
S.E. of regression 1.313895 Akaike info criterion 3.478509
Sum squared resid 31.07377 Schwarz criterion 3.578082
Log likelihood -32.78509 F-statistic 1262.637
Durbin-Watson stat 2.582686 Prob(F-statistic) 0.000000
Para calcular Ui: en el Cuadro de la ecuación, está la palabra view, ahí pulsamos
el cursor y aparece, entre otros, actual fitted residuals, pedimos actual fitted table,
oprimimos el lado izquierdo del ratón y parecen los valores originales de Y, los de
cada una de las Y´s calculadas con la ecuación de regresión anterior y Ui= Yi-Yc
donde i=1,2,3,…….18,19,20
Estando en la pantalla de este archivo, vamos a view, ahí pedimos actual fitted
residuals, luego, actual fitted graph, decimos ok, y aparece la gráfica de residuos
siguiente
264
50
40
30
20
10
2
0
1
0
-1
-2
-3
02 04 06 08 10 12 14 16 18 20
265
2
U
-1
-2
-3
0 10 20 30 40 50
que es la figura típica que resulta al graficar los valores de los residuos versus los
valores de X, ingreso, obteniéndose el diagrama que indica o permite identificar
que hay un problema de heteroscedastidad, puesto que hay una alta dispersión
de Ui a medida que aumenta el valor de X, mismo que debe resolverse para
recuperar la bondad estadística de los estimadores.
Conviene reiterar, como se estableció antes, que los datos entre paréntesis que
acompañan la ecuación de regresión, corresponden a los errores estándar de los
coeficientes. Así, a partir de la ecuación de regresión se calcularon los residuos
en la forma ya familiar en la forma detallada antes explicada. Su análisis reveló
que dichos residuos ( en valores absolutos ) eran más grandes a medida que
crecía el valor de X, ingreso, y pequeños a medida que X tomaba valores
pequeños. Esta evidencia le permitió señalar a Maddala que las varianzas de los
errores no son las mismas, constantes y, por consiguiente hay
heterocedasticidad, de tal manera que los estimadores â y b̂ ya no son eficientes
(pero si insesgados) y cuestionan seriamente los resultados a que se llega
cuando se hacen pruebas de significación sobre las hipótesis en materia de
regresión y correlación.
2.5
2.0
1.5
ABSE
1.0
0.5
0.0
0 10 20 30 40 50
266
Como en el caso anterior, se observa que a medida que aumentan los valores de
“x” aumenta la dispersión de los residuos (abse), indicando que hay
heteroscedasticidad.
De la misma manera se puede utilizar los residuos al cuadrado para probar si hay
o no heteroscedasticidad; con Eviews: Quick/Generete Series/ y escribimos:
cuadrae=resid^2/ok y aparece la nueva variable “cuadrae” en el Workfile. Para
graficar vamos a: Quick/Graph/Scatter y escribimos: x cuadrae/ok apareciendo la
siguiente gráfica:
5
CUADRAE
0
0 10 20 30 40 50
1.- Correr una por una de las variables explicativas versus su variable explicada; o
267
VI.1.3.1.- La prueba de Ramsey: RESET.
Si ninguno de los coeficientes tiene una relación t>1, como es el caso, se toma la
decisión de aceptar la hipótesis nula, es decir, que no hay heteroscedasticidad,
además que al ser R 2 0.034 , pequeña, indica que no es fuerte la relación entre
X, Ui, es decir, no hay heteroscedasticidad.
Pasos:
268
probabilidades asociadas. Ejemplo, suponga que Y es la variable explicada y X
es la variable explicativa. Cuya ecuación de regresión es la siguiente y que se
genera con Eviews en la forma antes descrita:
Dependent Variable: Y
Method: Least Squares
Sample: 1 20
Included observations: 20
Variable Coefficient Std. Error t-Statistic Prob.
C 0.847052 0.703355 1.204302 0.2441
X 0.899325 0.025309 35.53360 0.0000
R-squared 0.985944 Mean dependent var 23.55500
Adjusted R-squared 0.985164 S.D. dependent var 10.78691
S.E. of regression 1.313895 Akaike info criterion 3.478509
Sum squared resid 31.07377 Schwarz criterion 3.578082
Log likelihood -32.78509 F-statistic 1262.637
Durbin-Watson stat 2.582686 Prob(F-statistic) 0.000000
269
para rechazar la hipótesis que es cierta: de que hay homoscedasticidad. En
concreto, en ese caso, decimos que hay heteroscedasticidad.
Se establecen:
En este caso los errores obtenidos en el primer ejercicio de las veinte familias
cuyo ingreso (X) y consumo (Y) son conocidos, se clasifican en orden creciente o
decreciente en dos grupos; el primero comprende los 10 valores pequeños de Ui
obtenidos con respecto a x; el segundo, los valores más grandes de Ui.
Enseguida se corre la regresión para cada uno de los dos grupos y, con estos
datos, se hace la prueba F, mediante la cual se contrasta la hipótesis nula de la
igualdad de las varianzas del error.
Para hacer más firme la toma de decisiones para aceptar o rechazar la hipótesis
de homocedasticidad, Salvatore (1993:152) y Gujarati (1991:266) recomiendan
sacar o quitar algunos datos centrales de la distribución con objeto de “acentuar la
diferencia entre el grupo de varianza pequeña y el grupo de varianza grande”. Sin
embargo, en este caso no omitiremos ningún dato porque como dice Gujarati
270
mismo: “la habilidad de la prueba de Goldfeld-Quant para llevar a cabo lo anterior
en forma exitosa depende de la manera como se escoja c”, que es el número de
datos a omitir. La decisión de eliminar datos es algo subjetivo; sin embargo, se
aconseja cuidar que el número de observaciones en cada submuestra sea mayor
al número de parámetros a estimar.
Así, tenemos que obtener dos grupos de datos: el primero, con los residuos
pequeños, el segundo, con los residuos grandes. Para ello usando Eviews: en
workfile/process/ vamos a clasif Sort Series/ escribimos X, “ascending”/ok. Igual
hacemos para Y y se obtienen los siguientes valores de X e Y: Sus valores
aparecen en orden ascendente, ahí luego, sample, doble clic, 1 10 Estimate
Equation name: Group01; igual hacemos para Group02, donde sample: 11 20,
271
Dependent Variable: Y1
Method: Least Squares
Sample(adjusted): 1 10
Included observations: 10 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 1.053316 0.616164 1.709474 0.1257
X1 0.876016 0.037939 23.09013 0.0000
R-squared 0.985217 Mean dependent var 14.36000
Adjusted R-squared 0.983369 S.D. dependent var 5.346692
S.E. of regression 0.689519 Akaike info criterion 2.271210
Sum squared resid 3.803487 Schwarz criterion 2.331727
Log likelihood -9.356051 F-statistic 533.1539
Durbin-Watson stat 1.745354 Prob(F-statistic) 0.000000
Dependent Variable: Y2
Method: Least Squares
Sample(adjusted): 1 10
Included observations: 10 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 3.278963 3.443383 0.952250 0.3689
X2 0.834637 0.096213 8.674885 0.0000
R-squared 0.903908 Mean dependent var 32.75000
Adjusted R-squared 0.891897 S.D. dependent var 5.401080
S.E. of regression 1.775825 Akaike info criterion 4.163264
Sum squared resid 25.22845 Schwarz criterion 4.223781
Log likelihood -18.81632 F-statistic 75.25363
Durbin-Watson stat 2.051248 Prob(F-statistic) 0.000024
Con los dos S.E. of regresión, elevándolos al cuadrado, calculamos las dos
varianzas y F:
272
Así, la F teórica se obtiene en tablas para 1% con 8 y 8 grados de libertad, y
es F 6.03 F 6.64, por lo que se rechaza la hipótesis de homocedasticidad y
se acepta que hay un problema de heterocedasticidad. Gráficamente:
F=6.03
obs X Y
1 6.2 6.1
2 8.1 8
3 10.3 10.3
4 12.1 12.1
5 14.1 13.1
6 16.4 14.8
7 18.2 17.9
8 20.1 19.8
9 22.3 19.9
10 24.1 21.6
11 28.3 25
12 26.1 25.5
13 30.1 29.3
14 32.3 31.2
15 36.6 31.8
16 34.5 33.1
17 38 33.5
18 44.7 38.6
19 40.2 38.8
20 42.3 40.7
273
2. Se elimina un determinado número de observaciones centrales para acentuar
la variación entre los valores pequeños y grandes, en este caso, no se elimina
ninguna observación.
Dependent Variable: Y
Method: Least Squares
Sample: 1 10
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 1.053316 0.616164 1.709474 0.1257
X 0.876016 0.037939 23.09013 0.0000
R-squared 0.985217 Mean dependent var 14.36000
Adjusted R-squared 0.983369 S.D. dependent var 5.346692
S.E. of regression 0.689519 Akaike info criterion 2.271210
Sum squared resid 3.803487 Schwarz criterion 2.331727
Log likelihood -9.356051 F-statistic 533.1539
Durbin-Watson stat 1.745354 Prob(F-statistic) 0.000000
274
Su regresión es:
Dependent Variable: Y
Method: Least Squares
Sample: 11 20
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 3.278963 3.443383 0.952250 0.3689
X 0.834637 0.096213 8.674885 0.0000
R-squared 0.903908 Mean dependent var 32.75000
Adjusted R-squared 0.891897 S.D. dependent var 5.401080
S.E. of regression 1.775825 Akaike info criterion 4.163264
Sum squared resid 25.22845 Schwarz criterion 4.223781
Log likelihood -18.81632 F-statistic 75.25363
Durbin-Watson stat 1.831152 Prob(F-statistic) 0.000024
4. Ahora, almacenamos los S.E.of regresión así: para el primero en la ventana de
comandos escribimos: scalar se1=@se/enter, mismo que aparecerá en el Workfile
como se1, cuyo valor se ve dando doble click a dicha variable, el cual es
mostrado como 0.689519 en la esquina inferior izquierda. Igualmente para
almacenar el de la segunda muestra hacemos: scalar se2=@se/enter, cuyo valor
es 1.775825
5. Generamos F escribiendo en la ventana de comandos: scalar
f=(se2/se1)^2/enter y aparece el valor de F en la parte inferior izquierda de la
pantalla haciendo doble click sobre el objeto escalar que acabamos de crear, el
cual es F=6.632978, que es el mismo valor calculado manualmente.
275
VI.1.4.- Solución al problema de heteroscedasticidad.
¿Cómo se corrige o resuelve la heteroscedastidad?
Así pues, trabajando con esta opción se corre la regresión en forma doble
logarítmica lineal. Usando los 20 datos originales y convirtiéndolos en logaritmos:
usando Eviews vamos a Quick/ Generate Series/enter equation, ponemos
lx=log(x); también ly=log(Y) y aparece la siguiente tabla:
obs LX LY
1 3.10458667847 2.99071973173
2 3.47506723023 3.44041809482
3 3.60004824041 3.45946628979
4 2.4932054526 2.4932054526
5 3.74478708605 3.70622809245
6 1.82454929205 1.80828877118
7 3.79997350162 3.65325227647
8 3.26193531433 3.23867845216
9 2.33214389524 2.33214389524
10 3.69386699562 3.65842024663
11 2.09186406168 2.07944154168
12 3.54095932404 3.49953328238
276
13 3.63758615973 3.51154543883
14 2.64617479738 2.57261223021
15 2.79728133483 2.69462718077
16 3.1822118405 3.07269331469
17 3.40452517175 3.37758751602
18 3.34286180465 3.21887582487
19 2.90142159408 2.88480071285
20 3.00071981507 2.9856819377
Dependent Variable: LY
Method: Least Squares
Sample: 1 20
Included observations: 20
Variable Coefficient Std. Error t-Statistic Prob.
C 0.075672 0.057393 1.318496 0.2039
LX 0.956186 0.018255 52.38022 0.0000
R-squared 0.993482 Mean dependent var 3.033911
Adjusted R-squared 0.993120 S.D. dependent var 0.550836
S.E. of regression 0.045689 Akaike info criterion -3.239278
Sum squared resid 0.037575 Schwarz criterion -3.139705
Log likelihood 34.39278 F-statistic 2743.688
Durbin-Watson stat 2.166013 Prob(F-statistic) 0.000000
Para calcular los residuos con E Views se estima la regresión, en el menú de
View, seleccionar Actual, Fitted, Residual, después nos vamos a Actual Fitted,
Table:
277
Enseguida clasificamos las Ui en función de X, en los dos siguientes grupos:
Una vez calculados los residuos de los dos grupos se corren sus dos
regresiones y se obtiene, para el primero: Quick, Estimate Equation: LY- C- LX1,
ok
278
Se dice que hay una solución porque se observa que no hay un aumento
significativo en el valor de los residuos ( ui ) a medida que crecen los valores de x,
es decir, se reduce la heterocedasticidad en las varianzas del error.
VI.1.4.1.1 Aplicación de F.
De las dos regresiones anteriores tenemos: con los cálculos de Maddala:
Grupo 1 Grupo 2
0.002789
Así, F 175
. ; Como F 3.44 para 5% y con α= 1% tenemos F
0.001596
teórica= 6.03 con 8 y 8 grados de libertad. En los dos casos vemos que no se
rechaza la hipótesis de homoscedasticidad; se dice que desapareció la
heteroscedasticidad, que los estimadores ahora son insesgados y eficientes y
ratifican los motivos por los cuales en el capítulo IX se prefirió esta forma
funcional.
279
explicación haremos uso de la función donde el Consumo Privado depende del
Producto Interno Bruto.
El modelo planteado es el siguiente:
CP = f (PIB)
280
La detección de heteroscedasticidad utilizando EViews se puede realizar por dos
métodos: 1. Métodos informales o gráficos; y 2. Métodos formales o numéricos.
En cuanto al primero tenemos: La gráfica de residuales, la representación gráfica
del valor absoluto de los errores y la representación gráfica del cuadrado de los
errores. Esto nos indica el grado de la heteroscedasticidad al observar la
dispersión, pudiendo ser ésta constante o variable. En caso de ser variable puede
ser reflejo de las dispersiones en aumento para la perturbación aleatoria y por
tanto indicio de la existencia de heteroscedasticidad.
Método gráfico.
Gráfica de residuos.
281
Cuadro 3. Representación de los valores observados y estimados
de la variable dependiente y los errores.
En cuanto a los errores (Residual), observamos que éstos se salen de las bandas
de confianza, ello es muestra de que los errores no poseen la misma varianza,
por lo que se concluye, mediante el análisis gráfico, que el modelo presenta
heteroscedasticidad. Asimismo, nótese que claramente se pueden visualizar tres
periodos en cuanto al comportamiento de los residuos: 1) entre 1980 y 1993; 2)
entre 1993 y 2003; y 3) entre 2003 y 2010. Ello denota que los errores no tienen
un mismo comportamiento, por lo que no poseen la misma o similar varianza, lo
cual demuestra, visualmente, que el modelo presenta heteroscedasticidad.
Así, para generar el valor absoluto de los términos de error en EViews nos
situamos dentro de la barra de comandos, en ella escribiremos el comando “genr
abse=@abs(resid)” y enseguida enter. Esto se muestra a continuación en el
Cuadro 4.
282
Cuadro 4. Barra de Comandos.
283
Cuadro 7. Archivo de Trabajo (Workfile).
284
Cuadro 9. Dispersión sencilla.
Ahora bien, para generar el gráfico del valor del cuadrado de los errores frente al
PIB se sigue un procedimiento similar, sólo que al abrirse el grupo se seleccionará
“cuadrae” en lugar de “abse”. Al igual que el gráfico del valor absoluto de los
285
errores, el gráfico del valor del cuadrado de los errores muestra que a medida que
aumentan los valores del PIB la dispersión de los errores al cuadrado también
aumenta, aunque no están tan dispersos los errores como en el gráfico anterior
(ver Cuadro 10), por lo que concluimos que existe heteroscedasticidad en el
modelo.
Método formal.
20
Se refiere a términos no cruzados cuando se realiza la regresión de los errores obtenidos en la
regresión original al cuadrado tomando como explicativas todas las variables independientes de la
regresión inicial y sus valores al cuadrado.
286
Cuadro 12. Ventana para generar la prueba de Heteroscedasticidad de White
para datos no cruzados.
En seguida aparecerá una ventana que muestra los valores de la prueba de White
para datos no cruzados, a continuación se muestran los más importantes:
287
determinan con k-1=3-1=2, y los grados de libertad en el denominador con n-
k=124-3=121.
F 3.0711
Como “F” calculada es menor que la “F” teórica, 2.6686 < 3.0711, no se rechaza
la Ho, y por tanto, concluimos que con esta prueba el modelo presenta
homoscedasticidad.
288
Cuadro 13. Prueba de Heteroscedasticidad de White para datos no cruzados.
289
simple, como en este caso, los resultados que se obtienen con White con datos
cruzados y no cruzados son los mismos.
La “Fc” es menor que la “Fα”, 2.6686 < 3.0711, no se rechaza la Ho, por
tanto, con esta prueba se concluye que el modelo presenta
homoscedasticidad.
La probabilidad asociada a la estadística “F(White)” es mayor a 0.05, por lo
que no se rechaza la Ho.
En la regresión auxiliar tenemos que: R2 = 0.042246 = 4.2246%, como
representa un valor pequeño, ello significa que las variables incluidas en
esta regresión no tienen poder explicativo sobre los residuos al cuadrado y
por tanto existe homoscedasticidad.
Es oportuno recalcar que los resultados para ambas pruebas, White con términos
cruzados y no cruzados son iguales con y sin términos cruzados, esto no es un
error al estimar los modelos, sino que se trata de un modelo de regresión simple,
es decir, que el modelo sólo tiene un regresor. Para los modelos de regresión
múltiple el resultado de ambas pruebas será diferente.
290
La Prueba ARCH utiliza como variables explicativas de la regresión auxiliar los
propios valores desplazados del residuo al cuadrado.
F1,102 3.9194
291
Como “F” calculada es mayor que la “F” teórica, 20.77735 > 3.9194, se rechaza la
Ho, y por tanto, concluimos que con esta prueba el modelo presenta no
homoscedasticidad.
Se podría concluir que los métodos gráficos utilizados para este modelo son un
primer acercamiento del comportamiento de los términos de error y la distribución
de su varianza. Pero puede que los gráficos no detecten el problema de forma tan
clara, es por eso que se recurre a las pruebas sobre los residuales utilizando las
más importantes.
292
En este caso a pesar de que la prueba de White para datos no cruzados y
cruzados es la prueba más eficazpara la detección de heteroscedasticidad debido
a que no se apoya en el supuesto de normalidad, es una distribución asintótica.
Los resultados obtenidos con la prueba ARCH LM contradicen los resultados
obtenidos con White. Por lo cual, a continuación se procederá a solucionar el
problema.
Como antes se indicó en el marco teórico del tema, existen diversas formas para
solucionar la heteroscedasticidad como:
293
Cuadro 18. Resultados de la nueva regresión.
294
5%
k 1 3 1 2
n k 124 3 121
F 3.0711
Como “F” calculada es menor que la “F” teórica, 1.265781 < 3.0711, no se
rechaza la Ho, concluimos que con esta prueba el modelo presenta
homoscedasticidad.
295
Cuadro 19. Prueba de Heteroscedasticidad de White para datos no cruzados.
La “Fc” es menor que la “Fα”, 0.9683 < 3.0711, no se rechaza la Ho, por
tanto, con esta prueba se concluye que el modelo no presenta problemas
de heteroscedasticidad.
296
Cuadro 20. Prueba de Heteroscedasticidad de White para datos cruzados.
Para la última prueba seguimos los pasos anteriormente descritos para poder
generar la Prueba ARCH (véase Cuadro 21).
297
Cuadro 21. Prueba ARCH LM.
5%
k 1 2 1 1
n k 123 2 121
F 3.9194
Como “F” calculada es menor que la “F” teórica, 3.160484 < 3.9194, no se
rechaza la Ho, y por tanto, concluimos que con esta prueba el nuevo modelo
presenta homoscedasticidad.
298
Mediante la probabilidad asociada a la estadística “F” que el programa
proporciona como “Prob (F-statistic)” se corrobora la prueba de hipótesis.
También se siguen los criterios de decisión anteriores:
Para llevar a cabo este modelo se utilizarán las variables siguientes: Formación
Bruta de Capital (FBK) como variable dependiente y como variables regresoras
Consumo Gubernamental (CG), Consumo Privado (CP) e Importaciones (M). La
información se obtuvo de INEGI para el periodo 1980-2010 en lapsos trimestrales
con el fin de explicar la actividad económica mexicana.
299
Es necesario plantear la prueba de hipótesis con la que se tomará la decisión de
presencia de heteroscedasticidad u homoscedasticidad a lo largo de éste tema:
Del Cuadro 22 y las hipótesis planteadas, se puede concluir que el modelo puede
presentar heteroscedasticidad debido a que el error estándar de la regresión,
presentado por S.E. of regression y Sum squared resid, que representa el ajuste
de los errores a la constante, presentan valores muy altos, 73501693 y 6.48x10 17
respectivamente, lo que puede indicar en primera instancia no
homoscedasticidad, es decir, que hay heteroscedasticidad.
Método gráfico.
Gráfica de residuos.
En éste Cuadro se observa que la serie de los residuales se sale de las bandas
de confianza en los primeros años de la serie y en los últimos, principalmente,
aunque también se sale en los años intermedios. Derivado de lo anterior se puede
afirmar que la serie tiene varianzas diferentes, por lo que el modelo presenta
heteroscedasticidad.
300
Diagrama de dispersión entre los valores absolutos de los errores, el
cuadrado de los mismos y la variable independiente.
Por lo que respecta al análisis del Cuadro 24 se puede observar que conforme
aumenta el valor del CG los valores de los errores en términos absolutos se
dispersan más, por lo que se puede concluir que se está ante la presencia de
heteroscedasticidad.
301
Cuadro 25. Diagrama de dispersión de valores absolutos de los errores
frente al Consumo Privado (CP).
Como se hace evidente, a partir del Cuadro 26, los errores se concentran en su
mayoría en los valores más pequeños de M, algunos pocos más se dispersan
conforme aumenta el valor de M. Con este Cuadro se puede concluir que, debido
a la alta concentración vertical de los errores, éstos son homoscedásticos.
302
Otro método gráfico para corroborar la conclusión de que existe
heteroscedasticidad es el análisis de los errores al cuadrado frente a cada una de
las variables independientes. La forma de obtención de dichos gráficos se explicó
en el Ejemplo 1 de éste tema. Así, el diagrama de dispersión de los residuales al
cuadrado frente al CG es el siguiente:
El análisis del Cuadro 27 es parecido a los anteriores, por lo que debido a que los
valores de los errores elevados al cuadrado frente al CG presentan gran
dispersión, es decir, no se concentran en torno a un mismo valor, se concluye que
existe heteroscedasticidad. Asimismo, se observa que a medida que aumenta el
valor del CG aumenta el valor del cuadrado de los errores, lo que confirma la
presencia de heteroscedasticidad.
303
En este caso se puede observar un resultado similar al del Cuadro anterior, ya
que los valores de los errores al cuadrado frente al CP no se concentran en torno
a un mismo valor. Asimismo, se observa que a medida que aumenta el valor del
CP se incrementan los valores de los errores al cuadrado. Todo ello corrobora la
presencia de heteroscedasticidad.
Método formal.
304
Cuadro 30. Prueba White para términos no cruzados.
305
La regla de de decisión asociada a F estadística es la que se verifica a
continuación:
Entonces:
Derivado de que:
<
Por otra parte, el valor de R2 que arroja el Cuadro 30 es de 0.091768, que también
se puede expresar como 9.176%, lo que indica que las variables incluidas en la
regresión auxiliar no explican el comportamiento, o lo hacen en una pequeña
proporción, de los residuales elevados al cuadrado, concluyendo, a partir de esta
prueba, que existe homoscedasticidad.
Para obtener esta prueba se realizaron los mismos pasos que en el ejemplo 1,
obteniéndose los siguientes resultados:
306
Cuadro 31. Prueba White para términos cruzados.
Donde:
Entonces:
307
Por lo que se acepta la Ho, es decir, el modelo presenta homoscedasticidad, de
acuerdo al estadístico F.
Prueba ARCH.
308
Esta prueba está asociada también al estadístico F. El contraste del estadístico F
se realiza de la misma forma que en la prueba de White, es decir, se contrasta F
teórica con la F calculada, que es la que arroja el Cuadro 32. En cuanto a la F
teórica se considero 1 grado de libertad en el numerador y 121 en el
denominador, así como un nivel de significación del 5%.
Donde:
Entonces:
309
Así, los resultados del nuevo modelo planteado son los siguientes:
Se realiza esta prueba como se indicó con anterioridad con la finalidad de verificar
la no existencia de heteroscedasticidad en el nuevo modelo propuesto. Los
resultados de la prueba White para términos no cruzados se muestra a
continuación:
310
Para realizar la interpretación de los resultados contenidos en el Cuadro 34 se
plantea la siguiente prueba de hipótesis:
Entonces:
<
Ello también se corrobora con el valor que asume el R 2, mismo que asciende a
0.052606, que también se puede expresar como porcentaje, 5.26%, indicando
que las variables explicativas, en realidad están explicando muy poco a los
residuales elevados al cuadrado.
311
Siguiendo los pasos descritos en el ejemplo 1 de este tema, pero aplicándolos al
caso concreto de este modelo, se obtuvieron los siguientes resultados:
312
Donde:
Entonces:
Prueba ARCH.
313
Cuadro 36. Prueba ARCH LM.
Donde:
Por lo tanto:
314
< indicando que se acepta la Ho, y por tanto, se
concluye que, en base al resultado de esta prueba, el modelo presenta
homoscedasticidad.
Para llevar a cabo dicha regresión con EViews se seguirán los pasos ya
habitúales, obteniendo el siguiente Cuadro:
315
Cuadro 37. Regresión original.
Método gráfico.
Gráfica de residuos.
316
En este Cuadro se observa que los errores del PIB frente al tiempo presentan una
heteroscedasticidad severa, ya que la serie se sale de las bandas de confianza 22.
Para obtener los valores estimados del PIB ( PIˆB ) en Eviews 5, una vez que se ha
realizado la regresión (ver Cuadro 37) en dicha ventana vamos al menú y damos
un click sobre el botón “Forecast”, con lo cual se desplegará una ventana como la
siguiente:
22 Éstas dan el rango dentro del cual dicha serie puede fluctuar sin presentar heteroscedasticidad.
317
Cuadro 40. Diagrama de dispersión del valor absoluto de los errores frente
al PIB estimado.
318
estimado también crecen los de los errores al cuadrado, denotando
heteroscedasticidad en el modelo.
De acuerdo con las pruebas gráficas se puede inferir que el modelo en general
presenta heteroscedasticidad, sin embargo, es necesario realizar otro tipo de
pruebas, en este caso formales, para corroborar que la afirmación que se está
haciendo es correcta.
Método formal.
319
El valor del estadístico F arrojado en el Cuadro 41 se contrasta con F teórica, a un
nivel de significación estadística de 5%, con 6 grado de libertad en el numerador
y 117 en el denominador. Esta determinación se realizó de la misma forma que se
obtuvo en el ejemplo 1 de éste tema.
Entonces:
Se observa que:
>
320
Cuadro 42. Prueba de White para términos cruzados.
321
Mediante la regla de decisión se observa que Fc= 4.3213 > por lo
que se procede a rechazar la hipótesis nula, es decir, el modelo presenta
heteroscedasticidad.
Prueba ARCH.
322
Ho: Homoscedasticidad incondicional autorregresiva.
Ha: Heteroscedasticidad condicional autorregresiva de orden n.
Entonces:
323
Cuadro 44. Regresión corregida.
En esta regresión se analiza, al igual que en la regresión original, el valor del S.E.
of regression, el cual es de 0.037554 y de Sum squared resid cuyo valor es de
0.166413; ambos son valores ínfimos si se comparan con los obtenidos en la
regresión original, lo cual puede ser un signo de que le heteroscedasticidad se ha
corregido, sin embargo, como ya se ha mencionado, es necesario aplicar otras
pruebas para corroborar lo anterior.
324
Cuadro 45. Prueba de White para términos no cruzados.
Por lo que:
325
Se verifica que:
<
La Probabilidad del estadístico F es de 0.2660 > 0.05 por lo que se acepta la Ho,
es decir, el modelo presenta homoscedasticidad. El valor obtenido de R 2 del
mismo Cuadro es de 0.0631, que en porcentaje se expresa como, 6.31%,
indicando que las variables explicativas, están explicando poco a la variable
dependiente. Concluyéndose que el modelo no presenta heteroscedasticidad.
326
Cuadro 46. Prueba de White para términos cruzados.
Fα = 2.0213
327
Dado que Fc= 1.3073 < se acepta la hipótesis nula, es decir, el
modelo es homoscedástico.
Asimismo, el valor que asume R2 = 0.0847 = 8.47%, indica que las variables
independientes incluidas en la regresión auxiliar (prueba White) no explican el
comportamiento de los residuales al cuadrado, por lo que se corrobora que el
modelo no presenta heteroscedasticidad.
Prueba ARCH.
328
Ho: Homoscedasticidad incondicional autorregresiva.
Ha: Heteroscedasticidad condicional autorregresiva de orden n.
Donde:
Por lo tanto:
Por lo que concierne al R2 éste es igual a 0.0093 = 0.93%, es decir, los residuales
al cuadrado tienen una ínfima relación con ellos mismos rezagados 1 periodo, lo
cual corrobora que el modelo no presenta heteroscedasticidad.
329
VI.6.- Reactivos para reafirmar los conocimientos.
3.- La prueba White no forma parte de los métodos numéricos para identificar la
heteroscedasticidad: Si____,NO____
4.- Con los métodos numéricos se establece la hipótesis nula de varianza variable
y la hipótesis alternativa de varianza constante: Si_____; No________
5.-Se recomienda hacer prueba de Goldfeld y Quandt cuando las muestras son
chicas : SI:_______; NO:___________
6.- Para aplicar la prueba de Goldfeld y Quandt los datos se deben de clasificar en
dos grupos, en el primero se ponen los de valor pequeño y en el segundo los de
valor mayor de Ui obtenidos con respecto a la variable regresada. Enseguida se
corre la regresión para cada uno de los dos grupos y, con los datos se hace
la prueba F : SI:__; NO__.
330
B- Ejercicio adicional: Identificación de la heteroscedasticidad en los
estimadores utilizando el Programa Eviews 5.
Planteamiento:
Los siguientes son los gastos de consumo, Cy, e Ingreso disponible, Ix, de 30
familias, mensualmente.
Con cualesquiera de los métodos aquí expuestos. Elimínela con cualquiera de los
métodos conocidos.
VI.2.- Autocorrelación.
La autocorrelación se puede presentar debido a factores como la inercia o la
lentitud de las series económicas, al sesgo de especificación, a variables
excluidas en la estimación, por utilizar la forma funcional incorrecta, debido a la
manipulación de datos, es decir por el manejo y transformación de los datos
(Gujarati, 2004: 471).
331
Así, se dice que la autocorrelación es típica de las series de tiempo debido a que
el efecto del valor de un término, digamos de ayer, incide en el valor del término
de hoy. Si hablamos en el lenguaje de la hipótesis nula, ésta se establece
diciendo que los términos de error ( u i ) en el modelo de regresión son
independientes, es decir: Ho: r=0, lo cual indica que no hay correlación entre
ellos.
Lo contrario, es hacer mención a la hipótesis alternativa indicando que es el
relajamiento de este supuesto (hipótesis nula), es decir Ha: r distinto de cero,
donde r es el coeficiente de correlación entre las Ui, lo cual indica que dichos
términos de error, son dependientes unos de otro. Lo anterior significa que hay
relación entre las Ui, que están correlacionadas, mismas que vistos en el ámbito
de las SERIES DE TIEMPO, revelan que hay AUTOCORRELACION entre ellas,
la cual se expresa en este caso con ρ, cuyo significado ahora es que hay
autocorrelación entre el valor del término actual de la serie Ut y el anterior U t-1.
Tanto r como ρ toman valores que van de -1 a +1, con la interpretación ya
conocida. Ejemplo, si analizamos el ingreso de las personas en varios años, el
ingreso del año uno influye en el ingreso del año dos, este en el del año tres, y así
sucesivamente, esto origina una autocorrelación de las Ui en el tiempo, que en
series de tiempo se conoce como autocorrelación serial.
VI.2.1.- Identificación de autocorrelación: se hace con la (r) para datos de
corte transversal y con (ρ) para series temporales, así como con la
estadística d de Durbin-Watson y la h de durbin y otros metodos que se
ilustran a continuación.
a) Aquí como en la heteroscedasticidad se usa r; de manera que en principio
de manera general se dice que cuando su valor es alto: cercano a más uno o a
menos uno, se dice que hay autocorrelación entre las Ui. Ahora usando la D,
decimos:
b) Prueba d de Durbin y Watson.
Como el término de error ( u t ) de un año está autocorrelacionado con el del año
inmediato anterior ( ut 1 ), Durbin y Watson elaboraron la estadística “d”, que sirve
para detectar la autocorrelación y se determina con la fórmula:
n
( u u )
2
t t 1
d 2
n
u
2
t
1
en la que u t
se define como el residuo estimado para el período o año t.
d
u
ˆ
2
t u
2
t 1 2 u
ˆt uˆt 1
uˆ
2
t
332
u
2
Tomando en cuenta que cuando la muestra es grande se observa que t
y
u
2
t 1
son casi iguales ya que difieren en una observación, tal que podemos
decir 1+1= 2; en otras palabras ambas sumatorias son iguales, y si factorizamos
tenemos que d= 2( 1- la segunda parte del desarrollo), dividida entre el
denominador que ahí aparece; luego, si decimos que r representa la
autocorrelación entre ellos, es decir que r representa la segunda y última parte de
la ecuación, entonces podemos establecer que la fórmula se puede expresar
como:
d 2( 1 - r ), al respecto recuerde que r en series temporales se expresa como ρ.
Ahora bien, puesto que sabemos que r ó ρ oscilan entre –1 y +1, con
desigualdades podemos decir para r lo siguiente: -1 r 1 y para ρ lo mismo.
Derivado de lo anterior, podemos establecer las siguientes igualdades:
Cuando r ó ρ = + 1, se dice que d = 0; hay autocorrelación positiva entre U t y Ut-
1;
333
Si d < d L , se acepta la hipótesis de autocorrelación, Ha: r 0 y se rechaza
Ho: r=0
2( k 1)
E(d) = 2 +
nk
K es igual al número de parámetros de regresión estimados (se incluye el término
constante). Dominick Salvatore(9) dice que k = número de variables explicativas +
1 ( término constante ), ver Anexo.5 en el anexo de todas las tablas estadísticas, y
si n es el tamaño de la muestra, vamos a A.5 y encontramos k ´1 , que
necesitamos para obtener diferentes valores de d. Con estos datos se buscan en
la tabla de Durbin Watson los valores d L y d u y se comparan con la d calculada
para identificar si hay o no autocorrelación entre los residuos.
Por otra parte, también es muy importante indicar que una vez que sabemos que
hay autocorrelación, el siguiente paso es identificar de qué orden es la
autocorrelación, ello se sabe al calcular y trazar el correlograma, de manera
que si vemos en él que la gráfica de la función de autocorrelación parcial, por
ejemplo, sólo muestra una “barra” que se salga del intervalo de confianza,
entonces decimos que la autocorrelación es de primer orden , y se expresa así:
AR(1), (Pérez, 2007: 176)
334
a) Dominick Salvatore (*) dice que para corregir la autocorrelación se debe
estimar ρ, por ser el indicador de la autocorrelación serial. Así, se
determina a partir de d= 2(1-r); despejando obtenemos r=2-d/2, de manera
que cuando por ejemplo d=0.88, vemos que r= 2-0.88/2=1.12/2=0.56, valor
a utilizar para reducir o eliminar la autocorelación. Así, según el valor que
tome r será la reducción o eliminación de la autocorrelación
(Gujarati,1991:323).
b) El mismo autor Gujarati ( 1991: 330) comenta que Theil y Nagar sugieren
que en muestras pequeñas r (nuestro ρ) se debe estimar con la f órmula:
N 2 (1 d / 2) k 2
r
N2 k2
Añ 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19
o 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78
Y 52. 53. 54. 58. 60. 63. 68. 78. 84. 90. 98. 10 10 10 12 15 15 17 18 19
9 8 9 2 0 4 2 0 7 6 2 1.7 2.7 8.3 4.7 7.9 8.2 0.2 0.0 8.0
X 30. 30. 30. 33. 35. 37. 41. 44. 46. 50. 53. 52. 55. 63. 73. 84. 86. 98. 11 12
3 9 9 4 1 3 0 9 5 3 5 8 9 0 0 8 6 8 0.8 4.7
Dependent Variable: Y
Method: Least Squares
Date: 11/22/04 Time: 21:13
Sample(adjusted): 1959 1978
Included observations: 20 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 6.608085 3.329150 1.984917 0.0626
X 1.631438 0.050975 32.00487 0.0000
R-squared 0.982731 Mean dependent var 103.2300
Adjusted R-squared 0.981771 S.D. dependent var 46.47964
S.E. of regression 6.275390 Akaike info criterion 6.605788
Sum squared resid 708.8494 Schwarz criterion 6.705361
Log likelihood -64.05788 F-statistic 1024.312
Durbin-Watson stat 0.696772 Prob(F-statistic) 0.000000
335
Dado que con n = 20 y K1 =2-1= 1 y = 5% d L
1.20 tenemos que d = 0.70 <
d L
1.20 se acepta la hipótesis de autocorrelación. Así, para corregir la
autocorrelación, se dice que una estimación de r esta dada por r= 2-d/2 = 2-
0.70/2= 1.30/2=0.65
Con la otra fórmula, de Gujarati, se obtiene r= 0.67
Si usamos r=0.67 para transformar las variables originales y utilizando el dato del
2
año de 1959 : 52.9 1 ( 0 . 67 ) = 39.27 y del mismo año el valor de las
2
ventas, 30.3 1 (0.67) 22.49 para la primera observación transformado de Y
y X, respectivamente. Para el resto de los valores transformados de Y e X se
calcula de la siguiente manera:
336
1 rˆ para el primer dato de X, que corresponde a 1959, y para no
2
usamos x 1
desecharlo
X 1* X 1 1 r 2 30.3 1 0.4489 30.3 0.5511 30.3(0.74) 22.49 para el primer
término de X
X 2* X 2 rX 1 30.9 0.67(30.3) 10.60 ;para el segundo y subsecuentes X´s,
seguir ecuaciones
X 3* X 3 rX 2 30.9 0.67(30.9) 10.20
X 4* X 4 rX 3 33.4 0.67(30.9) 12.70
X 5* X 5 rX 4 35.1 0.67(33.4) 12.72
X 6* X 6 rX 5 37.3 0.67(35.1) 13.78
X 7* X 7 rX 6 41.0 0.67(37.3) 16.00
X 8* X 8 rX 7 44.9 0.67(41.0) 17.43
X 9* X 9 rX 8 46.5 0.67(44.9) 16.42
X 10* X 10 rX 9 50.3 0.67(46.5) 19.15
X 11* X 11 rX 10 53.5 0.67(50.3) 19.80
X 12* X 12 rX 11 52.8 0.67(53.5) 16.96
X 13* X 13 rX 12 55.9 0.67(52.8) 20.52
X 14* X 14 rX 13 63.0 0.67(55.9) 25.55
X 15* X 15 rX 14 73.0 0.67(63.0) 30.79
X 16* X 16 rX 15 84.0 0.67(73.0) 35.89
X 17* X 17 rX 16 86.6 0.67(84.8) 29.78
X 18* X 18 rX 17 98.8 0.67(86.6) 40.78
X 19* X 19 rX 18 110.8 0.67(98.8) 44.60
*
X 20 X 20 rX 19 124.7 0.67(110.8) 50.46
337
De manera detallada usando Eviews:
338
En este contexto es que decimos que los efectos diferidos en el tiempo se
incorporan en un modelo econométrico mediante el uso de “variables retardadas o
rezagadas” . Dichos efectos pueden indicar autocorrelación o dependencia entre
los términos de error Ui de los años sucesivos de la serie bajo estudio. Al
respecto, dichos efectos pueden expresarse de dos maneras diferentes, las
cuales Son:
VI.2.4.1.1.- Por medio de modelos autorregresivos.
En este caso la incidencia del tiempo (t) se cuantifica por medio del uso de la
variable endógena Yt ahora como variable exógena pero retardada en algún
lapso de tiempo, digamos anualmente, misma que se denota como Yt -1 o Y(-1),
donde (-1) se conoce como rezago o retardo de un año; igualmente, en ese
sentido digamos Yt-3 o Y(-3) indica que Y ha sido rezagada o retardada tres años,
la cual ahora puede usarse como variable explicativa de Y en algún periodo de
análisis determinado dado que las Yt-1 Yt-3 son las variables que ahora mantienen
sus efectos en Y.
Por medio de modelos de rezagos o retardos distribuidos.
A diferencia de los modelos autorregresivos, en estos las variables explicativas X 1
y X2 son las que mantienen impactos o efectos prolongados en el tiempo sobre la
variable dependiente Y.
VI.2.4.1.2.- Modelos autorregresivos usados para detectar autocorrelación
con h llamada “ Contraste h de Durbin”, definiendo a Y como consumo, X 1:
ingreso, X2: inflación, de los últimos 30 meses, cuya base de datos es la
siguiente:
Observación Y X1 X2
1 3 1 8
2 2 2 15
3 4 2.5 10
4 5 3 9
5 5 4 7
6 7 5 6
7 6 7 8
8 8 8 4
9 9 9 3
10 12 15 1
11 12.2 16 1.5
12 12.4 13.5 4
13 12.1 13.6 3.5
14 12.5 14.2 4.6
15 12.9 16.5 2.3
16 13.8 16.2 4.2
17 14.1 18.6 3.9
18 13.1 19.3 5.2
19 13 17.2 4.1
20 13.2 18.6 3.19
21 13.3 15.6 4.6
339
22 13.4 19.2 3.9
23 13.5 13.6 4.2
24 14.1 15.6 4.5
25 14.2 17.5 3.1
26 14.3 16.2 5.3
27 14.4 14.2 4.2
28 15 16.2 4.3
29 15.2 16.6 3.8
30 15.6 17.5 4
340
TS2 βk+1. Se establece que h se distribuye normalmente con media aritmética cero
y varianza 1; donde ρ es el estimador obtenido en la regresión que se corre de las
Ui frente así mismas retardadas un periodo y sin término constante; TS2 βk+1 es el
valor de la varianza del estimador correspondiente a la variable endógena
retardada un periodo Y(-1) y finalmente T: es el número de términos ( Carrascal et
al, 2001: 296). Aquí es importante observar que el signo de la estadística h en la
Ha es igual al de ρ. Ejemplo: con α=5% trabajada en una prueba de una cola o
extremo, cuando h es mayor que t α = + 1.645 se rechaza Ho de incorrelación y se
acepta Ha de que existe autocorrelación positiva entre Y(-1) y las Ui´s; luego
cuando h es menor que tα = - 1.645 se rechaza Ho frente a la aceptación de Ha
de que se ha detectado autocorrelación negariva.
Así, para detectar con Eviews si hay autocorrelación los pasos a seguir son los
siguientes:
1. Crear la ecuación: Quick/Estimate Ecuation/ Y_C_X1_Y(-1) / ok. Cuyos
resultados son los siguientes:
Dependent Variable: Y
Method: Least Squares
Date: 10/28/08 Time: 12:25
Sample(adjusted): 2 30
Included observations: 29 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 1.424546 0.460451 3.093805 0.0047
X1 0.161815 0.088443 1.829606 0.0788
Y(-1) 0.715366 0.119971 5.962817 0.0000
R-squared 0.956057 Mean dependent var 11.38966
Adjusted R-squared 0.952677 S.D. dependent var 3.818035
S.E. of regression 0.830570 Akaike info criterion 2.564289
Sum squared resid 17.93603 Schwarz criterion 2.705734
Log likelihood -34.18219 F-statistic 282.8386
Durbin-Watson stat 2.148425 Prob(F-statistic) 0.000000
Observe que estos resultados son para 29 datos porque hay un retardo o
rezago, por eso leemos en “Sample (adjusted): 2 30” y en “included observatios:
29 after adjusting endpoints”.
341
Dependent Variable: RESID01
Method: Least Squares
Date: 10/28/08 Time: 12:33
Sample(adjusted): 3 30
Included observations: 28 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
RESID01(-1) -0.182654 0.169592 -1.077024 0.2910
R-squared 0.032551 Mean dependent var 0.067653
Adjusted R-squared 0.032551 S.D. dependent var 0.725708
S.E. of regression 0.713799 Akaike info criterion 2.198629
Sum squared resid 13.75673 Schwarz criterion 2.246208
Log likelihood -29.78081 Durbin-Watson stat 1.781797
En este caso el dato importante, y por tanto el que vamos a rescatar, es el valor
del coeficiente de la variable retardada “Resid01(-1)” que identificamos con la letra
“ρ” (rho) y que en Eviews representamos con “r” que es igual a: -0.182654, mismo
que en EViews se guarda como objeto escalar de la siguiente forma: vamos al
menú de comandos de la ventana principal y ahí escribimos:
scalar_r=@coefs(1)/enter y primero aparece como un objeto más en el Workfile
mismo que si le damos doble click su valor aparecerá en la parte inferior izquierda
de la pantalla como se muestra a continuación:
Scalar_h=r*@sqrt(@regobs/(1-@regobs*(@stderrs(3))^2))
Nota: Para calcular “h” necesitamos que esté activada la ecuación original,
aquella en donde está incluida la variable endógena retardada como exógena,
esto se logra dando un click sobre ella.
Donde:
342
r = Coeficiente de las Ui rezagadas un periodo.
Regobs = Número de observaciones, en este caso 30.
Stderrs(3) = Es la desviación estándar del estimador correspondiente a la variable
endógena retardada Y(-1). El número 3 del stderrs corresponde a la posición de
este coeficiente en la ventana de la ecuación de regresión en Eviews, por lo que
puede variar según su posición o lugar que ocupe en dicha ventana: en nuestro
caso ello sucediò cuando creamos en el paso 1 la ecuación de regresión en que
establecimos Y(-1) en tercer lugar, por ello su stderrs ahora lleva el número 3. ; al
respecto, dicha posición o lugar la establece subjetivamente la persona que está
calculando h . En este contexto el 2 que le sigue en la ecuaciòn anterior de
arriba para h, significa que stderrs fue elevado al cuadrado, i.e., indica que es la
varianza de Y(-1). Cabe señalar que para elevar al cuadrado en Eviews
hacemos: apretamos la tecla Alt simultáneamente con las teclas 9 y 4, enseguida
se sueltan las tres y aperece en pantalla “^2”.
343
Atención: Si hubiéramos rechazado Ho, es decir aceptado Ha, estaríamos frente
a un problema de autocorrelación, mismo que deberíamos de resolver llevando a
cabo la estimación incorporando un esquema AR(1) y partiendo de la estimación
por variables instrumentales para ver si es total la dependencia de Y(-1) de las
Ui´s. Con esta metodología obtendremos estimadores consistentes de todos los
parámetros incluido el del esquema AR(1). Así, suponiendo que hubiera
autocorrelación entre Y(-1) y Ui´s, ilustremos cómo se eliminaría con el siguiente
ejemplo:
En este caso debe cuidarse que el número de variables instrumentales debe ser
menor o igual que el número de regresores en el modelo econométrico ( el
programa Eviews incluye por default una variables con valor de 1 cuando no se
haya incluido C entre las mismas), por eso utilizamos X1 y X1(-1).
1. Creamos la ecuación con los instrumentos X1 y X1(-1) de la siguiente manera:
Quick/Estimate Equation/ y en la especificación del modelo escribimos: Y_X1_Y(-
1)_C /, abajo en el método seleccionamos: TSLS-Two stage Least Squares
(TSNLS and ARMA), luego en “Instrument List” escribimos: X1_X1(-1)/ok y
aparece la siguiente ecuación:
Dependent Variable: Y
Method: Two-Stage Least Squares
Date: 10/28/08 Time: 13:14
Sample(adjusted): 2 30
Included observations: 29 after adjusting endpoints
Instrument list: X1 X1(-1)
Variable Coefficient Std. Error t-Statistic Prob.
X1 0.209346 0.136012 1.539176 0.1358
Y(-1) 0.647204 0.190603 3.395554 0.0022
C 1.546159 0.532832 2.901779 0.0075
R-squared 0.955512 Mean dependent var 11.38966
Adjusted R-squared 0.952089 S.D. dependent var 3.818035
S.E. of regression 0.835710 Sum squared resid 18.15871
F-statistic 267.5755 Durbin-Watson stat 2.044055
Prob(F-statistic) 0.000000
344
las variables instrumentales y de las variables originales del modelo
econométrico y, por consiguiente, no con las variables obtenidas en la segunda
etapa del algoritmo de cálculo.
345
Breusch-Godfrey Serial Correlation LM Test:
Obs*R-squared 0.611607 Probability 0.434183
Test Equation:
Dependent Variable: RESID
Method: Two-Stage Least Squares
Date: 10/28/08 Time: 13:27
Presample missing value lagged residuals set to zero.
Variable Coefficient Std. Error t-Statistic Prob.
X1 0.046525 0.151170 0.307767 0.7608
Y(-1) -0.062056 0.210086 -0.295386 0.7701
C 0.064875 0.544842 0.119071 0.9062
RESID(-1) -0.161584 0.220172 -0.733898 0.4698
R-squared 0.021090 Mean dependent var -2.68E-17
Adjusted R-squared -0.096379 S.D. dependent var 0.805311
S.E. of regression 0.843226 Akaike info criterion 2.624278
Sum squared resid 17.77574 Schwarz criterion 2.812871
Log likelihood -34.05203 F-statistic 0.179536
Durbin-Watson stat 1.709575 Prob(F-statistic) 0.909269
346
Cuando esto no sucede, es decir, si no se hubiera corregido la autocorrelación,
podríamos seguir usando AR: X1(-1), X2(-2),X3(-3),…..,XM tantas veces como
fuera necesario para corregirla.
Antes de iniciar el tema, quiero aprovechar para informar que los métodos aquí
utilizados complementan congruente y eficazmente los expuestos en la sección
teórica anterior. Al término de esta sección contará con un acervo suficiente y
actualizado para hacer análisis de autocorrelación.
De acuerdo con la teoría Keynesiana el Consumo está en función del Ingreso. Por
lo tanto, el Ingreso es igual al Consumo y la Inversión, con esto se tratará de
347
hacer una aproximación para determinar cómo está explicado el Consumo
Privado.
).
Ho: No autocorrelación.
Ha: Autocorrelación.
348
Cuadro 1. Regresión original.
349
Cuadro 2. Valores Reales, Estimados y Residuales.
350
Cuadro 3. Pasos para obtener el Correlograma.
351
Cuadro 5. Correlograma Q.
352
Se utiliza para modelos mayores a 12 datos. Funciona con 2 zonas de indecisión
al 95% de confianza, no tiene asociada ninguna distribución de probabilidad y
tiene un orden de autocorrelación 1.
d ≈ 2 No existe autocorrelación.
Se establecieron los límites inferior (dL) y superior (dU) para los valores críticos
del estadístico d en función de las características mencionadas. Si el valor
muestra de d es inferior a 2, la verificación o rechazo de la hipótesis es de la
siguiente forma:
353
como la mostrada en el Cuadro 7. En la parte inferior izquierda se muestra el
estadístico DW.
Entonces se tiene que d= 0.825484 < dL 1.592. Por tanto, se rechaza la hipótesis
nula, existe autocorrelación positiva.
2. Prueba Breusch-Godfrey.
Ho: No Autocorrelación.
Ha: Autocorrelación.
354
Para realizar la prueba Breusch Godfrey en EViews 5 se estima la ecuación de
regresión (ver Cuadro 7); en la ventana de la regresión vamos a: View/Residuals
Test/ Serial Correlation LM Test/ Lags to include 2.
En el Cuadro siguiente se muestra cuáles son los pasos para obtener la prueba
Breusch-Godfrey con Eviews 5.
Cuadro 8. Pasos para obtener la prueba Breusch-Godfrey.
355
Cuadro 10. Prueba Breusch-Godfey.
356
Para generar la prueba Arch LM en EViews 5 se estima la ecuación de regresión
(ver Cuadro 7); en la ventana de la regresión vamos a: View/Residuals Test/
ARCH LM Test/ Lags to include 2.
En el Cuadro siguiente se muestra cuales son los pasos para obtener la prueba
ARCH LM con Eviews 5:
Cuadro 11. Pasos para obtener la prueba ARCH LM.
357
Cuadro 13. Prueba ARCH LM.
Métodos de Corrección:
358
objetivo es proporcionar un estimador de (p), que pueda utilizarse para
obtener los estimadores de MCG de los parámetros. Puede utilizar no sólo
un esquema AR (1) sino esquemas autoregresivos de orden superior.
5. Cuando la autocorrelación es pura se puede utilizar Mínimos Cuadrados
Generalizados (MCG).
Propuesta de corrección.
Existen razones para utilizar rezagos las cuales son: Razones psicológicas esto
se da como resultado de la fuerza de un hábito, la gente no cambia sus hábitos de
consumo inmediatamente después de algún cambio. Las razones tecnológicas
ocurren cuando se adiciona algún elemento como el capital. Razones
institucionales por ejemplo las obligaciones contractuales pueden impedir a las
empresas cambiar su fuente de trabajo o materias primas.
Dónde:
Ho: No Autocorrelación.
359
Ha: Autocorrelación.
Estimación de la regresión.
Detección de autocorrelación.
Prueba Breusch-Godfrey.
360
Cuadro 15. Pasos para obtener la prueba Breusch-Godfrey.
361
En el Cuadro 17 se muestra la prueba Breusch-Godfrey, en la cual la probabilidad
asociada del estadístico F es de 0.198369, lo cual es mayor a 0.05 entonces se
acepta la hipótesis de no autocorrelación. Al incluir dos rezagos en el PIB (-2),
quiere decir que los primeros dos datos se están perdiendo, por tanto, ya no será
del primer dato con el primer dato. Los estimadores siguen teniendo las
propiedades de eficiencia e insesgadez. Nótese también que todas las variables
independientes incluidas en esta regresión auxiliar son no estadísticamente
significativas, por lo que no tienen ninguna relación con la variable dependiente,
en este caso los residuales. Asimismo, el estadístico F del modelo indica que en
su conjunto las variables independientes no explican a la dependiente. En cuanto
al R2 obtenido, éste asciende a 2.84%, lo que indica que las variables
independientes incluidas en la regresión auxiliar no explican los cambios en los
residuales. Todo ello es indicativo de que no existe autocorrelación en el modelo.
362
Cuadro 19. Rezagos a incluir.
Del Cuadro 20 se observa que se aplicó la prueba de Arch LM la cual tiene una
probabilidad asociada al estadístico F de 0.242154 que es mayor a 0.05, por lo
tanto se acepta la hipótesis nula Ho: no existe correlación. Además que la
varianza no presenta un proceso de comportamiento ARCH(n), es decir no
depende de ella misma rezagada en el tiempo, se descarta la posibilidad de que
exista un proceso heterocedástico que pueda presentar la varianza del tipo
ARCH(n).
Correlograma.
363
Correlogram Q Statistics/ Lags to include 30, con lo cual se mostrará una ventana
como la contenida en el Cuadro 21.
364
Ejemplo 2: Modelo de exportaciones.
En este ejemplo se buscará hacer una regresión donde las Exportaciones (X)
estén explicadas por el Producto Interno Bruto (PIB), la Formación Bruta de
Capital Fijo (FBKF), el Tipo de Cambio (TC) el cual suponemos que afecta de
manera negativa a las exportaciones y finalmente el Consumo de Gobierno (CG).
Ho: No autocorrelación.
Ha: Autocorrelación.
365
Gráfica de residuales frente al tiempo.
Correlograma.
366
Cuadro 24. Correlograma.
Prueba Durbin–Watson.
367
Cuadro 25. Resultados de la Regresión Original.
Prueba Breusch-Godfrey.
368
Ho: No Autocorrelación.
Ha: Autocorrelación.
369
explican los cambios en la dependiente. Todo lo anterior es indicativo de que el
modelo presenta autocorrelación.
370
Cuadro 28. Prueba ARCH LM Test con 3 rezagos.
Propuesta de corrección.
Dónde:
371
LPIB(-2)= es el logaritmo del PIB rezagado 2 periodos.
Estimación de la regresión.
Detección de autocorrelación.
Prueba Breusch-Godfrey.
372
Correlation LM Test/ Lags to include 3.
La prueba de hipótesis es la siguiente:
Ho: No Autocorrelación.
Ha: Autocorrelación.
373
Prueba ARCH-LM.
374
mismos rezagadaos 1, 2 y 3 periodos. Como el valor que asume el R 2 es muy
bajo, se concluye que el modelo no presenta autocorrelación.
Correlograma.
375
La regresión finalmente no presenta autocorrelación, las varianzas y los errores
estándar son mínimos y los estimadores recuperaron la propiedad de la
eficiencia. Como la regresión cuenta con 3 rezagos, esto quiere decir, que la
correlación de los datos no es de uno a uno, entonces se pierden los 3 primeros
datos.
Ho: No autocorrelación.
Ha: Autocorrelación.
376
Con EViews 5 se pueden obtener los residuales de la siguiente manera: en la
pantalla de la regresión ir a View/ Actual Fitted, Residual/ Residual Graph, con lo
cual se obtiene un Cuadro como el siguiente:
Correlograma.
377
Cuadro 35. Correlograma.
Prueba Durbin–Watson.
378
Cuadro 36. Resultados de la Regresión Original.
Prueba Breusch-Godfrey.
379
que la prueba Durbin-Watson nos permite probar autocorrelación de orden 1, el
correlograma de orden 2, además de que los datos son trimestrales, por lo que
será preciso probar Autocorrelación de orden 3 y 4)
La prueba de hipótesis es la siguiente:
Ho: No Autocorrelación.
Ha: Autocorrelación.
380
La prueba de Arch LM analiza si la varianza tiene un proceso de comportamiento
Arch, es decir, si depende ó no de ella misma rezagada (n) veces. Además en un
proceso heterocedástico pueda presentarse la varianza del tipo Arch(n).
381
la variable dependiente, en este caso “RESID^2”. En caso de que no existiera
autocorrelación los residuos rezagados no deberían tener relación alguna con los
residuos, es decir, con la variable dependiente. El estadístico F de la regresión
auxiliar (prueba ARCH LM) es estadísticamente significativo, por tanto, denota
que las variables independientes explican a la variable dependiente, en caso de
que no existiera autocorrelación, el estadístico F deberá ser no significativo. Por lo
que respecta al valor del R2, éste asciende a 12.03%, por lo que las variables
independientes explican el 12.03% de los cambios que ocurren en la variable
dependiente, en caso de que no existiera autocorrelación el R 2 deberá ser
cercano o tendiente a cero. Por tanto, en este caso, a partir de esta prueba,
concluimos que el modelo presenta autocorrelación.
Propuesta de corrección.
Donde:
LM= logaritmo de la M.
Estimación de la regresión.
382
Cuadro 40. Resultados de la regresión reespecificada.
Detección de autocorrelación.
1. Prueba Breusch-Godfrey.
Ho: No Autocorrelación.
Ha: Autocorrelación.
383
Cuadro 41. Corrección prueba Breusch-Godfrey con 3 rezagos.
384
Cuadro 42. Prueba ARCH LM.
Correlograma.
385
Cuadro 43. Correlograma.
En resumen, con estos tres ejercicios ahora el lector dispone de más métodos
tanto para identificar como para eliminar o reducir la autocorrelación. Así, estos
métodos complementan los descritos en la exposición teórica del tema.
386
VI.2.6.- REACTIVOS PARA REAFIRMAR LOS CONOCIMIENTOS.
2.- La hipótesis nula es que los Ui son dependientes, es decir, r mayor que cero :
SI_____;NO_____.
3.- Una autocorrelación refleja que el valor del año anterior de la variable influye
en su valor de este año: Si_____; No________
387
10.- La prueba h de Durbin es recomendable aplicar cuando la variable
14.- Los modelos con retardos distribuidos finitos sirven para determinar hasta
dónde llega el efecto de la variable independiente sobre la dependiente en el
tiempo: SI:__; NO__.
388
VI.3.- MULTICOLINEALIDAD.
Aquí antes de iniciar la explicación de los métodos que podemos usar, he juzgado
conveniente traer a colación lo señalado por Gujarati (1990:258) sobre la
heteroscedasticidad en el sentido de que no es tan fácil detectarla, cuando dice
que “ no existen reglas fijas y seguras para detectarla, sino sólo unas
cuantas reglas generales”. ¿En el caso de la multicolinealidad debemos
interpretar igualmente a Wooldridge (2009: xiv) ? quien dice que “ mi opinión –
de que la multicolinealidad es aún un tema poco comprendido y de que las
afirmaciones que dicen que uno puede detectar y corregir multicolialidad están
equivocadas-no ha cambiado”.
Con esas referencias y actuando con las reservas del caso, podemos decir que
existe multicolilealidad entre las variables explicativas:
3.- Con la prueba de Theil, estableciendo que 0≤Theil≤1, de manera que cuando:
Ho: Theil=0, se dice que no existe multicolinealidad entre las variables exógenas;
389
Ha: Theil=1, se dice que si existe multicolinealidad entre ellas
Regla de decisión:
Ejemplo: Sea el caso en que existen la variable endógena (1) explicada por dos
exógenas (2 y 3), tal que
390
En beneficio del mayor y mejor aprendizaje del lector de esta metodología, es
conveniente que compare los métodos expuestos en la sección teórica de este
tema, con los que a continuación se expondrán; todo ello con el objetivo de que
incremente su acervo, evalué cada uno de ellos y se forme un criterio sólido
sobre lo robusto de cada uno de los métodos, así como cuándo aplicar cada uno
de ellos.
391
Cuadro 2. Resultados de la regresión.
392
En nuestro caso, observamos (ver Cuadro 2) que el R2 es relativamente
considerable, mientras que el estadístico F nos indica que en su conjunto todas
las variables independientes explican a la variable dependiente. Sin embargo, las
variables PIB y FBKF son estadísticamente significativas ya que su probabilidad
es menor a 0.05; mientras que la probabilidad asociada a la variable X es mayor
a 0.05, indicando que ésta no explica a la variable dependiente, es decir, es no
estadísticamente significativa. Estos resultados indican la posibilidad de alta
multicolinealidad.
2. Matriz de correlaciones.
Para determinar si existe alta multicolinealidad por medio de la matriz de
correlaciones se sugiere observar el coeficiente de correlación entre dos
regresoras, si alguno de estos es mayor al coeficiente de determinación de la
regresión original (R2), entonces tenemos presencia de alta multicolinealidad.
Planteamos la siguiente prueba de hipótesis.
Ho: No multicolinealidad.
Ha: Multicolinealidad.
Regla de decisión:
393
3. Regresiones auxiliares (Prueba de Klein).
Se realizarán tres regresiones auxiliares, en donde cada variable independiente
tomará el papel, ahora, de variable dependiente, con la finalidad de comparar los
R2 de cada una de ellas respecto al R2 de la regresión original.
La regla de decisión será la siguiente:
394
Cuadro 6. Resultados de la Regresión auxiliar 2.
4. Prueba de Theil.
La prueba Theil es la diferencia entre la variabilidad explicada por el modelo
completo y la suma de cada una de las aportaciones de los regresores al modelo.
Para ello se utilizarán los R2 obtenidos en las regresiones auxiliares anteriores
Para evaluar los resultados mediante esta prueba es necesario formular la
siguiente prueba de hipótesis:
395
Ho: No multicolinealidad.
Ha: Multicolinealidad.
Donde:
R2 original = 0.515574
Ho: No multicolinealidad.
Ha: multicolinealidad.
396
Si el valor de FIV es ≤ a 10 se acepta Ho.
Si el valor de FIV es > a 10 no se acepta Ho.
La fórmula es:
1
FIV 2.06
(1 0.515574 )
Así, como el valor del FIV es de 2.06, entonces aceptamos Ho. Por tanto, se
concluye que, de acuerdo a esta prueba, no existe alta multicolinealidad en el
modelo.
Ahora estimaremos el FIV para cada una de las variables independientes para
determinar cuál o cuáles son las variables independientes causantes de la alta
multicolinealidad. Para ello se tomarán los R2 correspondientes de las
ecuaciones auxiliares previamente realizadas.
A continuación se muestran los valores del FIV para cada regresión auxiliar:
397
Los factores de inflación de varianza de la regresiones auxiliares 1 y 3 son
mayores a 10, por lo que no se acepta la hipótesis de no multicolinealidad;
mientras que en la regresión auxiliar 2, el FIV es menor a 10, lo que se traduce
en que la variable X no es la que produce la presencia de multicolinealidad.
Ho: No multicolinealidad.
Ha: multicolinealidad.
k 1
Grados de libertad = n k *
2
Donde:
N= número de observaciones.
K=Variables independientes incluyendo la constante.
Grados de libertad= =6
=.00068
398
Como X2= 12.59 < G = 263.6780, entonces se concluye que existe
multicolinealidad.
Finalmente para este ejemplo se puede decir que el grado de correlación entre
las variables independientes es alto ya que se demostró mediante diversas
pruebas.
Medidas de corrección.
399
Cuadro 8. Resultados de la regresión.
Regla de decisión:
400
Regresiones Auxiliares (Prueba de Klein).
Las regresiones auxiliares para este caso son:
Regresión auxiliar 1: LS PIB C LINPC
Regresión auxiliar 2: LS LINPC C PIB
Los resultados se muestran a continuación:
Cuadro 10. Resultados de la Regresión Auxiliar 1
401
Si en ninguna de las regresiones auxiliares el R2 es mayor al R2 de la
regresión original, se dice que no existe alta multicolinealidad.
Así, dado que los R2 de las dos regresiones auxiliares son mayores que el R 2 del
nuevo modelo, se concluye, mediante esta prueba, que el modelo presenta alta
multicolinealidad.
Prueba 4. Regla de Theil.
Donde:
Se resta el R2 del modelo original de cada una de las regresiones auxiliares. Así:
R2 original = 0.510638
Ho: No multicolinealidad.
Ha: multicolinealidad.
402
La fórmula es:
De acuerdo con el Factor de Inflación de Varianza, los valores que presentan las
regresiones auxiliares son menores a 10, entonces se acepta la hipótesis nula de
no multicolinealidad.
6. Prueba de Farrar y Glouber.
Ho: No multicolinealidad.
Ha: Multicolinealidad.
403
k 1
Grados de libertad = n k *
2
Donde:
N= número de observaciones.
K=Variables independientes incluyendo la constante.
Grados de libertad= =3
=0.409398
Entonces como X2 = 7.81 < G = 47.38, se acepta la Ha, por tanto, existe alta
multicolinealidad.
Como se desprende de los resultados obtenidos, algunas pruebas nos indican
que la multicolinealidad disminuyó, sin embargo, algunas otras nos indican su alta
persistencia. Por lo que, para fines prácticos, el estudioso o investigador que se
encuentre en alguna situación similar, es decir, de contradicción entre los
resultados de las pruebas, para el caso de multicolinealidad, nos quedaremos
con la prueba donde las variables independientes son estadísticamente
significativas al lado de una prueba F significativa y un R2 alto.
Ejemplo 2. Exportaciones de bienes y servicios.
Se realizara una regresión en donde las exportaciones estén en función del
Producto Interno Bruto (PIB), la Formación Bruta de Capital (FBKF), el Índice
Nacional de Precios al Consumidor (INPC), el Tipo de Cambio Real (TC) y el
Consumo de Gobierno (CG):
404
Cuadro 12. Resultados de la regresión.
405
En nuestro caso, observamos (ver Cuadro 12) que el R2 es alto, mientras que el
estadístico F nos indica que en su conjunto todas las variables independientes
explican a la variable dependiente. Sin embargo, las variables FBKF, INPC, TC y
CG son estadísticamente no significativas ya que su probabilidad es mayor a
0.05; mientras que la probabilidad asociada a la variable PIB es menor a 0.05,
indicando que ésta explica a la variable dependiente, es decir, es
estadísticamente significativa. Estos resultados indican la posibilidad de alta
multicolinealidad.
2. Matriz de correlaciones.
Para obtener la matriz de correlación se escribe en la barra de comandos de
Eviews 5: COR PIB FBKF INPC TC CG
Regla de decisión:
406
Regresión auxiliar 2: LS FBKF C INPC TC CG PIB
Regresión auxiliar 3: LS INPC C TC CG PIB FBKF
Regresión auxiliar 4: LS TC C CG PIB FBKF INPC
Regresión auxiliar 5: LS CG C PIB FBKF INPC TC
En los Cuadros 14, 15, 16, 17 y 18 se muestra los resultados de las regresiones
auxiliares.
407
Cuadro 16. Resultados de la Regresión auxiliar 3.
408
Cuadro 18. Resultado de la Regresión auxiliar 5
409
Theil= R2-∑( R2-R2i).
Donde:
Ho: No multicolinealidad.
Ha: multicolinealidad.
La fórmula es:
410
Determinación de multicolinealidad de manera conjunta:
Ahora estimaremos el FIV para cada una de las variables independientes para
determinar cuál o cuáles son las variables independientes causantes de la alta
multicolinealidad. Para ello se tomarán los R2 correspondientes de las
ecuaciones auxiliares previamente realizadas.
411
Los FIV de las regresiones auxiliares 1, 3 y 4 son mayores a 10, por lo que se
acepta la hipótesis de multicolinealidad; mientras que el FIV de las regresiones
auxiliares 2 y 5, son menores a 10 por lo que se acepta la hipótesis de no
multicolinealidad.
Ho: No multicolinealidad.
Ha: multicolinealidad.
k 1
Grados de libertad = n k *
2
Donde:
N= número de observaciones.
K=Variables independientes incluyendo la constante.
Grados de libertad= = 15
412
Valor de X2=24.99
Como son conocidos todos los valores, puede calcularse sustituyendo los valores
en la formula:
G 124
1
2 * 6 5 In 0 . 00068463 882 . 8961
6
Como X2= 24.99 < G =882.8961, entonces se concluye que existe
multicolinealidad.
Finalmente para este ejemplo se puede decir que el grado de correlación entre
las variables independientes es alto ya que se demostró mediante diversas
pruebas.
Se corregirá el problema de multicolinealidad con la transformación a logaritmos
de las variables, PIB y FBKF y con la introducción de la variable M
(importaciones de bienes y servicios). Y eliminando TC y CG. En Eviews 5 se
escribe:
Ls log(X) c log(PIB) log(FBKF) INPC M
Como las variables no se habían transformando a logaritmos se procede a
escribir en la barra de comandos log(X) log(PIB) log(FBKF), para especificar la
transformación directamente.
413
respecta al R2, su valor es alto. Por tanto, concluimos que el modelo no presenta
multicolinealidad.
En base al criterio que se estableció en el ejemplo 1, para fines prácticos, nos
quedaremos con la prueba donde las variables independientes son
estadísticamente significativas al lado de una prueba F significativa y un R 2 alto.
Ejemplo 3: Importaciones
Se realizara la regresion de las importaciones en función del Consumo Privado
(CP), la Formación Bruta de Capital (FBKF) y el Consumo de Gobierno (CG).
414
Por lo que respecta al estadístico F, planteamos los siguientes criterios de
decisión:
2. Matriz de correlaciones.
Para determinar si existe alta multicolinealidad por medio de la matriz de
correlaciones se sugiere observar el coeficiente de correlación entre dos
regresoras, si alguno de estos es mayor al coeficiente de determinación de la
regresión original (R2), entonces tenemos presencia de alta multicolinealidad.
Regla de decisión:
415
Cuadro 21. Matriz de correlaciones.
Así, como los valores de la matriz de correlación son mayores que el R2 del
Cuadro 22, no se rechaza la hipótesis nula de no multicolinealidad.
416
Cuadro 23. Resultados de la Regresión auxiliar 2
Con la tercera regresión auxiliar se realizará lo mismo que las anteriores, sólo el
comando cambia: LS CG C FBK CP (obteniendo Cuadro 24)
Cuadro 24. Resultados de la Regresión auxiliar 3
417
Ho: No multicolinealidad.
Ha: Multicolinealidad.
Donde:
418
Ho: No multicolinealidad.
Ha: multicolinealidad.
La fórmula es:
1
FIV 42.9295
(1 0.976706 )
Así, como el valor del FIV es de 42.9295, entonces no aceptamos Ho. Por tanto,
se concluye que, de acuerdo a esta prueba, existe alta multicolinealidad en el
modelo.
Ahora estimaremos el FIV para cada una de las variables independientes para
determinar cuál o cuáles son las variables independientes causantes de la alta
multicolinealidad. Para ello se tomarán los R2 correspondientes de las
ecuaciones auxiliares previamente realizadas.
A continuación se muestran los valores del FIV para cada regresión auxiliar:
419
Los factores de inflación de varianza de la regresiones auxiliares 1, 2 Y 3 son
menores a 10, por lo que se acepta la hipótesis de no multicolinealidad.
Ho: No multicolinealidad.
Ha: multicolinealidad.
k 1
Grados de libertad = n k *
2
Donde:
N= número de observaciones.
K=Variables independientes incluyendo la constante.
Sustituyendo:
Grados de libertad= =6
420
Así, como el valor de X2 = 12.59 < G= -131.160908, no se acepta la hipótesis
nula de no multicolinealidad.
Por lo tanto el modelo presenta multicolinealidad.
Como se ha observado, en los contrastes de Theil, Farrar- Glouber y en la prueba
de R2 alto y T`s, se puede concluir que hay presencia de multicolinealidad.
Corrección de multicolinealidad.
Se transformaran las variables FBKF y CG a logaritmos.
El nuevo modelo planteado es el siguiente:
421
independientes explican en su conjunto a la variable dependiente. Por lo que
respecta al R2, su valor es alto. Por tanto, concluimos que el modelo no presenta
multicolinealidad.
2. Matriz de correlaciones.
Para obtener la matriz de correlación, se escribe en la barra de comandos COR
CP LFBKF LCG.
Cuadro 26. Matriz de correlaciones.
Ho: No multicolinealidad
Ha: Multicolinealidad
Regla de decisión:
422
Cuadro 27. Resultado de la Regresiones auxiliar 1.
423
Cuadro 29. Resultados de la Regresión auxiliar 3.
Así, dado que los R2 de dos regresiones auxiliares son mayores que el R2 del
nuevo modelo, se concluye, mediante esta prueba, que el modelo presenta alta
multicolinealidad.
4. Prueba de Theil.
Para evaluar los resultados mediante esta prueba es necesario formular la
siguiente prueba de hipótesis:
Ho: No multicolinealidad.
Ha: Multicolinealidad.
Donde:
424
R2: coeficiente de determinación de la regresión original.
R2i: coeficiente de determinación de las regresiones auxiliares.
Se resta el R2 del modelo original de cada una de las regresiones auxiliares. Así:
R2 original = 0.913072
Ho: No multicolinealidad.
Ha: multicolinealidad.
La fórmula es:
R2 original = 0.913072
425
Así, como el valor del FIV es mayor que 10, se no acepta la hipótesis nula de no
multicolinealidad.
Ahora estimaremos el FIV para cada una de las variables independientes para
determinar cuál o cuáles son las variables independientes causantes de la alta
multicolinealidad. Para ello se tomarán los R2 correspondientes de las
ecuaciones auxiliares previamente realizadas.
A continuación se muestran los valores del FIV para cada regresión auxiliar:
R2 regresión auxiliar 1= 0.821099
R2 regresión auxiliar 2= 0.988267
R2 regresión auxiliar 3= 0.984361
De acuerdo con el Factor de Inflación de Varianza, los valores que presentan las
regresiones auxiliares 2 y 3 son mayores a 10, entonces no se acepta la
hipótesis nula de no multicolinealidad.
Ho: No multicolinealidad.
Ha: Multicolinealidad.
426
Si el valor de X2 es mayor o igual al valor de G se acepta la Ho.
k 1
Grados de libertad = n k *
2
Donde:
N= número de observaciones.
K=Variables independientes incluyendo la constante.
Sustituyendo:
Grados de libertad= =6
427
encuentre en alguna situación similar, es decir, de contradicción entre los
resultados de las pruebas, para el caso de multicolinealidad, nos quedaremos
con la prueba donde las variables independientes son estadísticamente
significativas al lado de una prueba F significativa y un R 2 alto.
428
funcional o d).- Se omite una de las variables altamente colineales: SI ____;
NO_____.
429
16. ¿Cuándo aplica o en qué casos la regresión y correlación no lineal en las
variables?
17. ¿Qué son y qué papel desempeñan las Ui en las ecuaciones de regresión?
18. ¿Para qué sirve y cómo se utiliza la prueba de hipótesis? Establezca los
pasos para plantear la Ho y la Ha.
19. ¿Qué es el error tipo I y II? ¿Qué es “α” y “ξ”?
20. ¿Para qué sirve el error estándar (s) de la regresión y de cada uno de los
coeficientes de la regresión?
21. ¿Qué son y para qué sirven las bandas o intervalos de confianza?
22. ¿Establezca la diferencia e indique en que caso se utilizan “t”, “z”, “χ 2” y
“F”?
23. Describa cuáles son e ilustre con literales y gráficas las propiedades de los
estimadores.
24. Establezca la diferencia y similitud entre el coeficiente de correlación
parcial y el múltiple.
25. Defina y establezca la relación y diferencia numérica entre “r”, “R 2” y “R2-
ajustado”.
26. ¿Qué son y para qué sirven las variables ficticias? ¿Qué es y para qué
sirve el coeficiente de correlación de Spearman?
27. ¿Cómo se utiliza el modelo econométrico para hacer predicción y cómo se
evalúa la calidad predictiva del modelo?
28. Explique ¿Cuándo y porqué se transforman las variables no lineales en
lineales? ¿Cuáles son los métodos más comunes para transformar las
variables no lineales en lineales? ¿Describa las características de los
modelos: Lin-Lin, Log-Log, Lin-Log y Log-Lin, así como la forma funcional
reciproca?¿Cómo se interpretan los parámetros obtenidos a través de cada
uno de los modelos de la pregunta anterior? Incluya además un ejemplo
del modelo reciproco para ver sus aplicaciones.
29. ¿Qué es heteroscedasticidad, autocorrelación y multicolinealidad? ¿Por
qué surgen cada una de ellas?¿Qué consecuencias acarrean u ocasionan
cada una de ellas en la ecuación de regresión? ¿Cuáles son los métodos
para detectar y corregir cada una de ellas?
30. Describa los métodos para resolver un sistema de ecuaciones simultáneas
tanto con información incompleta como completa
430
1. Establezca el marco teórico: Planteamiento de la teoría económica que
sustenta la relación entre las variables independientes con respecto a la
dependiente, establezca la relación esperada entre cada una de las
variables independientes con la dependiente (profundizar y revisar
bibliografía al respecto). Asimismo, describa la naturaleza de los datos (su
tipo) y realice la descripción del periodo histórico (1980:1 – 2009:2).
431
análisis e interpretación, que efectivamente la corrigió. (Nota: Lo
único que tiene que corregir en este punto es multicolinealidad, es
decir, no importa que el modelo presente autocorrelación y/o
heteroscedasticidad).
5. Conclusiones y recomendaciones.
6. Bibliografía General.
Observaciones:
Base de datos:
432
Datos de la Economía Mexicana, 1980:1-2009:2.
433
1991/03 922292.93 14606.24 18763.84 702.12 3.06 20.83
1991/04 1032321.50 15283.02 19777.22 1263.40 3.07 22.10
1992/01 1057357.07 14460.16 19611.50 1042.73 3.08 23.00
1992/02 1123373.63 15467.34 21365.15 1180.24 3.12 23.52
1992/03 1107118.94 15484.26 22339.25 1274.95 3.12 24.02
1992/04 1207896.17 16257.17 22791.51 894.88 3.12 24.74
1993/01 1221500.54 15628.31 21289.41 1163.68 3.10 25.40
1993/02 1250154.56 16951.87 22596.92 954.43 3.12 25.84
1993/03 1218290.07 16683.29 23349.43 550.09 3.12 26.30
1993/04 1334838.71 18488.60 23915.52 1720.60 3.11 26.72
1994/01 1355462.58 18061.83 24843.30 3152.00 3.36 27.21
1994/02 1424843.65 19406.26 26882.11 3283.37 3.39 27.61
1994/03 1384767.10 19460.75 27369.14 2813.92 3.40 28.06
1994/04 1528383.35 21442.92 28939.17 1723.21 5.33 28.61
1995/01 1629327.21 23017.42 24372.06 1982.82 6.82 32.76
1995/02 1794636.07 24056.12 23699.75 2913.61 6.31 38.02
1995/03 1806218.46 24413.15 24863.59 2254.72 6.42 40.26
1995/04 2131541.53 25542.59 25670.58 2375.16 7.64 43.47
1996/01 2283507.01 26626.22 26789.61 2027.67 7.55 47.10
1996/02 2453070.27 28416.71 28161.54 1779.94 7.61 50.12
1996/03 2488578.78 29104.36 29968.95 2004.38 7.54 52.34
1996/04 2894478.28 31168.84 32903.66 3373.46 7.85 55.51
1997/01 2948936.57 30415.41 30635.23 2109.24 7.89 58.62
1997/02 3138091.51 32658.92 33842.78 2594.52 7.96 60.32
1997/03 3091167.78 33334.00 35924.21 5594.98 7.82 62.15
1997/04 3538285.68 34909.83 38580.94 2530.82 8.08 64.24
1998/01 3659245.54 33703.57 36983.21 2615.01 8.52 67.57
1998/02 3756740.11 35475.58 38868.20 3469.92 9.04 69.56
1998/03 3777534.85 34206.83 38920.94 3277.21 10.11 72.05
1998/04 4199352.72 36762.49 41368.81 3302.12 9.87 76.19
1999/01 4324546.83 35424.32 39062.25 3503.55 9.52 79.90
1999/02 4528885.44 39268.39 42134.16 3373.22 9.49 81.66
1999/03 4529522.11 40820.89 43969.29 3013.88 9.36 83.46
1999/04 5018996.66 43396.94 47694.19 3932.30 9.51 85.58
2000/01 5304783.88 44325.80 49256.25 4456.80 9.23 87.98
2000/02 5453861.14 47462.68 50949.34 4724.75 9.95 89.34
2000/03 5432954.64 49489.04 53511.72 3016.08 9.41 90.84
2000/04 5799342.55 51598.23 57842.92 5754.94 9.57 93.25
2001/01 5815638.30 46942.07 51717.84 3513.91 9.54 94.30
2001/02 5796507.61 47806.18 51382.10 5109.28 9.06 95.21
2001/03 5660706.54 45788.07 49114.82 16265.95 9.53 96.42
2001/04 5974252.76 45630.10 51656.38 4638.91 9.14 97.35
2002/01 5905163.52 43355.87 47125.54 4976.56 9.03 98.69
2002/02 6319275.93 48427.04 51284.66 6208.09 10.00 99.92
2002/03 6168592.03 48089.56 51311.36 5990.55 10.17 101.19
2002/04 6676863.70 48267.35 52558.32 5879.92 10.31 102.90
2003/01 6732925.19 46649.38 48724.52 3714.96 10.77 104.26
2003/02 6904315.81 48248.10 49708.33 5103.03 10.48 104.19
2003/03 6668411.65 49812.67 51269.76 3642.30 10.93 105.28
2003/04 7275774.73 52070.78 54280.04 4222.18 11.24 107.00
2004/01 7374919.35 52019.31 53207.16 9022.02 11.15 108.67
2004/02 7615702.76 57702.29 56930.50 3878.89 11.41 108.74
434
2004/03 7543355.29 57547.78 58320.88 3004.05 11.41 110.60
2004/04 8321207.42 59234.75 63222.71 7038.26 11.26 112.55
2005/01 7976653.74 57097.88 59332.13 5841.84 11.29 113.44
2005/02 8324127.73 65213.56 65171.41 6366.43 10.84 113.45
2005/03 8173719.07 65117.38 65526.55 4955.86 10.85 114.48
2005/04 8990320.78 70494.88 72279.00 4665.45 10.78 116.30
2006/01 8819353.32 70323.01 72228.51 5345.84 10.95 118.94
2006/02 9493962.09 76460.27 76642.71 4835.43 11.40 122.02
2006/03 8944714.95 75481.21 75895.32 3082.31 11.02 123.17
2006/04 9372229.26 76495.72 78371.36 6067.81 10.88 122.71
2007/01 10631637.68 73032.00 78155.42 9977.32 11.08 125.13
2007/02 11107318.69 80513.18 82351.99 5673.52 10.87 126.26
2007/03 11292180.41 83378.01 83811.51 5573.90 10.92 127.46
2007/04 11793141.70 86959.64 87898.94 6303.36 10.87 129.79
2008/01 11579065.95 83059.74 85707.13 6066.60 10.70 132.87
2008/02 12338866.24 93015.28 95109.67 7140.01 10.28 136.28
2008/03 12402059.27 91110.37 95573.59 3804.37 10.52 137.65
2008/04 12122229.60 75540.90 82141.48 5470.18 13.49 135.65
2009/01 11162955.38 61539.50 64920.99 5326.49 14.63 139.28
2009/02 11400811.68 64523.23 64069.43 4649.47 13.53 140.31
Fuente: Elaboración propia en base a datos del INEGI y BANXICO.
435
CAPITULO VIII.- LOS MODELOS CON CAMBIO ESTRUCTURAL
436
variable explicada
Donde
Yt: Variable dependiente, endógena, explicada o regresada.
Xt, Zt, Qt; Variables independientes, exógenas, explicativas o regresoras.
Et: Perturbaciones aleatorias
437
VIII.2.1.4.- Errores de especificación en la selección de las variables.
Ahora se verán otras pruebas estadísticas relacionadas con la especificación
con objeto de analizar su validez para sustentar la teoría económica que se desea
exponer en el estudio.
Así, podemos decir que los errores específicos que se pueden cometer en la
relación de las variables explicativas son dos:
1.- La omisión de variables relevantes.
2.- La inclusión de variables irrelevantes
Para verificar la presencia de estos dos errores se hace el siguiente análisis:
VIII.2.1.5. Análisis de la estabilidad estructural
Como señala Carrascal et al (ídem): “Una de las hipótesis que suponemos
cumple el modelo de regresión especificado es que los coeficientes se mantiene
constantes para todo el periodo muestral. Sin embargo, es posible que existan
submuestras para las que el comportamiento del modelo, su estructura, sea
diferente, siendo necesario contrastar esta posibilidad”. Para ello aplicaremos:
VIII.2.1.5.1. Contraste y predicción de Chow
Para realizarlo la muestra total de datos se divide en varios grupos y se
estima la ecuación cuya estabilidad se está evaluando para cada uno de ellos. Se
establecen las dos siguientes hipótesis:
Ho: Hay un solo modelo para el conjunto de las observaciones: un modelo
restringido que indica que hay estabilidad estructural.
Ha: Hay un modelo diferente para cada una de las submuestras en que se
divide la muestra.
En este modelo sin restricciones los parámetros pueden cambiar de una
submuestra a otra, es decir, no hay estabilidad estructural.
Observaciones: si no hay diferencias estadísticas significativas entre el modelo
restringido y sin restringir no se rechaza Ho de estabilidad estructural del modelo.
De lo contrario se acepta Ha que indica que hay cambio estructural (en el caso
de México este análisis es útil por ejemplo para ver si hubo un cambio estructural
en 1995: crisis económica).
Para verificar que solo hay un cambio estructural se usa F, y para varios se
usa el estadístico Chow, que proviene del estadístico de razón de verosimilitud; el
cual se distribuye asintóticamente como una X2 con grados de libertad igual al
producto del número de cambios estructurales por el número de parámetros a
estimar en el modelo restringido (Carrascal et al: 2000: 189). Así en el caso de F,
ésta se compara con Fα y X2 . En el pimer caso se dice que:
Si F empírica < Fα de tablas se acepta H o
Si F empírica > Fα de tablas se rechaza H o
438
VIII.2.1.5.2. Estimación recursiva.
María del Mar Zamora (2002, mariam.zamorauah.es) de la universidad de
Alcalá de Henares, en la exposición del tema indica que una vez obtenidos los
estimadores con MCO se debe proceder a validar el modelo para conocer la
confiabilidad de sus resultados, sobre todo en su aplicación a la predicción de
valores. Como se sabe, esta tarea se realiza con el instrumental de la prueba de
hipótesis, para lo cual en general se usan los residuos, ahora llamados recursivos
para con ellos calcular las estadísticas CUSUM, cuyos valores de ésta nos
pueden señalar que los estimadores, por ejemplo, tienen heteroscedasticidad y
autocorrelación. La pérdida de sus propiedades de homocedasticidad e
independencia puede corregirse aplicando los residuos recurrentes, que se
obtienen en forma recursiva o recurrente a partir de los parámetros β del modelo
econométrico.
Esta estimación recursiva es similar a la MCO pero realizada de manera
recursiva aumentando el tamaño de la muestra gradualmente.
Nosotros podemos agregar que ésta estimación es útil cuando los datos son
temporales y se desconoce el momento en que se ha producido el cambio
estructural en la serie temporal que estemos estudiando. Se hace la estimación
secuencial del modelo especificado para distintos tamaños de muestras.
Aquí subyace la idea de que en este tipo de estimaciones si no hay cambio
estructural las estimaciones de los parámetros se mantienen constantes al ir
aumentando la muestra secuencialmente y los residuales no se desviarán
ampliamente de cero.
Para verificar ésta hipótesis se grafican los coeficientes y los residuos
recursivos. Si se observan grandes variaciones en la escala del eje de las
ordenadas, al ir añadiendo nuevas observaciones a la muestra, ello indica que no
hay estabilidad estructural y por consiguiente, que puede afectar las propiedades
de los estimadores de las variables explicativas.
VIII.2.1.5.3. Coeficientes y Residuos recursivos: Estos son los errores de
predicción de un periodo hacia adelante calculados en cada etapa de la
estimación recursiva.
Se calculan y expresan gráficamente con Eviews que además calcula los
estadísticos CUSUM y CUSUMQ, ambos construidos con los residuos recursivos.
Identificación: Cuando la gráfica muestra que uno o más residuos sobrepasan las
bandas de confianza construidas en torno al CERO. Si eso sucede se dice que
hay evidencia de que no hay estabilidad estructural.
Estadístico CUSUM
t
w t
Viene dado por wt T k 2
donde t= k+2,…,T
S
439
Donde S es el error estándar de la regresión estimada con todas las
observaciones disponibles. Bajo la Ho de estabilidad estructural Wt tiene u=0 por
lo que sumas acumuladas que se alejan de u revelan que hay inestabilidad.
Estadístico CUSUMQ
w 2
t
St T k 2
T
donde t= k+2,…,T
w
T k 2
2
t
440
cruzados concretos de las variables explicativas que mejor recogen esa no
linealidad.
A continuación se muestran ejemplos sobre modelos con cambio estructural
usando Eviews.
VIII.3.- Ejercicios con Eviews
1993 3 1 8 16
1994 2 2 15 17
1995 4 2.5 10 18
1996 5 3 9 15
1997 5 4 7 17
1998 7 5 6 20
1999 6 7 8 19
2000 8 8 4 21
2001 9 9 3 22
2002 12 15 1 23
ESPECIFICACION
I. Marco teórico: Teoría del consumo
Con Y: consumo, X1: Ingreso, X2: Inflación, X3: Inversión, con una serie de 10
años para cada una de las variables y haciendo
Y=f(X1, X2)
Verificar la teoría económica de que el consumo, Y, varia en razón directa del
ingreso X1, y en razón inversa de la inflación, X2. Lo anterior significa, entre otras
cosas, comprobar que el coeficiente del regresor o variable exógena, X 1, tiene
signo positivo, en tanto que el coeficiente de la otra variable exógena, X 2, tiene
441
signo negativo.
Así, vamos al programa Eviews una vez capturada la información, i.e., que ya se
cuenta con el archivo, enseguida se coloca el cursor en Quick/ estimate
equation/ escribimos Y C X1 X2/ Aceptar y aparece el siguiente cuadro:
Cuadro 8.3.1. Estimación de la ecuación.
442
1. La ecuación de regresión Y = 5.800837 + 0.442193*X1 - 0.309750*X2 en lo
que se refiere a los signos de los coeficientes de X1, X2 cumplen con lo
especificado por la teoría del consumo.
2. En lo que se refiere a las pruebas de significación estadística usando α=5%
realizadas con t, para X1, X2en lo individual y F para la verificación conjunta
de ambas, se detecta que tienen una probabilidad de casí cero, lo cual,
corrobora que X1 y X2 explican satisfactoriamente a Y.
2
3. En ese sentido R2= 0.973305 y la ajustada R = 0.965678 muestran que
existe un alto grado de asociación de Y con X1, X2 de manera que no se
necesita otra variable para determinar el comportamiento presente y futuro
de Y.
4. Sin embargo, independientemente de verificar con este ejercicio si fueron o
no violados algunos supuestos del modelo estimado con el método de
mínimos cuadrados, digamos la homocedasticidad, la eficiencia, ausencia de
autocorrelación o de multicolinealidad entre las variables exógenas, ahora se
harán otras pruebas adicionales con el propósito de cerciorarse que el
modelo está bien especificado, i.e., que expresa satisfactoriamente la
realidad que pretende representar.
443
Y, X1, X2; además, que el modelo especifique la ordenada al origen; C, y, Y, X 1,
X2.
Así, trabajando con el cuadro anterior de la ecuación de regresión antes descrita,
partimos de su cuadro y nos colocamos en view/coefficient tests/omitted
variables- likelihood ratio/y en la caja de “omitted – redundant variable test,
escribimos X3/ok y se obtiene el siguiente cuadro:
Cuadro 8.3.3. Prueba de Omisión de Variables
Test Equation:
Dependent Variable: Y
Method: Least Squares
Sample: 1993 2002
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 4.609288 2.903669 1.587402 0.1635
X1 0.407127 0.113580 3.584513 0.0116
X2 -0.303439 0.087583 -3.464580 0.0134
X3 0.071535 0.162801 0.439401 0.6758
R-squared 0.974138 Mean dependent var 6.100000
Adjusted R-squared 0.961206 S.D. dependent var 2.998148
S.E. of regression 0.590519 Akaike info criterion 2.073544
Sum squared resid 2.092274 Schwarz criterion 2.194578
Log likelihood -6.367718 F-statistic 75.33212
Durbin-Watson stat 2.324024 Prob(F-statistic) 0.000037
444
Comentarios
Como la probabilidad (0.675754) de la primera F y de la razón de verosimilitud
(0.573585) son mayores que α=5%, se acepta Ho y se decide no incluir en el
modelo X3 como variable explicativa. Si se hubiera aceptado Hase usaría la nueva
ecuación de regresión Y=f(X1, X2, X3).
Ho: X2 es redundante
Ha: X2 no es redundante
Como en el ejemplo anterior partimos del cuadro de la ecuación de regresión en
que Y=f(X1, X2), colocamos el cursor en view/coefficient tests/redundant variables-
likelihood ratio/ escribimos X2 en “omitted redundant variables test/ok y aparece el
cuadro siguiente:
Cuadro 8.3.5. Prueba de Variables Redundantes.
445
Cuadro 8.3.6. Variables Redundantes
Redundant Variables: X2
F-statistic 14.52841 Probability 0.006614
Log likelihood ratio 11.23463 Probability 0.000803
Test Equation:
Dependent Variable: Y
Method: Least Squares
Sample: 1993 2002
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 2.263158 0.497606 4.548090 0.0019
X1 0.679087 0.071805 9.457435 0.0000
R-squared 0.917901 Mean dependent var 6.100000
Adjusted R-squared 0.907638 S.D. dependent var 2.998148
S.E. of regression 0.911169 Akaike info criterion 2.828679
Sum squared resid 6.641826 Schwarz criterion 2.889196
Log likelihood -12.14339 F-statistic 89.44309
Durbin-Watson stat 2.526715 Prob(F-statistic) 0.000013
Se usa cuando se piensa que dentro de la serie de años hay un año en que por
razones extremas cambió la trayectoria de la variable endógena; en nuestro caso
con 10 años suponga que en el año 6 ocurrió el desquiciamiento de la economía.
Por el desequilibrio económico hay razones de peso para pensar que cambió el
valor de Y. Para verificarlo, con α=5% se establece la hipótesis nula de estabilidad
estructural.
Ho: Hay un solo modelo para todos los datos; ello se constata cuando la
probabilidad de F es mayor que α=5%;
Ha: Cada subgrupo en que se dividen los datos tiene un comportamiento
diferente: no hay un solo modelo hay dos; ello se constata cuando la probabilidad
de F es menor que α=5%.
Luego si no hay diferencias estadísticas significativas entre el modelo restringido y
el otro aceptamos Ho: de estabilidad estructural del modelo; en caso contrario, se
acepta Ha y se dice que hubo un cambio estructural en el año 6 que fue 1998, en
que todo el sistema económico se trastocó.
Para probar Ho se dividen en dos muestras los datos: la primera del año 1993 a y
la segunda del año 1999 a 2002. Como siempre se parte del cuadro que muestra
446
Y=f(X1, X2), de view/stability tests/chow break point test/ damos click y en la
ventana que aparece se escribe/ok genera el cuadro:
Cuadro 8.3.7. Prueba Chow.
447
A continuación se mostrarán los resultados de la Prueba de Pronóstico de Chow
para el año de 1998 a 2002:
Cuadro 8.3.10. Resultado de la Prueba de Pronóstico de Chow.
Chow Forecast Test: Forecast from 1998 to 2002
F-statistic 0.630146 Probability 0.707345
Log likelihood ratio 9.459914 Probability 0.092067
Test Equation:
Dependent Variable: Y
Method: Least Squares
Sample: 1993 1997
Included observations: 5
Variable Coefficient Std. Error t-Statistic Prob.
C 4.376115 1.536202 2.848659 0.1043
X1 0.688921 0.305989 2.251456 0.1532
X2 -0.234532 0.109844 -2.135147 0.1663
R-squared 0.876682 Mean dependent var 3.800000
Adjusted R-squared 0.753364 S.D. dependent var 1.303840
S.E. of regression 0.647519 Akaike info criterion 2.252371
Sum squared resid 0.838561 Schwarz criterion 2.018034
Log likelihood -2.630928 F-statistic 7.109128
Durbin-Watson stat 2.091172 Prob(F-statistic) 0.123318
1. Estimación recursiva
448
Cuadro 8.3.11. Estimación Recursiva.
1 .5
1 .0
0 .5
0 .0
-0 .5
-1 .0
-1 .5
1996 1997 1998 1999 2000 2001 2002
R ec u rs ive R es id u als ± 2 S .E .
449
Dar View/Stability tests/Ramsey Reset Test/ clic y aparece el cuadro de diálogo
“RESET Specification” y se escribe el número de potencias de la variable
endógena ajustada a incluir empezando por el cuadrado; así si se indica se
añadirá el cuadrado de dicha variable, si escribimos 2 se incluirá el cuadrado y el
cubo, etc. Si se deja la celda en blanco el programa entiende que se añadirá la
variable al cuadrado.
El resultado son las variables de F y X2 de razón de verosimilitud junto con la
ecuación estimada. Luego de View/ Stability tests/Ramsey RESET y se escribe
en la celda en blanco 1 /ok y aparece el cuadro:
Cuadro 8.3.12. Especificación de la Prueba Ramsey RESET.
Test Equation:
Dependent Variable: Y
Method: Least Squares
Sample: 1993 2002
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C 5.911835 1.068461 5.533039 0.0015
X1 0.541787 0.240775 2.250178 0.0654
X2 -0.330648 0.098638 -3.352133 0.0154
FITTED^2 -0.011652 0.026536 -0.439115 0.6760
R-squared 0.974136 Mean dependent var 6.100000
Adjusted R-squared 0.961205 S.D. dependent var 2.998148
S.E. of regression 0.590531 Akaike info criterion 2.073584
Sum squared resid 2.092359 Schwarz criterion 2.194618
Log likelihood -6.367921 F-statistic 75.32899
Durbin-Watson stat 2.643707 Prob(F-statistic) 0.000037
450
V. Normalidad entre las perturbaciones
3.2
Series: Residuals
2.8 Sample 1993 2002
Observations 10
2.4
Mean 1.22E-15
2.0 Median -0.069172
1.6 Maximum 0.846700
Minimum -0.765025
1.2 Std. Dev. 0.489853
Skewness 0.315605
0.8 Kurtosis 2.369937
451
Como la probabilidad de JB=0.847292 >α=5% y dado que JB se aproxima a
cero se acepta Ho. Lo anterior se corrobora también con el valor de la kurtosis
cercano a 3 y con el valor de la asimetría próximo a cero, indicando que se
tiende a la normal.
VI. Predicción
1993 3 1 8
1994 2 2 15
1995 4 2.5 10
1996 5 3 9
1997 5 4 7
1998 7 5 6
1999 6 7 8
2000 8 8 4
2001 9 9 3
2002 12 15 1
2003
2004
2005
452
Para llenar las celdas de X1, X2 hay 2 procedimientos:
Grupo 2
1993 3 1 8
1994 2 2 15
1995 4 2.5 10
1996 5 3 9
1997 5 4 7
1998 7 5 6
1999 6 7 8
2000 8 8 4
2001 9 9 3
2002 12 15 1
2003 13 1
2004 14 2
2005 15 2
Grupo 4
Obs X1 X2
1993 1 8
1994 2 15
1995 2.5 10
1996 3 9
1997 4 7
453
1998 5 6
1999 7 8
2000 8 4
2001 9 3
2002 15 1
2003 13 1
2004 14 2
2005 15 2
454
14
Forecast: YF
12 Actual: Y
Forecast sample: 1993 2005
10 Included observations: 10
0
1994 1996 1998 2000 2002 2004
YF
Cuyos resultados estadísticos del lado derecho sirven para evaluar la calidad de
la predicción, mismos que se interpretarán párrafos abajo.
Ahora en la pantalla de workfile: ecuación para predecir, seleccione (sombreo) Y
y YF para conocer el valor pronosticado de YF/ open group/clic y aparece el
siguiente cuadro que llamo grup03
Tabla 8.3.5 Datos
Obs Y YF
1993 3 3.76502492522
1994 2 2.03896311067
1995 4 3.80881355932
1996 5 4.33966101695
1997 5 5.4013559322
1998 7 6.1533000997
1999 6 6.41818544367
2000 8 8.09938185444
2001 9 8.85132602193
2002 12 12.1239880359
2003 11.2396011964
2004 11.3720438684
2005 11.8142372881
455
En la línea de comando escribimos “Show Y YF” / enter y aparece igual al caso
anterior.
Ejemplo 2:
A.-Enfoque clásico
456
1974 3814323. 113104.3 476607.0
457
regresión cuyos coeficientes de las variables regresoras al igual que los
coeficientes de correlación parciales (simples) y múltiple indicarán el grado de
vinculación entre la variable dependiente, RNDFAM, y la independiente TDFAM.
Resultados
Este nuevo análisis se inicia aplicando las pruebas de especificación del modelo;
posteriormente serán otras hasta asegurarnos que la ecuación de regresión
garantiza resultados confiables para hacer la econometría empírica descrita al
final del párrafo anterior.
Por consiguiente, iniciemos el siguiente proceso de Verificación.
458
H0: Una o varias variables no es (son) significativa (s) estadísticamente. No debe
(n) incorporarse al modelo.
Ha: Todo lo contrario de Ho, es decir, que si se verifica que es (son) significativa
(s) estadísticamente, entonces debemos incorporarla (s) al modelo por que
también determina (n) el comportamiento de la variable explicada o endógena.
Test Equation:
Dependent Variable: RNDFAM
Method: Least Squares
Date: 05/02/06 Time: 10:20
Sample: 1964 1998
Included observations: 35
Variable Coefficient Std. Error t-Statistic Prob.
C 3693463. 492902.8 7.493288 0.0000
TDFAM 6.924402 0.149168 46.42027 0.0000
R-squared 0.984917 Mean dependent var 18650139
Adjusted R-squared 0.984460 S.D. dependent var 17702212
S.E. of regression 2206780. Akaike info criterion 32.10741
Sum squared resid 1.61E+14 Schwarz criterion 32.19629
Log likelihood -559.8797 F-statistic 2154.841
Durbin-Watson stat 0.296556 Prob(F-statistic) 0.000000
459
En Eviews la prueba “Redundant Variables-likelihood Ratio contrasta la
significación estadística de una o varias variables exógenas, con el fin de
cerciorarse de que no sobran o de que son redundantes. Así, supóngase que:
Para ilustrar con este ejercicio la aplicación de otras pruebas para obtener
la ecuación adecuada de la realidad que se desea expresar, se continuará
trabajando con el caso RNDFAM =C+TDFAM, independientemente de que al
final se resuman todos los resultados, en particular, los que muestran
460
problemas de identificación del modelo, mismos que darán la pauta para
hacer las adecuaciones pertinentes como digamos, la inclusión de la
variable SNFAM a la ecuación de regresión y la corrección del signo del
coeficiente de la variable TDFAM. Así:
I. Contraste de Chow.
Para realizarla antes se establece la hipótesis nula de estabilidad estructural;
Ho: hay un solo modelo para todos los datos /modelo restringido).
LS RNDFAM C TDFAM
461
Ho: Hay estabilidad estructural, es un modelo restringido a un solo
comportamiento de todos los datos, cuyos residuos se comparan con los del
periodo mas largo de los dos en que la serie ha sido dividido.
Test Equation:
Dependent Variable: RNDFAM
Method: Least Squares
Sample: 1964 1986
Included observations: 23
Variable Coefficient Std. Error t-Statistic Prob.
C 2104179. 309107.7 6.807266 0.0000
TDFAM 10.48158 0.387631 27.04011 0.0000
R-squared 0.972081 Mean dependent var 7375228.
Adjusted R-squared 0.970751 S.D. dependent var 6727062.
S.E. of regression 1150481. Akaike info criterion 30.83220
Sum squared resid 2.78E+13 Schwarz criterion 30.93094
Log likelihood -352.5703 F-statistic 731.1674
Durbin-Watson stat 0.382958 Prob(F-statistic) 0.000000
462
mantendrán constantes al ir aumentando la muestra secuencialmente y los
residuos no se desviarán ampliamente de cero.”
6000000
4000000
2000000
-2 0 0 0 0 0 0
-4 0 0 0 0 0 0
-6 0 0 0 0 0 0
1970 1975 1980 1985 1990 1995
R e c u rs ive R e s id u a ls ± 2 S .E .
De view nos vamos a Stability Test/ Ramsey RESET TEST/ clic y aparece el
cuadro de diálogos “RESET Specification”y escribimos el numero de potencias de
la variable endógena ajustada a incluir empezando por el cuadrado; así, si
indicamos 1 se añadirá el cuadrado de dicha variable; si ponemos 2 se incluirá el
cuadrado y el cubo, etc. Si dejamos en blanco la celda el programa entiende que
se añade la variable al cuadrado.
El resultado son las variables de F y X2 de razón de verosimilitud junto con
la ecuación estimada. Así en Eviews hacemos view/ Stability Test/ Ramsey
RESET y escribimos en la celda en blanco 1, OK y aparece el cuadro:
463
Cuadro 8.3.21. Prueba Ramsey
Test Equation:
Dependent Variable: RNDFAM
Method: Least Squares
Sample: 1964 1998
Included observations: 35
Variable Coefficient Std. Error t-Statistic Prob.
C 2912145. 474658.0 6.135248 0.0000
TDFAM 9.024595 0.596848 15.12043 0.0000
FITTED^2 -5.80E-09 1.61E-09 -3.602323 0.0011
R-squared 0.989269 Mean dependent var 18650139
Adjusted R-squared 0.988598 S.D. dependent var 17702212
S.E. of regression 1890262. Akaike info criterion 31.82415
Sum squared resid 1.14E+14 Schwarz criterion 31.95746
Log likelihood -553.9226 F-statistic 1474.939
Durbin-Watson stat 0.407414 Prob(F-statistic) 0.000000
464
El estadístico Jarque Bera contrasta la normalidad de una variable, es decir,
permite encontrar valores similares a los momentos poblacionales cuando se
calculan los momentos muéstrales de los residuos (en una serie los momentos
impares de una variable normal son cero y también su coeficiente de asimetría y
su kurtosis próxima a 3). Eviews da el histograma de los residuos y el valor de
Jarque Bera.
Hacemos: view/ Residual test/ Histogram normality test/ clic y ambos aparecen.
Vemos que el histograma no es como la normal; el coeficiente de asimetría
(Skewness) no es cero, pero la Kurtosis es cercana a 3 y quizás por ello el
estadístico de Jarque Bera acepta Ho por que su probabilidad (0.42) de
rechazarla siendo cierta es mayor que 5% =.
8
S eries: R esid u als
7 S am p le 1 9 6 4 1 9 9 8
O b servation s 3 5
6
M ean 1 .1 3 E -0 9
5 M ed ian -2 6 0 1 9 0 .0
M axim u m 4925552.
4
M in im u m -3 5 2 7 1 0 7 .
3 S td . D ev. 2174085.
S kewn ess 0 .4 1 9 5 9 4
2 K u rtosis 2 .3 1 3 0 0 7
En otras palabras como JB = 1.715287 tiende a cero y puesto que es menor que
X2 = 18.0 y dado que su probabilidad es mayor que 5% aceptamos Ho y decimos
que el modelo respeta el supuesto de normatividad. Indudablemente que a
medida que JB tiende a cero, la curva de la ecuación de regresión tenderá a la
normal. Al ser JB =1.715287 con una asimetría= 0.419594(positiva) explica que la
distribución de datos está ligeramente cargada a la derecha y como Kurtosis =
2.313007, que la curva es “achatada” o platocúrtica. De ahí que la media si tiende
a cero. (0.000000000113) aunque su desviación estándar (2174085) es alta, y
cuya varianza debe ser constante, indica que los dato tienen cierta variabilidad,
motivo por el cual el sesgo o asimetría no sea cero, como tampoco la kurtosis es
igual a 3.
Concluimos señalando que pueden aplicarse otros métodos distintos del MCO,
con las reservas del caso. También vemos que el modelo no pasa la mayoría de
las pruebas aplicadas, por lo que no sirve para los objetivos establecidos.
465
Para resolver el problema de los signos que fija la Teoría Económica, los autores
en el mejor de los casos dicen cómo resolverlo pero generalmente no hacen
ejercicios para ilustrar sus sugerencias metodólogicas. En mi libro de
“Introducción a la Econometría” introduzco el método de la “deflactación de los
valores de las variables” con el cual resuelvo el problema. Aquí diremos
adicionalmente que hay opciones como:
En este caso, se observa que los signos son los esperados por la teoría, pero no
así la significancia estadística del coeficiente de la variable TDFAM y esto con un
R2 de 94.68% es un claro síntoma de multicolinealidad en el modelo, además de
que el error estándar de la estimación también es muy alto y manifiesta que
existe una gran variabilidad conjunta.
Trabajando (3):
Ahora si la estimación se realiza usando logaritmos obtenemos
466
Cuadro 8.3.23. Análisis de la Ecuación de Regresión con Logaritmos.
Dependent Variable: LSNFAM
Method: Least Squares
Sample: 1964 1998
Included observations: 35
Variable Coefficient Std. Error t-Statistic Prob.
C -9.899852 2.081677 -4.755711 0.0000
LRNDFAM 2.149923 0.277244 7.754637 0.0000
LTDFAM -0.827102 0.179860 -4.598586 0.0001
R-squared 0.989286 Mean dependent var 13.69985
Adjusted R-squared 0.988616 S.D. dependent var 1.180299
S.E. of regression 0.125931 Akaike info criterion -1.224346
Sum squared resid 0.507477 Schwarz criterion -1.091031
Log likelihood 24.42606 F-statistic 1477.367
Durbin-Watson stat 1.530522 Prob(F-statistic) 0.000000
Ejemplo 3:
I. Marco teórico.
467
partir del primer trimestre de 1985 hasta el cuarto trimestre de 2010, la ecuación
se determina de la siguiente manera:
X f ( PIB, FBKF)
Dentro de la teoría económica las Exportaciones varían en relación directa tanto
en el Producto Interno Bruto como en la Formación Bruta de Capital Fijo. Lo
anterior significa, comprobar que el coeficiente del regresor o de las variables
exógenas PIB y FBKF tiene signo positivo.
Para hacer la regresión consideramos los pasos que anteriormente se han
mencionado para establecer la regresión (véase cuadro 1), en este caso paras las
variables que señalamos en los párrafos anteriores.
Cuadro 8.3.24. Resultados de la ecuación de regresión.
II. Diagnóstico.
468
pronosticar y visualizar escenarios futuros, es decir, para hacer planeación
sobre las exportaciones.
469
En cuanto a la Prueba F que se encuentra en la regresión es de F= 1085.736,
recordando en los ejemplos anteriores que esta prueba es la evaluación de la
significación estadística en la regresión X= f(PIB,FBKF). Con = 5% observamos
que la probabilidad de F (0.000538) y con Log Likelihoold Ratio (0.000422) <
0.05, entonces aceptamos la hipótesis alterna (Ha), por lo tanto, INPC es
significativa estadísticamente y debemos incluirla en este modelo, replanteando el
modelo con la variable omitida sería X=f(PIB, FBKF,INPC)
2. Variables explicativas redundantes, digamos PIB.
En Eviews la prueba “Redundant variables- likelihood ratio” contrasta la
significación estadística de una o varias variables exógenas, con el fin de
cerciorarse de que no sobran o de que son redundantes. Así con =5%
supóngase que
Ho: PIB es redundante
Ha: PIB no es redundante
Como en el ejemplo anterior partimos del cuadro de la ecuación de regresión en
que X=f(PIB, FBKF), sobre la pantalla de regresión seleccionamos view/coefficient
tests/redundant variables-likelihood ratio/ escribimos “PIB” en “omitted redundant
variables test” /ok y aparece el cuadro siguiente:
Cuadro 8.3.26. Pantalla de Regresión sobre Variables Redundantes.
470
IV. Pruebas de estabilidad estructural
a) Contraste de Chow
Se hace uso de esta prueba cuando se piensa que dentro de la serie existe un
periodo que por diversas razones cambió la trayectoria de la variable endógena,
en este caso con 126 observaciones (30 años representados en trimestres)
suponga que la observación 11 colapsaron las exportaciones ya que fue en el
primer trimestre de 1982, después de anunciada a la deuda de ese mismo año.
Por el desequilibrio económico hay razones de peso para pensar que cambió el
valor de las Exportaciones (X). Para verificarlo, con =5% establecemos la
hipótesis nula de estabilidad estructural.
Ho: Hay un solo modelo para todos los datos; probabilidad de F mayor que
α=5%;
Ha: Cada subgrupo en que se dividen los datos tiene un comportamiento
diferente: no hay un solo modelo hay dos; probabilidad de F menor que α=5%.
Luego si no hay diferencias estadísticas significativas entre el modelo restringido y
el otro aceptamos Ho: de estabilidad estructural del modelo; en caso contrario,
aceptamos Ha y decimos que hubo un cambio estructural en el periodo 11 en el
año 1982 en el primer trimestre, en que todo el sistema económico se trastocó.
Para aceptar o rechazar la prueba de hipótesis de la prueba de estabilidad Chow
dentro de la pantalla de regresión señalamos view/stability tests/chow break point
test/ damos click y en la ventana que aparece escribimos 1982.1/ok genera el
siguiente cuadro:
Cuadro 8.3.27. Prueba de Estabilidad Chow.
471
Cuadro 8.3.28 Prueba de estabilidad de Chow: Pronóstico desde 1982Q1 a
2010Q4.
472
Podemos apreciar dentro de la gráfica que no hay estabilidad en el modelo en el
período. Los residuos recursivos se salen de las bandas construidas con dos
errores estándar alrededor de Y ± 2S.E.
473
Para ello es fundamental plantear con =5% y verificar:
Ho: Hay normalidad en las perturbaciones: JB=0
Ha: No hay normalidad en las perturbaciones: JB ≠ 0
VI. Predicción.
En esta parte es importante señalar que los datos que se estimaron para los
trimestres de 2011.1 a 2011.4, en la variables de Producto Interno Bruto (PIB) y
Formación Bruta de Capital Fijo (FBKF), se utilizó el método de Suavizamiento
simple de Holt, el cual se verá más adelante.
6. Partimos del archivo que hemos estado trabajando desde el inicio de este
ejemplo, seleccionamos la regresión X=f(PIB, FBKF) .
7. Expandimos en 1 año el rango del archivo, es decir, en cuatro trimestre que
van de 2011.1 a 2011.4, seleccionamos de la barra de herramientas que se
encuentra arriba de nuestra barra de comandos Proc/ Structure-Resize
Current…/clic/ End date: 2011Q4/ ok
8. Damos en la ventana de la ecuación estimate: procs/make regresión group,
aparecen los datos de los trimestre 2011.1 a 2011.4 en X, PIB, FBKF en
blanco.
474
Editamos seleccionando en la barra de herramientas del grupo de variables
“edit+/-“, escribir sus valores proyectados previamente obtenidos con el método
de Suavizamiento de Holt, los cuales pueden apreciarse en el siguiente cuadro.
Tenemos las siguientes tablas, solo se muestra los últimos datos, es decir, de
2009 1 a 2011.4.
Para llenar las celdas de PIB, FBKF como se mencionó en los dos ejemplos
anteriores, existen dos procedimientos:
3. Escribimos los valores proyectados de PIB, FBKF (que son conocidos con
antelación) como en el siguiente cuadro (llamado grupo 2) mismo que lo
guardamos como grupo2.
4. En la línea de comando escribir Data PIB FBKF/ enter y aparece el cuadro
del grupo 4 y llenamos los años con los datos correspondientes.
Grupo 2
475
2011Q4 2055781578 9271337241
Grupo 4
Cuyos resultados estadísticos del lado derecho sirven para evaluar la calidad de
la predicción, mismos que se interpretarán párrafos abajo.
476
Ahora en la pantalla de workfile: ecuación para predecir, seleccione (sombreo) X y
XF para conocer el valor pronosticado de XF/ open group/clic y aparece el
siguiente cuadro que llamo
Este cuadro también se obtendría si sobre la barra de comandos escribimos
“Show X XF”/ enter y aparece igual al caso anterior.
Grupo 03.
Tabla 8.3.10 Datos
obs X XF
2009Q1 61396.88 63884.8523
2009Q2 64265.02 65134.231
2009Q3 68526.08 70317.3917
2009Q4 77222.46 75488.1102
2010Q1 78101.52 68522.1433
2010Q2 85464.74 74440.384
2010Q3 85776.04 77447.4597
2010Q4 91441.89 82544.3124
2011Q1 81146.5595
2011Q2 81951.5813
2011Q3 82756.6031
2011Q4 83561.6249
477
CAPITULO IX.- NÚMEROS ÍNDICES
Las series de tiempo son registros de las oscilaciones de los valores de una
variable, Y, en el tiempo, o sea que éste denotado con t, actúa como la variable
independiente que explica los cambios de Yt en el tiempo, generalmente para
muchos más momentos o puntos de Yt en el tiempo. Así, al graficar sus
fluctuaciones, éstas pueden mostrar efectos circunstanciales, tendenciales o
estacionales en ciertos momentos en el tiempo, mismos que deben de eliminarse
con objeto de mostrar la dirección “real” de la variable económica.
Alcance del análisis de las series de tiempo: su estudio generalmente sirve para
hacer análisis estructural, pero es indudable que también permite evaluar
políticas económicas ( públicas o privadas) y para predecir, dado que al limpiar o
librar Yt de cualesquiera de alguno de los efectos antes mencionados, ahora se
está en condiciones de poder predecir o proyectar su comportamiento futuro con
mayor certeza (porque sus oscilaciones en el tiempo han sido suavizadas con
técnicas como las de los índices, diferencias, medias móviles, logaritmos, etc. que
veremos enseguida) que antes cuando estaba afectada por aspectos
circunstanciales, tendenciales, cíclicos o estacionales. Así, al familiarizarse el
investigador con los métodos de análisis, está en condiciones de comparar los
valores de Yt antes y después de aplicar la nueva política pública ( ergo, fiscal) o
política privada (mercadológica).
478
Derivado de lo anterior es por ello que en la actualidad se ha masificado el estudio
de los métodos de las series de tiempo, tanto con los de la llamada “Econometría
tradicional” como con los de “Series de tiempo o moderna”. Al respecto, los
aspectos básicos de los primeros se vieron en los primeros 10 capítulos
anteriores, mismos que ahora sirven de referencia fundamental para en este
momento iniciar el estudio de los segundos.
IX.1.-Números índices.
Origen
¿Por qué se acostumbra convertir los datos originales en índices? Porque sólo así
se pueden comparar los precios y cantidades de grupos de bienes y servicios de
diversa índole (zapatos, mantequilla, medicinas, automóviles, etc).
479
IX.1.1.-Tipos de índices
Los números índice relativos son los porcentajes que expresan variaciones de
precio o cantidad de un producto X (en comparación con su precio o cantidad
de un año base). También estas variaciones pueden ser de varios productos o
servicios.
P1 Q
Ip *100; I q 1 *100
P0 Qo
Un índice relativo se puede calcular para una mercancía o servicio, como el caso
anterior o para varios, como sucede en la realidad.
Su fórmula es:
Ip
P 1
* 100; I q
q 1
* 100
P 0 q 0
Igualmente, los índices simples ó relativos como promedios que pretenden ser
representativos, de las variaciones de los fenómenos suelen calcularse con las
siguientes fórmulas, según la naturaleza y características de los fenómenos.
Media aritmética:
P1 q1
P q
Ip 0
* 100; I q 0
* 100
n n
480
Media geométrica Log:
P1
log P
Ip 0
log 100 log n
n
q1
log q
Iq 0
log 100 log n
n
Media armónica:
n n
Ip *100 Iq * 100
Pi q1
Po qo
Luego:
Ip
PQ ;
1
Iq
q P1
PQ 0 q P0
Al respecto, el factor de ponderación puede ser el del año base o el del año de
comparación. Cuando es el año base, la fórmula es:
Ip
PQ1 0
* 100; Iq
Q P 1 0
* 100
P Q0 0 Q P 0 0
481
Ip
PQ 1 1
* 100; Iq
q P *100
1 1
PQ 0 1 q P0 1
En este sentido el experto Fisher formula una ponderación de las dos anteriores
y la llamo: "Fórmula ideal de Fisher”, la cual viene dada por:
Ip
PQ * PQ
1 0 1 1
* 100
PQ PQ 0 0 0 1
Iq
q P * q P *100
1 0 1 1
q P q P0 0 0 1
Derivado de los desarrollos anteriores podemos decir que el índice del valor se
calcula con la siguiente formula:
Iv
P q
1 1
* 100
P q
0 0
Puesto que hay diferentes métodos para calcular índices (Marshall, Keynes,
Ellsworth, etc.) el experto Irving Fisher ideó una serie de criterios matemáticos
para que con base en ellos el invstigador pudiera seleccionar el más adecuado
para medir las variaciones en el tiempo: de precios, cantidades o de valor. Así, a
continuación se muestran algunos criterios matemáticos utilizados para
seleccionar el índice más apropiado.
Reversión cronológicas; y
Reversión de factores.
De tal suerte que el índice que pasa "esas" pruebas matemáticas” es el que debe
usarse en opinión de Fisher. Como se verá más adelante con un ejemplo
numérico, sólo el índice de Fisher pasa estas pruebas, por eso lo llamó “ideal”.
Ello significa que el cambio de base se hace por comodidad, ergo; por ello
expresa las variaciones en función de un año reciente, pero que de ninguna
manera mejora la serie o valores del fenómeno bajo estudio.
482
IX.1.1.5.- Deflactación.
Así se hace para todos los datos del fenómeno bajo estudio durante un período
de tiempo determinado. El cociente resultante es el valor real, en cada año, del
fenómeno de interés.
483
Tabla 9.1.1.5.1 Deflactación.
1 2 3 4 5 6 7
Inflación
Base Base Base Base
1968=100 INPC 1978=100 INPC 1994=100 INPC 2002=100
1968 100 30.2 30.2 0.08 0.08
1969 103.5 31.3 31.3 0.08 0.08 3.5
1970 108.7 32.9 32.30 0.09 0.09 3.2
1971 114.6 34.6 34.00 0.09 0.09 5.3
1972 120.3 36.4 35.70 0.10 0.10 5.0
1973 134.8 40.7 40.00 0.11 0.11 12.0
1974 166.8 50.4 49.50 0.13 0.13 23.8
1975 191.8 58.0 57.00 0.15 0.15 15.2
1976 222.1 67.1 66.00 0.18 0.18 15.8
1977 286.7 86.7 85.10 0.23 0.23 28.9
1978 330.8 100.0 100.00 0.27 0.27 17.5
1979 117.8 35.6 118.20 0.32 0.32 18.2
1980 149.0 45.0 149.30 0.40 0.40 26.3
1981 191.9 58.0 191.10 0.51 0.51 28.0
1982 302.4 91.4 303.60 0.81 0.81 58.9
1983 612.90 1.64 1.64 101.9
1984 1,014.10 2.71 2.71 65.5
1985 1,599.70 4.28 4.27 57.7
1986 2,979.20 7.97 7.95 86.2
1987 6,906.60 18.47 18.43 131.8
1988 14,791.20 39.55 39.47 114.2
1989 17,705.60 47.35 47.25 19.7
1990 22,481.50 60.12 60.00 27.0
1991 27,576.30 73.75 73.59 22.7
1992 31,852.80 85.18 85.01 15.5
1993 34,959.00 93.49 93.29 9.8
1994 37,394.10 100.00 99.79 7.0
1995 50,478.30 134.99 134.71 35.0
1996 67,836.64 181.41 181.04 34.4
1997 81,828.39 218.83 218.37 20.6
1998 94,890.15 253.76 253.23 16.0
1999 110,595.67 295.76 295.15 16.6
2000 121,092.62 323.83 323.16 9.5
2001 128,187.35 342.80 342.09 5.9
2002 100.21 100.21 5.7
484
En la columna 4 es solamente el INPC con base 1978, para cambiar la base a
1994 los resultados aparecen en la columna 5, los calculos son los siguientes
30.2
para el año 1968 *100 0.0807 , para el año 1975
37,394.10
IX.1.1.6.-CONSTRUCCIÓN DE ÍNDICES
1 2 3 3*2
Considerando 1996 = 100, es decir, año base, los índices se calculan así:
485
1999 4,500 150 66 110 297 165
Si ahora cambiamos de base digamos al año 2000 = 100, haciendo los cálculos
con dos procedimientos para los precios tendremos:
La deflactación se hace lo mismo para una serie cronológica como para el análisis
comparativo en dos años de un fenómeno en términos reales.
Así por ejemplo, si deseamos conocer el ingreso real de una persona digamos
de 2010 a 2011, tomando en cuenta que el primer año su ingreso nominal fue
de $10 millones y en el segundo fue de $12.6 millones. El procedimiento es el
siguiente.
486
Año Salario Nominal Ip Ingreso Real en miles
Por ejemplo, en 2011 se deseaba inflactar las ventas hechas por las empresas
durante 2008, 2009, 2010 y 2011.
Para ello se cuenta con el índice de precios al consumidor para esos años el cual
nos permite mediante el cambio de base, hacer la inflactación correspondiente:
2011 = 100
Nuevo Índice
487
9.1.1.7.2 Aplicaciones para deflactar e inflactar.
Ahora bien para deflactar.- Si fijamos 2008 = 100 año base, es decir, llevamos
el valor de las ventas a precios de 1999, en este caso se hace lo contrario, es
decir, hacemos un cambio de base al revés.
Así $100 millones de 1999, 2000, 2001, y 2002 equivalen a precios de 1999 a:
488
PODER ADQUISITIVO = 1÷ IP
I II III IV
renglón %
anterior)
489
20.6 22.565326
La tasa de inflación del mes de febrero fue de 2.3 %. Sin embargo la tasa de
inflación acumulada durante estos dos meses de 1990 no fue la simple suma de
4.8 + 2.3 = 7.1. El cálculo de la inflación acumulada al 29 de febrero es :
GENERALIZANDO PARA:
490
P P
P1 P1
* 100
Ip 0
Ip 0
n n
P
P1
* 100
p
P1
log Ip= log 0 log I p log 100 log n
n 0
P1
P
log Ip= log 0
log 100
n
n
Ma de los relativos I p
P0
* 100
P1
Si designamos con Qo y Q1 las cantidades de cada articulo del año base y del
año de estudio y designamos IP el índice de precios tenemos que: ∑PoQo
representa el valor total o costo total de bienes y servicios o artículos en el año
base. La cantidadP1Q0 representa el valor total del mismo conjunto de artículos
en año de comparación; entonces el índice de Laspeyres nos sirve para medir el
costo total en cualquier año de comparación de un conjunto fijo de artículos
comprados en el año base.
En el cálculo del índice Paasche P0Q1 es el valor total o costo total de artículos
comprados en el año de comparación considerando los precios del año base y;
P1Q1 es el valor total de artículos comprados en el año de comparación a los
precios de ese mismo año. Entonces el índice de Paasche nos sirve para medir el
costo total de los artículos en el año de comparación relativos al costo que podrán
haber sido comprados si se hubiera adquirido en el año base.
Laspeyres.
Paasche
491
Método del año de comparación I p I p PQ 1 1
* 100
P Q 0 1
Marshall:
Ip
P (Q
1 0 Q1 )
* 100
P (Q
0 0 Q1 )
Fisher:
Ip
P Q * Q P
1 0 1 1
* 100
P Q Q P
0 0 0 1
Iq
P Q * Q P
1 0 1 1
* 100
P Q Q P
0 0 0 1
Iv = índice de valor
Valor:
Iv
PQ 1 1
* 100
PQ0 0
2001 2002
Artículo
Maíz Kgs. 2 3 3 1 9 6 3 2
Arroz Kgs. 4 3 6 2 18 12 12 8
Papa Kgs. 6 4 9 3 36 24 27 18
Trigo Kgs. 8 5 12 4 60 40 48 32
Sal Kgs. 10 6 15 5 90 60 75 50
492
Laspeyres.
Ip
PQ 1 0
* 100
213
* 100 15
. * 100 150%
PQ 0 0 142
Paasche
Ip
PQ 1 1
* 100
165
* 100 15
. * 100 150%
P Q 0 1
110
Marshall
Ip
P (Q Q ) * 100 45(21 15) * 100 1620 * 100 15. * 100 150%
1 0 1)
P (Q Q )
0 0
30( 21 15)
1
1080
Ip
PQ * PQ 1 0 1 1
* 100
213 165
* * 100 15 . * 100 2.25 * 100 15
. * 15 . * 100 150%
PQ PQ 0 0 0 1 142 110
Iq
q P * q P * 100
1 0 1 1
.79*.79 * 100 .6241 * 100 .79 * 100 79%
q P q P 0 0 0 1
Iv
PQ 1 1
* 100
165
* 100 116
. * 100 116%
PQ 0 0 142
M. relativos
P
P1
7.5
Ip 0
* 100 * 100 15
. * 100 150%
n 5
493
Mg de relativos
P
P1
P
P1
log I p log 0
* 100 log log n log 100
n 2
Su antilogaritmo = 150.0 %
Ma de relativos
n 5
Ip * 100 * 100 1.49 * 100 149% 150%
P0 3.35
P1
MARSHALL
Ip
P (Q1 0 Q1 )
* 100
378
* 100 150%
P (Q0 0 Q1 ) 252
494
Ejemplo: para el calculo de Q0 (consumo) su fórmula es:
n
iNi
Q0 c
i 1
i
i
Estimación del consumo por día.
Donde:
Se aplican para identificar qué índice es el mejor de los muchos que existen para
expresar variaciones. Fisher propuso las dos que aparecen en los siguientes dos
incisos. Para ello supongamos que los datos son los siguientes:
2001 2002
Artículo Unidad Po Qo Pi Qi
495
Centeno Bushel 1.33 78.70 1.26 61.90
P1Q1
P0Q0
496
esto es en un índice de cantidad, pero
PQ
1 0 Q P
1 0
es diferente de Q P 1 1
P0Q0 Q P
0 0 Q P 0 0
PQ 1 1
se transforma en Q P 1 1
; pero
PQ 0 1 Q P 0 1
PQ 1 1
*
Q P
1 1
es diferente de Q P 1 1
PQ 0 1 Q P
0 1 Q P 0 0
PQ * PQ al transformarse en Q P * Q P
1 0 1 1 1 0 1 1
y multiplicarse por la
PQ PQ
0 0 0 1 Q P Q P 0 0 0 1
anterior
PQ * PQ * Q P * Q P = P Q
1 0 1 1 1 0 1 1 1 1
PQ PQ Q P Q P P Q
0 0 0 1 0 0 0 1 0 0
Ejemplo:
PQ 1 0
0.5824;
P Q 0 1
12 ,968.610.8
1.0956
PQ 0 0 P Q 0 0
11,864.461.25
Con Paasche:
497
PQ 1 1
7 ,441.317.45
0.5725
PQ 0 1
12 ,998.610.8
QP 1 1
7,441317
. .45
10769
. 1078868
.
QP 0 1 6,910.027.39
PQ * PQ
1 0 1 1
*
Q P * Q P =
1 0 1 1 PQ
1 1
PQ PQ
0 0 0 1 Q P Q P
0 0 0 1 P0Q0
PQ
0 0
pero PQ 1 0
se transforma
PQ 0 1
.
PQ 0 0 PQ 1 1
P Q * P0 Q1
1 0
P Q P1Q1
0 0
PQ
1 1
se transforma
PQ 0 0
.
P0Q1 PQ 1 0
pero
498
PQ
1 1
*
Q0 P0
P0Q1 Q P 0 1
Q P * Q P
0 1 1 1
se cambia
Q P * Q P
1 0 0 0
tal que
Q P Q P
0 0 1 0 Q P Q P
1 1 0 1
Q P * Q P
0 1 1 1
*
Q P * Q P
1 0 0 0
= 1.0
Q P Q P
0 0 1 0 Q P Q P
1 1 0 1
PQ 1 0
se transforma en
PQ 0 1
PQ 0 0 PQ 1 1
Recordando que :
PQ
0 1
12,998.610.8
17468157
.
PQ
1 1 7,441317
. .45
Con Paasche:
PQ 1 1
se transforma en Q P 0 0
PQ 0 1 Q P 0 1
donde Q P
0 0
11,864.461.25
1.7169919
Q P
0 1
6,910.023.9
499
Q P * Q P
0 1 1 1
*
Q P * Q P
1 0 0 0
= 1.0
Q P Q P
0 0 1 0 Q P Q P
1 1 0 1
Así, puesto que sólo la fórmula propuesta por Fisher pasa estas dos pruebas
matemáticas, él la llamó “ Fórmula Ideal de Fisher”. Cabe señalar que en México
no se usa para medir variaciones ya sea de precios o de cantidades pero se
incluyó este tema para que el lector vea los esfuerzos que hacen los
investigadores por mejorar la metodología de variaciones de una variable.
Visto numéricamente:
500
Para el año escogido como base el valor del índice es automáticamente fijado
en 100, en nuestro ejemplo el año de 2000 es igual a 100. Los índices para los
años siguiente a 2000 fueron determinados multiplicando el eslabón relativo de
cada año por el índice en cadena del año precedente. Así, si N se refiere a un
año determinado en la serie:
Lu * Cu 1
Cu
100
donde:
Lu = Eslabón relativo.
Para 2002
(1211
. ) * (154.5)
Cu 2002 =
100
Cu 2002 = 187.09
Cu 118.2
Cu 1 * 100; Cu1998 * 100
Lu 86.7
100
Cu 1999 = 100 118.2
84.6
501
CÁLCULOS DE LOS NÚMEROS ÍNDICE USADOS PARA "INFLACTAR LA
INFORMACIÓN DE 1998 A 2000.
1.- Se obtuvo el índice mensual para los años de 1998 y 1999, por ser los años a
que corresponden la mayoría de las empresas.
1,418.20 1,199.40
I 1999 118.18%; I 1998 99.95%
12 12
Indice de Precios al Consumidor, BANXICO.
502
Las principales diferencias (Banxico, 2002) entre el INPC y el INPP son:
INPC INPP
503
Diario Oficial ) y en la hoja
electrónica del Banco de México
Ejercicio 1.
Valor
Producción PMR Producción
Año
(Ton) ($/Ton) (Miles de
Pesos)
1990 14,635,439.00 609.47 8,919,861.01
1991 14,251,500.00 707.31 10,080,228.47
1992 16,929,342.00 761.23 12,887,123.01
1993 18,125,263.00 767.73 13,915,308.16
1994 18,235,826.00 656.22 11,966,713.74
1995 18,352,856.00 1,091.57 20,033,427.02
1996 18,025,952.45 1,434.61 25,860,211.64
1997 17,656,258.00 1,353.75 23,902,159.27
1998 18,454,710.38 1,446.18 26,688,833.06
1999 17,706,375.63 1,454.48 25,753,569.23
2000 17,556,905.24 1,507.78 26,471,950.58
2001 20,134,312.10 1,451.07 29,216,296.26
504
2002 19,297,754.79 1,500.56 28,957,438.93
2003 20,701,420.03 1,618.01 33,495,104.62
2004 21,685,833.34 1,678.59 36,401,622.99
2005 19,338,712.89 1,577.93 30,515,135.23
2006 21,893,209.25 2,010.55 44,017,391.86
2007 23,512,751.85 2,441.99 57,417,904.89
2008 24,410,278.53 2,817.04 68,764,731.03
2009 20,142,815.76 2,802.05 56,441,176.90
2010 23,301,878.98 2,816.48 65,629,276.11
Fuente: Elaboración propia con datos de SAGARPA.
Basándonos en 1990 como 100 decimos que 14, 635,439 Toneladas será = 100 y
con esta referencia obtendremos el índice para cada año.
Ejemplo: Para 1993 = 18, 125,263 Toneladas basándonos en el año 1990 = 100
Ejercicio 2
505
26,688,833.06
Si ahora cambiamos de base digamos 2000 = 100, haciendo los cálculos para los
precios tendremos:
Siendo 100 la base anterior ya que considerábamos a 1990 como 100 ahora este
lo dividiremos entre el valor de la nueva base que será 2000 = 119.96 en índice
de acuerdo a las toneladas y a la base anterior y obtenemos el nuevo índice.
Producción (Ton)
Índice
Año
Unidades base Índice base
1990 2000
1990 14,635,439.00 100.00 83.36
1991 14,251,500.00 97.38 81.17
1992 16,929,342.00 115.67 96.43
1993 18,125,263.00 123.85 103.24
1994 18,235,826.00 124.60 103.87
506
1995 18,352,856.00 125.40 104.53
1996 18,025,952.45 123.17 102.67
1997 17,656,258.00 120.64 100.57
1998 18,454,710.38 126.10 105.12
1999 17,706,375.63 120.98 100.85
2000 17,556,905.24 119.96 100.00
2001 20,134,312.10 137.57 114.68
2002 19,297,754.79 131.86 109.92
2003 20,701,420.03 141.45 117.91
2004 21,685,833.34 148.17 123.52
2005 19,338,712.89 132.14 110.15
2006 21,893,209.25 149.59 124.70
2007 23,512,751.85 160.66 133.92
2008 24,410,278.53 166.79 139.04
2009 20,142,815.76 137.63 114.73
2010 23,301,878.98 159.22 132.72
Fuente: Elaboración propia con datos de SAGARPA.
Por ello para evaluar estos cambios se necesitan actualizar el valor de los bienes
e ingresos.
507
cual se mide el fenómeno económico que se conoce como inflación. Así, el INPC
es la medida de la inflación por explicar una similitud.
En el cuadro numero 4 se obtienen los salarios reales con ayuda del Índice
Nacional de Precios al Consumidor, teniendo estos datos la deflactacion consiste
en basarnos en el índice de precios para asi obtener el salario real como e
muestra en el siguiente ejemplo:
Como el INPC es de 109.694, sabemos que es un índice por lo que su valor esta
multiplicado por 100. Así que tomaremos el valor de variación que será 1.0969.
De ese modo tendremos lo siguiente:
Ejemplo 2010/01
508
Multiplicando
Para Para
Periodo ÍNPC
dividir Multiplicar
509
2011/11 102.71 0.983 1.017
2011/12 103.55 0.991 1.009
2012/01 104.28 0.998 1.002
2012/02 104.50 1 1
Fuente: Elaboración propia con datos de INEGI
Base
Índice nacional de para Inflación Inflación
Variación
Periodo precios al aplicar mensual acumulada
porcentual
consumidor la en % en %
inflación
510
2011/10 101.608 3.200 134.830 4.314546 39.1441
Ejemplos adicionales.
Recordamos que el índice de Laspeyres nos sirve para medir el costo total en
cualquier año de comparación de un conjunto fijo de artículos comprados en el
año base y el índice de Paasche nos sirve para medir el costo total de los
artículos en el año de comparación relativos al costo que podrán haber sido
comprados si se hubiera adquirido en el año base.
Laspeyres.
Paasche
Ip Ip
PQ1 1
* 100
Método del año de comparación P Q
0 1
Marshall
Ip
P (Q
1 0 Q1 )
* 100
P (Q
0 0 Q1 )
511
Ip
P Q * Q P
1 0 1 1
* 100
P Q Q P
0 0 0 1
Iq
P Q * Q P
1 0 1 1
* 100
P Q Q P
0 0 0 1
Iv
PQ1 1
* 100
PQ0 0
donde Iq = índice de cantidad
Iv = índice de valor
Laspeyres.
Ip
PQ 1 0
* 100
3,881,315,511.1
* 100 141.80%
P Q0 0 2,737,021,850.1
Paasche
Ip
PQ 1 1
* 100
5,379,469,107.0
* 100 138.4%
PQ 0 1 3,886,022,168.7
Marshall
Ip
P (Q Q ) *100 74,027(2,625,975 2,762,822) *100 104.89%
1 0 1)
P (Q Q )
0 70,574(2,625,975 2,762,822)
0 1
Ip
PQ * PQ 1 0 1 1
* 100
3,881,315,511.1 5,379,469,107.0
* * 100 140.089%
P Q P Q 0 0 0 1 2,737,021,850.1 3,886,022,168.7
Iq
q P * q P1 0 1 1
* 100
3,886,022,168.7 5,379,469,107.0
* * 100 140.27%
q P q P 0 0 0 1 2,737,021,850.1 3,881,315,511.1
Iv
PQ 1 1
*100
5,379,469,107.0
*100 196.54%
P Q0 0 2,737,021,850.1
512
Tabla 9.1.1.11.9 Cálculo de números índice
ALGODON HUESO 6,743 278,526 9,305 440,489 2,591,666,967.8 1,877,967,348.6 4,098,732,028.6 2,970,013,129.0
P1
P 16.2
Ip 0
*100 *100 1.08 *100 108%
n 15
Mg de relativos
P
P1
P
P1
log I p log 0
* 100 log log n log 100
n 2
Su antilogaritmo = 108 %
Ma de relativos
n 15
Ip *100 *100 96.77%
P0
P 15.5
1
MARSHALL
Ip
P (Q
1 0 Q1 )
*100
9,260,784,618.2
*100 139.82%
P (Q
0 0 Q1 ) 6,623,044,018.9
515
Tabla 9.1.1.11.9 Construcción de Índices
ACELGA
AGAPANDO
(Gruesa)
AJO
AJONJOLI
ALBAHACA
ALBRICIA
ALCACHOFA
ALGODON
HUESO
ALHELI
ALHELI
516
(Gruesa)
ALHELI
(Manojo)
ALMACIGO
(Planta)
ALPISTE
ALPISTE
ORNAMENTAL
AMARANTO
SUMA 5,388,797
16.2 15.5 6,623,044,018.9 9,260,784,618.2
517
CAPITULO X.- SERIES DE TIEMPO: SUS CARACTERÍSTICAS
Este tema se empezó a estudiar con rigor técnico y profusión durante la década de los
70 del siglo pasado, ello se debió a que la metodología de la econometría tradicional o
clásica empezó a fallar, despertar desconfianza el su uso como instrumento para hacer
análisis económico, principalmente para hacer estudios de las variables relevantes
macro (planeación, análisis de estructura) y micro (valores de las acciones de una
empresa en el mercado de valores). Donde mostró su ineficiente significativamente fue
en los estudios de predicción en virtud que las crisis petrolera alteró mucho los precios
de este energético, como el abandono de la paridad de 35 dólares con 1 onza de oro,
al igual que la deuda externa que no pudieron pagar algunos países como México,
principalmente, trastocaron las variables de los sistemas económicos del mundo, de
manera que ya no resultaba confiable estimar los valores de una variable dependiente
en función de los valores de varias variables independientes: análisis multivariable.
Ello orilló a los investigadores a buscar nuevos métodos de estimación; dentro de las
opciones destaca la metodología de Box &Jenkins, la cual se caracteriza por estimar
los valores futuros de la variable dependiente a partir de sus valores del pasado; es
decir depender de sus valores históricamente observados, que actúan como variable
independiente en el uso de MCO para hacer estimaciones y predicciones, llamado por
esa razón análisis univariable, esencia de lo que se conoce como econometría moderna
o de series de tiempo.
Box & Jenkins son los autores de este enfoque metodológico. sus modelos se
caracterizan porque se tiene en cuenta la dependencia existente entre los datos de la
misma variable en momentos diferentes de tiempo. Cada dato en un momento dado es
modelado en función de los valores anteriores; sus análisis se basan en el modelo
ARIMA, mismo que describe un Yt = Yt-1 + Ut como una función lineal de sus valores
anteriores (Yt-1) y errores debidos al azar (aleatorios, Ut); debe agregarse que también
puede incluir un componente cíclico o estacional. Con este análisis de los datos se
logra obtener un modelo “sin necesidad de ninguna otra información de variables
auxiliares o relacionadas” (Pérez, 2007:547). Para realizar este análisis recomiendan
usar tamaños de muestras (n) mayores a 50 datos de Yt. Así, modelar los valores de
esta variable en el tiempo es derivar un modelo ARIMA que se ajuste al conjunto de
dichos valores de Yt. Lo anterior hizo famosa su frase de que “la información hable por
si misma”, que en otras palabras significa según mi interpretación, que de acuerdo con
la observación de su variabilidad es que se determina la estructura matemática,
ecuaciones, que habrán de servir para predecir Yt. Así, dado que cada observación
está en función de valores suyos en el pasado, es que también por eso se le conoce
como análisis univariado.
X.1.- ¿Qué es, cómo se define una serie de tiempo univariante?
Una serie temporal se define como el registro de una sucesión de puntos o valores en
el tiempo ( día, mes, año) de una variable económica de interés para el investigador,
518
i.e., sus valores en el tiempo pueden moverse con ciertas tendencia identificadas o con
oscilaciones prolongadas, oscilaciones que no siempre son regulares. La relativa
irregularidad con que se mueven hace poco apropiado su análisis con los
procedimientos estadísticos estándar o de econometría tradicional, en virtud de que
éstos se basan en los supuestos de que los datos tienen una propiedad conocida
como ESTACIONARIEDAD, misma que muchas series no la tienen y a las que se les
puede denominar INTEGRADAS que en opinión de Granger (2003) también se les
llama incorrectamente: SERIES NO ESTACIONARIAS.
Un modelo univariante predice valores futuros de una serie de tiempo con base en
valores anteriores de la misma serie de tiempo. Se usa un modelo univariable para
identificar un patrón de datos, con el objetivo de que este padrón se repite en el futuro
el valor se extrapola con el objetivo de generar predicciones.
¿De conformidad con las citadas fluctuaciones, de cuantas maneras podemos clasificar
o describir a las series temporales?
De acuerdo con Daniel Peña (2005) las series univariantes pueden ser:
1.- Series estables o estacionarias, que se caracterizan por que sus datos fluctúan en
torno de un nivel constante, que puede ser la media aritmética o la dispersión mínima
de los mismos con respecto a ella y que se mide con la varianza, situación que
muestra que no hay tendencias crecientes o decrecientes, lo cual es bueno porque
indica que hay poca dispersión o alejamiento de sus datos del citado nivel.
2.- Series no estables o no estacionarias, éstas son aquellas cuyos datos no fluctúan
alrededor de un nivel constante sino que éstos no son claramente estables en el
tiempo, además de que tienen un comportamiento o tendencia que se acrecienta con
el tiempo y que puede ser positiva o negativa.
519
Así, a la situación en que la media aritmética depende o está en función del periodo que
se escoja de la serie temporal, se le conoce como ESTACIONALIDAD, que es diferente
la de la ESTACIONARIEDAD antes definida.
X.1.1.- Evaluación.
Ejemplos de estos tres tipos de series son los que se describen en la siguiente sección
de ejercicios con Eviews.
Como antes se indicó, dentro del tipo de datos que más se usan para hacer análisis
económico destacan los de las series de tiempo, Yt, cada una de ellas se define como
520
una sucesión de puntos u observaciones en el tiempo de una(s) variable(s)
económica(s) en estudio, ejemplo: PIB, consumo, inversión, tipo de cambio, inflación,
etc.
Lo anterior es muy importante porque por ejemplo el valor del índice inflacionario del
mes anterior definitivamente será muy parecido al de este mes, es decir, “influye” en el
valor actual, luego no hay mucha “independencia” temporal entre ellos.
Al igual que la característica antes descrita, los datos de series de tiempo tienen otra
característica: la de la periodicidad con que se obtienen, que puede ser cada 10 años
como los de población, anualmente como los del PIB, mensual como la inflación, etc.
Ello puede revelar “características estacionales” que influyen en la determinación de su
“tendencia temporal”.
La teoría de series de tiempo establece que éstas, Yt, pueden presentar cuatro tipos de
oscilaciones, ya sea en forma independiente o simultáneamente, ellas son: 1.
Tendencia; 2. Variaciones estacionales; 3. Variaciones cíclicas; y 4. Variaciones
residuales o aleatorias.
X.2.1.1.- Identificación
Por la importancia que tienen las variaciones irregulares como fenómenos aislados,
insólitos, a veces coyunturales, así como por el impacto o incidencia que tienen en la
521
metodología instrumentada para determinar la bondad de ajuste de ésta para
pronosticar con mayor certeza valores futuros de Yt, se considera pertinente abundar
sobre las mismas diciendo que por su característica circunstancial, algunos estudiosos
del tema (Mason et al, 2001:650) consideran necesario dividirlas en dos grupos: el que
agrupa las fluctuaciones episódicas y el que agrupa las que se derivan de éstas: las
residuales.
Ellos consideran que las episódicas aun cuando se pueden identificar no se pueden
predecir puesto que por ejemplo, un incendio o una pandemia, es observable y por
consiguiente se puede registrar pero no es posible pronosticarlo(a) en el futuro.
Profundizando, como sucedió con la pandemia de “gripa” en la Ciudad de México en el
año 2008”, en virtud de que no se eliminó totalmente, una vez que se erradicó esta
variación episódica, a los restos del efecto que causó en el quebranto de la salud,
generalmente desconocidos (dada su periodicidad o intensidad), se les acostumbra
llamar oscilaciones o variaciones residuales que, como se observa, por su naturaleza,
son difíciles de identificar de inmediato y por consiguiente, también son impredecibles.
Esta última connotación abre el escenario del estudio concienzudo de los métodos de
predicción que para ser aceptados como apropiados deben considerar o incluir también
el manejo de factores desconocidos visualmente, porque estamos conscientes de que
existen en la realidad aunque no los veamos.
Esta afirmación suscita dudas como se verá más adelante; por el momento aceptemos
que efectivamente existen factores desconocidos que deben ser incluidos en alguna
parte del algoritmo que se use para pronosticar, también aceptemos en darles la
connotación aleatoria.
522
dado; sin embargo, si recordamos que con el método clásico o teórico del cálculo de la
probabilidad de un evento de interés para el investigador, éste se puede identificar sin
llevar a cabo el experimento porque al abstraernos en la teoría de la probabilidad
sabemos que al lanzar el dado hay seis resultados posibles: 1,2,3,4,5 y 6; también por
el método de cálculo familiar para todos nosotros, sabemos que un sexto es la
probabilidad de ocurrencia de cada una de las caras del dado.
523
estocástico, que tiene ciertas características estadísticas: media cero y varianza
determinada, es decir, tiene una distribución normal.
Así, para estudiar una serie de tiempo entendida como un proceso estocástico, en un
periodo de tiempo determinado, donde cada uno de sus puntos es una variable
aleatoria y por ello en su conjunto constituyen un proceso aleatorio, es necesario que
se estudie ya sea en sus niveles (valores originales) o en sus variaciones o cambios
(tasas) de la variable o serie de tiempo, tanto gráfica como numéricamente.
X.2.1.3.-Representación gráfica
Luego entonces, diremos que gráficamente los cuatro tipos de oscilaciones que puede
tiene Yt, antes descritas, se manifiestan así:
524
Cabe señalar que estos cuatro tipos de movimientos de las series históricas suelen
combinarse, es decir, sus movimientos pueden mezclarse en el periodo de tiempo de
análisis de Yt, propiciando así el surgimiento de una “nueva serie”.
a) Aditivo: Yt = Tt + Ct + Et + Rt;
b) Multiplicativo: Yt = Tt*Ct*Et*Rt; y
c) Mixto: Yt = Tt + Ct*Et + Rt
Wooldridge (2009: 363) comenta que no hacerlo conlleva el riesgo de que se trabaje
con una regresión espuria, es decir que se trabaje con variables correlacionadas por
casualidad más que por causalidad. Esta falsa relación de Y con t, es un problema que
surge porque puede haber factores inobservables con ciertas tendencias que estén
relacionados con la variable tiempo, t, los cuales, por consiguiente, influyan sin que lo
sepa el investigador en la variable Y de manera que ello genera relaciones casuales (
y no causales) de Y con la variable independiente, t. En otras palabras, si no se tiene
cuidado en verificar lo anterior, puede suceder que por el simple hecho de observar
que Y y t manifiesten tendencias de crecimiento similares puede conducir a pensar
que están altamente correlacionadas, cuando en la realidad no es así.
Para identificar esta oscilación a largo plazo de Yt, antes que nada se debe de trazar el
diagrama de dispersión, mismo que puede sugerir que se corra la regresión de Y con
respecto a t (tiempo). Una vez que se tiene una idea del comportamiento de Y t se
puede explorar su identificación técnica recurriendo a formas funcionales como las
siguientes:
525
3. Exponencial: Yt = Exp (a+b)t; se usa cuando se vea que los valores de Yt
aumentan o disminuyen a intervalos crecientes o cuando se detecta que Yt
manifiesta el mismi ritmo (tasa) de crecimiento promedio de un lapso a otro.
Cuando se decide usarla para expresar la tendencia, recuérdese que se
acostumbra transformarla por medio de logaritmos para modelarla como una
serie con tendencia lineal en el tiempo.
Y1 Y2 Y3 Y4 Y5 Y6 X 7 X 8 X 9
Yt
3 3 3
Y1 Y2 Y3
526
¿ Qué se busca y que relación tiene con la tendencia secular?
527
Se seleccionara la opción “Single” con el número de parámetro 1, dentro de los
parámetros se pueden cambiar los número de alfa, beta y gamma; si no, el programa
arrojará los valores. En el caso de este método de suavizamiento simple sólo se
obtendrá el valor de alfa, el cual está en este rango:
En caso de que “α” se encuentre más cercano a cero, significa que el nivel (media) de
la serie temporal no se modifica mucho a través del tiempo. En este caso
automáticamente el ciclo es 4, ya que son datos trimetrales. En la opción “smoothed
series” puede escribirse el nombre que se desee que lleve la serie, en este caso
escribimos “Simple”, en seguida seleccionamos “OK”. Aparecerá una ventana (veáse
Cuadro 1.2.) que da los valores del parámetro alfa, la suma de errores al cuadrado , la
raíz del error al cuadrado, así como el valor de la media.
528
Para observar el comportamiento de la serie de Consumo de Gobierno y Consumo de
Gobierno con el método de Brown simple, en la pantalla de Workfile se seleccionan
ambas variables “cg” y “simple”, se da un clic derecho, se selecciona Open/ as group…,
apareciendo una ventana con los valores de las dos variables. En seguida se
selecciona View/ Graph/ Line
529
De esta manera podemos observar que el pronóstico que realiza esta prueba no se
ajusta a la serie de tiempo del Consumo de Gobierno, lo cual ya habíamos analizado en
el parámetro alfa y el comportamiento de la media inicial con la media final, además de
que este método supone una serie temporal sin tendencial lo cual no sucede en el
comportamiento de esta variable.
530
Cuadro 10.3.2.2 Análisis del método exponencial Brown doble.
531
De igual forma que el método del inicio podemos observar que el pronóstico que realiza
esta prueba no se ajusta a la serie de tiempo del Consumo de Gobierno, aunque este
método supone una serie temporal con tendencia.
3. Método de Holt-Winters.
532
Cuadro 10.3.3.2 Análisis del método exponencial Holt-Winters – No seasonal.
Los valores iniciales no se ajustan muy bien a los datos lo que arroja una suma de
errores al cuadrado grande (Véase cuadro 3.2). Como resultado, los intervalos de
predicción son más amplios de lo necesario. Asimismo, por este método podemos
observar que el pronóstico que realiza esta prueba no se ajusta a la serie de tiempo del
Consumo de Gobierno, aunque este método supone al igual que método Doble de
533
Brown una serie temporal con tendencia y su ajuste es más adecuado, pero no el
mejor.
El método de Holt-Winters aditivo se usa para las series de tiempo que presentan una
variación estacional fija, además muestran una tendencial lineal con una tasa de
crecimiento constante. Es adecuado cuando la serie temporal muestra una tendencial
lineal con un patrón estacional aditivo, en donde el nivel, la tasa de crecimiento y el
factor estacional podrían estar cambiando.
Para este método se siguien los mismo pasos para la obtención de la ventana de
“Alisado Exponencial”. En la barra de comandos se escribe “show cg”, seleccionamos
dentro de la barra de herramientas Proc/ Exponetial Smoothing y enseguida un clic,
aparece lo siguiente.
534
aditivo (véase Cuadro 4.2) que da los valores de los parámetros alfa, beta y gamma, la
suma de errores al cuadrado, la raíz del error al cuadrado, así como el valor de la
media, la tendencia y el ciclo.
535
Cuadro 10.3.3.6 Gráfica de Consumo de Gobierno y Consumo de Gobierno
Aditivo.
En este método la serie temporal muestra una tendencia lineal, así como una tasa de
crecimiento lineal y un patrón estacional constante. Es adecuada cuando una serie
muestra una tendencia lineal y un factor estacional multiplicativo, para la cual puede
que el nivel, la tasa de crecimiento y la variación estacionalidad podrían ser fluctuantes.
Para este método se siguien los mismo pasos para la obtención de la ventana de
“Alisado Exponencial”. En la barra de comandos se escribe “show cg”, seleccionamos
dentro de la barra de herramientas Proc/ Exponetial Smoothing y enseguida un clic,
aparece lo siguiente.
536
Cuadro 10.3.4.1 Alisamiento Exponencial.
537
Cuadro 10.3.4.2 Análisis del método exponencial Holt-Winters Multiplicativo.
Los resultado que arroja este método exponencial Holt-Winters multiplicativo son
similares a los del métodos expencial de Holt-Winters aditivo. Lo que puede concluirse
es que las constates de suavización (α, γ, δ) para la tasa de crecimiento son cero, por lo
tanto, las estimaciones no son distintas de las estimaciones iniciales. Pero existe una
suma de errores al cuadrado grande lo que refleja la lorgitud de los intervalos en la
predicción, los intervalos son mucho más amplios.
538
Cuadro 10.3.4.1 Gráfica de Consumo de Gobierno y Consumo de Gobierno
Multiplicativo.
539
Una serie de tiempo puede:
Los posibles objetivos del análisis de series de tiempo, de acuerdo con Chatfield son:
descripción, explicación, predicción y control.
Descripción: Dotará el análisis con los componentes principales de la serie. Las cuales
se presentan a continuación:
540
un lapso muy extendido de tiempo, es decir que no cambiará en el futuro
lejano mientras no hayan cambios significativos o radicales en el entorno
en el que se encuentra inmersa y que determina el comportamiento de la
serie de tiempo en estudio, cambios que podrían ser originados como por
ejemplo, por descubrimientos científicos, avances tecnológicos, cambios
culturales, geopolíticos, demográficos, religiosos, etc.
4. Aleatoriedad. Al eliminar los otros componentes la variabilidad restante de las
series de tiempo suele ser la de índole aleatoria. Esta puede ser provocado por
sucesos externos e imprevisibles. La aleatoriedad es el cambio producido en
los valores de una serie de tiempo debido a fenómenos que son en extremo
difíciles de explicar y que por lo tanto su ocurrencia cae en el ámbito del
azar.
541
X.4.1. Identificación con datos mexicanos de Variaciones Cíclicas, Ct arriba
descritas
Como antes se dijo, los ciclos generalmente tienen cuatro movimientos o etapas, si se
inician por ejemplo, con la de recuperación, le sigue la de prosperidad o auge, a la que
le sucede la recesión y luego la depresión, en periodos mayores a un año. Los
movimientos de estas etapas fluctúan por abajo y por arriba de la tendencia secular (ver
gráfica 10.4.1).
El algoritmo que se usa para identificar las variaciones cíclicas en la nueva serie χ, se
conoce como el método de análisis armónico, que luego se ilustrará, del cual también
puede derivarse otro método: el del periodograma acumulativo.
Ejemplo:
Así, en la gráfica siguiente 1.2 pueden identificarse claramente tres ciclos, cada uno de
ellos con sus respectivas 4 etapas. El primer ciclo parece iniciar un poco antes del
primer trimestre de 1993 y termina en el tercer trimestre de 1997. El segundo ciclo inicia
en el tercer trimestre de 1997 y termina en el segundo o tercer trimestre de 2005. El
tercer ciclo inicia en el tercer trimestre de 2005 y a la fecha aún no ha concluido.
542
Gráfica 10.4.1.1: Ciclos observados
Se identifican graficando los datos con algunas de las formas funcionales antes
descritas y detectando que algunos de ellos se reproducen en cada uno de los años de
Yt.
Ejemplo:
De la serie del PIB puede observarse que cada primer trimestre de cada año el PIB
disminuye y durante el cuarto trimestre de cada año el PIB aumenta, ello es un claro
ejemplo de estacionalidad. Sin embargo, no todas las series, con frecuencia mensual o
trimestral, presentan estacionalidad.
Así, en la Gráfica 1.3 siguiente las líneas verticales de color verde muestran la
disminución del PIB durante cada primer trimestre de cada año y las líneas verticales de
color negro muestran el aumento del PIB durante cada cuarto trimestre de cada año.
Por otra parte, para agregar las líneas verticales en Eviews una vez que se ha
generado la gráfica sobre ésta se da un click derecho y se selecciona la opción de “add
shading” y en la ventana que se desplegará en “orientation” seleccionamos vertical y en
“position” tenemos que ir escribiendo cada una de las observaciones que presentan el
comportamiento estacional, en nuestro caso: 1993Q1, 1994Q1,…, y 2009Q1 para el
primer trimestre de cada año y 1993Q4, 1994Q4,…, y 2009Q4 para el cuarto trimestre
de cada año. Nota: Deben ponerse una por una cada una de las observaciones,
también puede elegirse el color de la línea, la forma de la línea y el grosor de la misma.
543
Gráfica 10.4.1.2: Identificación de variaciones estacionales
544
Ello se logra con la “desestacionalización” de la serie, que se puede obtener con
métodos sencillos como: a) método de la tendencia; b) de las medias móviles; y c) el
método de las diferencias estacionales. Estos métodos se describen a continuación:
1. Calcular las medias anuales de los datos y con ellas hacer la regresión:
Yi a bi
Donde:
1 m
Yi Yik
m k 1
N
1
Yk
N
Y
i 1
ik
Donde: k = 1, 2, 3,…, m.
545
3. Aislar el componente estacional obteniendo la serie de medias mensuales
corregidas:
b( k 1)
Yk´ Yk
m
Yk´
I K ´ 100
Y
Ik Yk´
Eik
100 Y ´
Eik Yk´ Y ´
Ejemplo:
Suponga nuevamente la serie del PIB de México para el periodo comprendido entre el
primer trimestre de 1993 y el cuarto de 2009 a precios constantes de 2003. Como ya se
determino en el punto XI. 13. 3, esta serie presenta estacionalidad pues decrece en
todos los primeros trimestres y repunta en todos los cuartos trimestres, por lo que este
546
comportamiento se suavizará utilizando el método del promedio o media móvil. Este
método consiste en “mover los valores de la media aritmética a través de la serie del
tiempo” (Mason, et al.-, 2000: 655).
547
valor 3 valor 4 valor 5
x
3
Y así sucesivamente.
En nuestro caso como vamos a trabajar con la serie del PIB de forma trimestral, m es
par, por lo que tendremos que calcular la media móvil de la serie y además, a partir de
ésta, se calculará la medía móvil centrada. Así, con fines ilustrativos y por cuestión de
espacio únicamente se muestra una parte de las operaciones aritméticas necesarias
para obtener la serie desestacionalizada. Los cálculos se realizaron en Excel insertando
filas donde fuera oportuno y/o necesario.
548
Como se comentó anteriormente, en este caso m = 4, por tanto la frecuencia es par y
se tendrá que calcular la media móvil y la media móvil centrada.
Cuyo valor se colocará entre las observaciones 1993/02 y 1993/03 (obsérvese fila
20 columna D del cuadro anterior).
Para la segunda media móvil omitimos el primer valor de la serie y tomamos los
siguientes cuatro, es decir, en este caso, los valores de las observaciones 1993/02,
1993/03, 1993/04 y 1994/01, obteniéndose la siguiente media móvil:
Para la tercera media móvil omitimos ahora tanto el primero como el segundo valor
de la serie y tomamos los siguientes cuatro, es decir, los valores de las
observaciones 1993/03, 1993/04, 1994/01 y 1994/02, obteniendo:
549
Y así sucesivamente hasta completar la serie, en este caso, la de medias móviles, si
m fuera impar únicamente tendría que calcularse está serie, pero dado que m es par
entonces se tendrá que calcular la serie de la media móvil centrada.
Una vez que contemos con la serie de la media móvil, ahora centraremos su valor.
Así, se procede a calcular y centrar la media de dos medias móviles. En nuestro
caso, calcularemos la media de las medias móviles que se encuentran entre las
observaciones 1993/02 y 1993/03 y la media móvil que se encuentra entre las
observaciones 1993/03 y 1993/04 y el resultado se colocará (centrará) en la
observación 1993/03. Observe que hasta antes de centrar el valor de la media móvil
ésta no pertenecía, por así llamarle, a ninguna observación.
5871531.02 5912390.96
x1 5891960.99
2
Para la segunda media móvil centrada, ahora se omite el primer valor de la serie de
la media móvil y se toman los siguientes dos, en este caso, las medias móviles que
se encuentran entre las observaciones 1993/03 y 1993/04 y la media móvil entre las
observaciones 1993/04 y 1994/01, obteniéndose la media móvil centrada para la
observación 1993/04:
5912390.96 5996423.03
x2 5954406.99
2
Para la tercera media móvil centrada se omiten los valores de las dos primeras
medias móviles y se toman los siguientes dos, es decir, las medias móviles que se
encuentran entre las observaciones 1993/04 y 1994/01 y la media móvil entre las
observaciones 1994/01 y 1994/02, obteniéndose la media móvil centrada para la
observación 1994/01:
550
5996423.03 6070233.1
x3 6033328.06
2
551
Obsérvese como se suavizó o alisó el comportamiento de la serie del PIB (PIBDES), en
este caso se eliminó el componente estacional de la serie original del PIB (de color
azul) y para la serie PIBDES se perdieron 2 observaciones al inicio y 2 al final.
Con este método, como comenta Mason, et al.- (2000: 658) se identifica la tendencia a
largo plazo en una serie de tiempo (ya que amortigua las fluctuaciones a corto plazo).
1. Se obtiene la serie de las medias móviles en caso de que m sea impar o la serie
de las medias móviles centradas en caso de que m sea par.
4. En teoría la suma de las medias de los índices estacionales debe ser igual a m,
porque el promedio se fija en 1. Cuando la suma es distinta de m, entonces se
aplica un factor de corrección a cada valor medio para obtener un total de m. El
factor de corrección es:
m
Factor de corrección
Suma de las medias de los índices estacional es
Los índices obtenidos se deben expresar como porcentaje, por lo que deben de
multiplicarse por 100.
552
Esta forma de promediar elimina la mayor parte de las fluctuaciones irregulares
respecto de estacionales, y los índices que resultan indican el esquema
representativo estacional de la serie, si es que presenta este componente.
Ejemplo:
Retomando la serie de las medias móviles centradas para el ejemplo anterior (lo que
equivale a realizar el paso 1 del método de índices estacionales), calculamos el valor
estacional específico, en este caso para cada trimestre. Cabe mencionar que estos
cálculos se continuarán realizando en Excel.
Así, para obtener el primer valor estacional específico dividimos el valor original del PIB
en el tercer trimestre de 1993 con respecto a la media móvil centrada en dicho
trimestre, obteniéndose:
5857838.58
Valor estacional específico 0.99420865
5891960.99
El segundo valor estacional específico resulta de dividir el valor original del PIB en el
cuarto trimestre de 1993 con respecto a la media móvil centrada en dicho trimestre,
obteniéndose:
6092879.1
Valor estacional específico 1.0232554
5954406.99
El tercer valor estacional específico resulta de dividir el valor original del PIB en el
primer trimestre de 1994 con respecto a la media móvil centrada en dicho trimestre,
obteniéndose:
5896044.37
Valor estacional específico 0.97724578
6033328.06
553
Y así sucesivamente hasta calcular todos los valores específicos que componen la
serie.
Ahora organizamos de forma tabular los valores específicos, de tal suerte que se
observan de la siguiente forma:
554
Tabla 10.4.2.1.3.1 Obtención de Datos
Ahora procedemos a calcular el índice medio estacional para cada periodo, es decir,
para todos los primeros, segundos, terceros y cuartos trimestres, de tal suerte que la
suma de todos los valores específicos de los primeros trimestres es igual a 15.6209, de
los segundos trimestres 15.9424, de los terceros trimestres 16.0017 y de los cuartos
trimestres 16.4133.
Por Tanto la media de los índices estacionales por frecuencia (por m) son:
15.6209118
x1 0.97630698
16
15.9424027
x2 0.99640017
16
16.0017333
x3 1.00010833
16
555
16.4133752
x4 1.02583595
16
4
Factor de corrección 1.000337364
3.998651
556
A continuación se multiplica cada índice medio estacional por el factor de corrección,
obteniendo así el índice medio estacional ajustado para cada frecuencia:
Ahora multiplicamos cada índice ajustado por 100, así, el índice medio ajustado del PIB
del primer trimestre para todos los años es de 97.6636%, por lo que decimos que el PIB
en el primer trimestre está 2.3364% (obtenido de restar 100-97.6636) por abajo del
primer trimestre típico; el índice medio ajustado del PIB del segundo trimestre para
todos los años es de 99.6736%, por lo que el PIB del segundo trimestre está 0.3264%
por debajo del segundo trimestre típico; el índice medio ajustado del tercer trimestre del
PIB para todos los años es de 100.0445%, por lo que el PIB en el tercer trimestre está
0.0445% por arriba del tercer trimestre típico o promedio; y finalmente el índice medio
estacional ajustado del PIB en el cuarto trimestre es de 102.6182%, por lo que el PIB
está 2.6182% por arriba del cuarto trimestre promedio. De aquí precisamente surge la
necesidad de desestacionalizar la serie.
557
Tabla 10.4.2.1.3.3 Obtencion de Datos
Índice
ajustado 0.976636 0.996736 1.000445 1.026182 4.000000
Finalmente, ahora dividimos cada observación original de la serie del PIB entre su
respectivo índice medio estacional ajustado, con lo cual obtendremos la serie del PIB
desestacionalizada, es decir, todos los valores del PIB de los primeros trimestres se
dividen entre el índice medio estacional ajustado del primer trimestre, en este caso,
entre 0.976636; los valores de los segundos trimestres entre 0.996736; los de los
terceros trimestres entre 1.000445; y los de los cuartos trimestres entre 1.026182.
Así, por ejemplo, el valor del PIB en el primer trimestre de 1993 es de 5732604.63 este
se divide entre 0.976636, obteniéndose el valor del primer trimestre de 1993 del PIB
desestacionalizado; el valor del PIB en el segundo trimestre de 1993 es de 5802801.77
el cual se divide entre 0.996736, obteniéndose el valor del segundo trimestre de 1993
del PIB desestacionalizado; etc., ello puede observase a continuación en el cuadro
siguiente:
558
Tabla 10.4.2.1.3.4 Obtención de Datos
Índice PIB
Periodo PIB
ajustado desestacionalizado
1993/01 5732604.63 0.976636 5869745.37
1993/02 5802801.77 0.996736 5821804.14
1993/03 5857838.59 1.000445 5855233.01
1993/04 6092879.1 1.026182 5937425.43
1994/01 5896044.37 0.976636 6037095.06
1994/02 6138930.05 0.996736 6159033.13
1994/03 6153078.88 1.000445 6150341.98
1994/04 6424823.79 1.026182 6260900.88
1995/01 5825755.88 0.976636 5965125.07
1995/02 5599962.82 0.996736 5618300.95
1995/03 5691913.71 1.000445 5689381.94
1995/04 5962216.99 1.026182 5810097.03
Ahora, copiamos la serie original del PIB y la del PIB desestacionalizada a Eviews y las
graficamos conjuntamente, obteniendo el siguiente cuadro:
La serie original del PIB está de color azul y la serie del PIB desestacionalizada con el
método de variaciones estacionales a partir de índices estacionales de color rojo. Como
puede apreciarse con este método se recuperan las observaciones perdidas y se
desestacionaliza la serie, en este caso, los primeros y segundos trimestres de cada año
se ajustaron hacia arriba y los terceros y cuartos hacia abajo, eliminando así el
559
componente estacional. Asimismo, con esta serie desestacionalizada del PIB es posible
realizar predicción.
Con este método se elimina gran parte del impacto estacional de la serie temporal. Para
ello (como se hizo antes cuando se ilustró este concepto de diferenciación) se obtiene
la serie de diferencias de orden m (que es el periodo estacional definido), definiendo
cada diferencia como Z t Yt Yt m .
Ejemplo:
Continuando con la serie del PIB de forma trimestral desde el primer trimestre de 1993
hasta el cuarto trimestre de 2009 y dado que anteriormente se había detectado un claro
comportamiento estacional en ella, ahora se procede a desestacionalizarla en Eviews
con el método de las diferencias estacionales.
Así, una vez que la serie original se copió a Eviews, en este caso el PIB, en la barra de
comandos escribimos: “genr despib=pib-pib(-4)” donde el 4 indica que la serie se
diferenciará de la siguiente manera: al primer trimestre de 1994 se le resta el primer
trimestre de 1993, al segundo semestre de 1994 se le resta el segundo de 1993, al
tercer trimestre de 1994 se le resta el tercer trimestre de 1993, al cuarto trimestre de
1994 se le resta el cuarto de 1993, al primer trimestre de 1995 se le resta el primer
trimestre de 1994, etc., perdiéndose por tanto 4 observaciones ya que la frecuencia en
este caso es trimestral, es decir, m = 4. Una vez obtenida la serie “despib” la abrimos y
graficamos con el método habitual y obtenemos:
560
Observe que con este método se eliminó tanto la estacionalidad como la
tendencia, así, la serie “despib” obtenida mediante el método de diferencias
estacionales permite eliminar al menos dos componentes de la serie, sin
embargo, se pierden m observaciones.
a).- Las condicionales tienen como fundamento la relación causal que existe entre la
variable explicativa Yt y su explicativa Xt, de manera que Yt se puede predecir sí y sólo
sí se conocen los valores futuros de Xt.
1. El determinista o clásico; y
2. El estocástico o moderno basado en Box and Jenkins.
561
Ejemplo:
En este caso la variable tiempo tomara los valores 1, 2, 3,…, 68 para 1993/01,
1993/02,…, 2009/04 respectivamente.
562
trabaje con Eviews 5), abrimos la serie tiempo y en la observación 2010Q1 ponemos
69, en la 2010Q2 escribimos 70, en la 2010Q3 escribimos 71 y en la 2010Q4
escribimos 72.
563
Tabla 10.5.1 Datos
564
Observe que la tendencia de la serie del PIB desestacionalizada estimada (PIBDESF)
siempre es creciente, mientras que la serie del PIB desestacionalizada (PIBDES) no lo
es, por tanto los valores estimados del PIB para los próximos 4 trimestres de 2010
deberán ajustarse a partir de multiplicar sus valores estimados (obtenidos a partir de la
ecuación de regresión anterior) por sus respectivos índices medios estacionales
ajustados que se calcularon previamente, así los valores ajustados de la predicción del
PIB desestacionalizado serán:
565
Ejemplo 4
Cuadro10.5.2. Descripcion
566
Gráfico 10.5.2 Comportamiento de la serie
Método aditivo.
Este método se caracteriza por sumar los cuatro elementos que conforman una serie de
tiempo: Tendencia (T) + Ciclo (C)+ Estacionalidad (Sn) + Aleatoriedad (A). Este se
utiliza en caso de que la variación sea constante.
Componente Estacional
Para comenzar el análisis se abre la serie CG, en la barra de menú se selecciona Proc/
Seasional Adjustment / Moving Average. Tal como se muestra en el cuadro siguiente.
567
Cuadro 10.5.3 Descripción
Después de haber seleccionado dicha opción, se abre una nueva pantalla de Seasional
Adjustment, en él aparece la opción Adjustment method/Difference from moving
average- Additive. En la siguiente opción: Series to calcúlate aparece el nombre de la
serie creada como cgsa por default, se puede cambiar si así se desea, en Factors
(optional) se sugiere incluir el nombre del componente, en este caso: estacionalidad.
568
En este paso la serie genera medias móviles con el fin de eliminar el componente
estacional de la serie.
569
Cuadro 10.5.6 Descripción
Componente Tendencia.
570
Enseguida aparece un cuadro de diálogo, en Output series viene la opción Smoothed
series: Se sugiere cambiar el nombre predeterminado por “tendencia”, de esa forma se
crea el segundo componente de la serie. A continuación se ilustra lo anterior.
Como se mencionó con antelación, el parámetro (λ) es muy importante, es por ello que
si no se tiene un cálculo preciso de la estimación de éste se deje el valor que trae
predeterminado, que en este caso es de 1600.
571
En este cuadro se muestra la tendencia en rojo y la estacionalidad en azul, el ciclo se
aprecia en verde, sin embargo hace falta llevar a cabo algunos paso más para definirlos
de manera correcta.
Este paso es el preámbulo del componente ciclo, aun falta hacer algunos pasos más.
Componente ciclo.
572
Aquí se puede apreciar el componente ciclo, el cual no es diferente de las estimaciones
que se habían venido haciendo, lo importante de este gráfico es la línea verde, la cual
presenta ciclos muy irregulares, en los que nos se aprecia con claridad el periodo de
auge, expansión, desaceleración, recesión y depresión que se presenta regularmente.
Existe la opinión generalizada de que a partir de 2008 el CG ha tenido un
comportamiento muy volátil, más que el registrada desde 1980.
Componente Aleatorio.
En este caso se espera que la esperanza matemática (media de los errores) sea igual a
cero, es decir. para que los valores no se volatilicen y la serie se comporte de
la manera más lineal posible.
573
Gráfico 10.5.6 Comportamiento de series
En el segundo recuadro (ciclo) se distinguen cuatro ciclos, el primer auge tiene lugar en
1985, año en el que la Ciudad de México sufrió el sismo más devastador de la historia
del país, razón por la cual el gobierno pudo haber tenido un consumo mayor. Por otra
parte, el segundo auge se encuentra en 1993, año en que las variables
macroeconómicas mostraban estabilidad y congruencia en su comportamiento tal que
daban confianza para la futura evolución de la economía. En este contexto es que un
574
año después se firmó el Tratado de Libre Comercio. El tercer auge en el ciclo se
presenta en 2001, año de la crisis financiera provocada por el acelerado crecimiento de
las empresas .com, debido a esto el gobierno tuvo que consumir más para evitar la
profundización de la crisis.
Comentarios:
Método multiplicativo.
Este método se caracteriza por multiplicar los cuatro elementos que conforman una
serie de tiempo: Tendencia (T) * Ciclo (C)* Estacionalidad (Sn) * Aleatoriedad (A). Este
se utiliza en caso de que se haya observado que la variación sea creciente. La
finalidad, como ya se mencionó, es descomponer la serie en sus cuatro componentes.
Componente Estacional.
Para empezar se abre la serie CG, que es con la que se ha venido trabajado. En la
barra de menú se selecciona: Procs/Seasonal Adjustment en el cuadro de diálogo que
aparece selecconar: Adjustment method/Ratio to moving average-Multiplicative. En el
cuadro de diálogo Series to Calculate/Adjusted series, agregar un 2 al nombre
predeterminado, es decir: cgsa2, esto debido a que seguramente se sigue trabajando
con la misma base de datos que se utilizó en el método aditivo y el “2” sirve para
575
diferenciar. En Factors(optional): escribir estacional2, como se muestra en el siguiente
cuadro.
Al dar click en ok al cuadro de diálogo anterior, aparecen los resultados del componente
estacional trimestral presentado en el cuadro siguiente.
576
El rango de estacionalidad oscila entre 0.8492 y 1.1660 para cada trimestre de 1980 a
2012. El primer y tercer trimestre, tienen un comportamiento semejante, lo mismo que el
segundo y cuarto trimestre. Lo cual da indicios del movimiento de la serie.
Componente Tendencia.
577
Cuadro 10.5.11 Regresión
Con el fin de lograr un mejor ajuste, se realizó una regresión con la variable tendencia,
tendencia elevada el cuadrado y al cubo. Los resultados se observan a continuación.
578
Cuadro 10.5.12 Regresión
579
Cuadro 10.5.13 Descripción
580
Entre otras cosas, se aprecia una tendencia ascendente y constante, por lo que se
puede decir de manera reiterada que el Consumo Gubernamental ha crecido conforme
aumenta el tiempo, tal y como se ilustró en el gráfico anterior.
Componente Ciclo.
Una vez generada, es necesario abrirla y de ahí pasar a la opción: view/correlogram, tal
como muestra a continuación.
581
Esta operación permitirá ver la correlación que tiene la variable cgst2, la cual dará pie al
componente cíclico. Una vez realizados todas las operaciones para obtener el
correlograma, se despliega una gráfica como la que se presenta a continuación.
genr ciclo2= @movav(cgst2, 4). Por si se pensaba que el paso anterior era inútil, nos
sirvió observar el correlograma para saber cuántos rezagos incluir en la creación de la
582
variable ciclo2. Una vez que se tiene la variable ciclo2, se abre, opción view/graph/line y
se obtiene el siguiente cuadro.
Componente Aleatorio.
583
Como ya se dijo, se espera que la esperanza matemática de los errores sean lo más
cercanas a cero, sin embargo, este no es el caso, lo que nos indica que la serie tiene un
componente irregular que se acentúa en 1981 y el periodo de la crisis actual 2009-
2012.
584
El fin de obtener estos gráfico es el de compararlos con los que se presentaron en el
Método aditivo. En este caso, la tendencia es más clara que en el anterior, el ciclo se ve
muy irregular, sin embargo, marca los mismos picos de auge que el método pasado. En
cuanto los componentes estacionales y aleatorios, el comportamiento es exactamente
igual.
585
CAPITULO XI.- ESTACIONARIEDAD Y RAICES UNITARIAS
Estos dos conceptos, como el anterior de estacionalidad, emanan del estudio que se
hace del comportamiento de las series de tiempo. Su uso está fuertemente vinculado
entre sí, por eso es que en el guión temático comprometido en el PAPIME 305811 para
DGAPA, se presentan juntos. En este contexto es que a continuación empezamos con:
XI.1.-Estacionariedad
586
Aceptar la caminata aleatoria que en predicción, ergo, el precio de una acción es igual a
su precio actual más un choque (innovación, crisis, etc.) puramente aleatorio, lo que
hace elemental el método de pronosticar;
Los modelos de regresión que usan series de tiempo se utilizan para pronóstico, el cual
será bueno si la serie temporal u variable es estacionaria. Al respecto se dice que es no
estacionaria cuando su µ, σ2 y covarianza varían en el tiempo, por lo que decimos que
no son estacionarias respecto a µ (primer momento) y con respecto a σ2 (segundo
momento);
Método gráfico.
Se grafica la serie temporal Yt, si su evolución muestra por ejemplo, una tendencia
ascendente (o descendente), ello sugiere que su µ y σ2 están variando, indicando que
quizás Yt es no estacionaria. Con este indicio se puede pasar al siguiente método
gráfico más elaborado:
587
k Co var ianzaalrez agok
k
0 Varianza
Cuando k =0, entonces ρ0 = 1 ¿Porqué?, y que al estar la varianza y covarianza
expresadas en las mismas unidades de medida, ρk al tener un significado como el del
coeficiente de correlación, su valor oscila entre -1 y +1. Cuando se gráfica ρ k versus k,
la gráfica que resulta se denomina CORRELOGRAMA POBLACIONAL.
Recuerde que en la práctica no se trabaja la población sino una muestra suya, luego
en este caso sus estimadores son:
k
(Y t Y )(Yt k Y )
n
0
(Y t Y )2
n
k
k
0
La gráfica de k en el eje vertical y k en el eje horizontal del primer cuadrante del
sistema de ejes cartesianos ahora se llama CORRELOGRAMA MUESTRAL, que
construida con EViews generalmente muestra la AC (función de autocorrelación
muestral) y ACP (función de autocorrelación parcial), más la estadística Q y su
probabilidad de ocurrencia asociada. AC tiene una línea vertical continua que
representa el eje cero a partir del cual se grafican los diferentes valores positivos (a la
derecha) y negativos (a la izquierda) de ρk: Coeficiente de autocorrelación individual.
588
Cuando el proceso estocástico es puramente ruido blanco es estocástico en
distintos rezagos que se localizan cerca del cero, lo que significa que se trata de una
serie temporal estacionaria. Al respecto, cuando el proceso o serie temporal es MCA las
ρk se ubican cerca de uno indicando que se trata de una serie no estacionaria.
Cabe señalar que el número de rezagos a exhibir es discrecional; lo importante es
que dé información suficiente para identificar la estacionariedad de la serie. En opinión
de Gujarati (2003: 784) la elección del número de rezagos es una decisión empírica ya
que en la vida real se sugiere calcular las FAC en un número próximo a un tercio o una
cuarta parte del número total de elementos que integran la serie temporal. No obstante,
autores como Carrascal et al sugieren aplicar un criterio estadístico para determinar su
número; pueden ser el criterio de información Akaike o el de Schwarz. Como opciones
también se sugieren prueba como las siguientes:
2.1. Verificar la significación estadística de los coeficientes de autocorrelación
individuales, ρk´s. Y establecemos:
Ho: ρk = 0; no hay autocorrelación entre los términos cuando la probabilidad es > 5%
indicando que la serie es estacionaria;
Cada uno de los ρk se prueba o contrasta. Al respecto, Bartlett demostró que si una
serie de tiempo es puramente aleatoria, es decir, si muestra ruido blanco las ρk´s
muéstrales son aproximadamente:
k ~ N (0, 1/n)
k Z k
Si ahora hacemos k = 10 y sí su ACF = 0.638 = 10
589
Sustituyendo: 10 ± 1.96 (0.1066)
10 ± 0.2089
590
de qué hacer en ese caso, Ljung-Box elaboraron como una derivación de la Q de Box
& Pierce, la estadística LB por las iniciales de sus autores. Así, EViews calcula
además del correlograma y las ρ k´s a la estadística Q, con su probabilidad de
ocurrencia asociada (descrita en la última columna). Luego, si establecemos:
Ho: ρ1 = ρ2= … ρk = 0
Ha: ρ1 ≠ ρ 2≠ … ρ k ≠ 0
Con α = 5%, decimos que si la probabilidad de Q (LB) es menos o igual al 5%,
aceptamos Ha y decimos que la serie es no estacionaria, y si es mayor que 5%
aceptamos Ho y decimos que la serie es estacionaria, que es ruido blanco y que sus µ y
σ2 son constantes en el tiempo.
La formula de Q de Ljung-Box viene dada por:
m
Pk
LB n( n 2) ( ) X 2m
k 1 nk
Cabe señalar que en muestras grandes Q y LB tienen una distribución Chi cuadrada
con m grados de libertad; sin embargo se ha observado que LB en muestras pequeñas
tiene más potencia estadísticamente hablando. Al usar Eviews para calcularla, en el
cuadro además de aparecer la FAC y FACP de las “ro” y sus correspondientes
correlogramas, también aparece la estadística Q ahora llamada LB en la penúltima
columna con su probabilidad de ocurrencia (última columna). Al respecto, cuando dicha
probabilidad es cercana a cero, se dice que la probabilidad de que LB tome el valor de
Q en determinado rezago bajo la hipótesis nula de que la suma de los k cuadrados
(columna de FAC) sea cero, es muy pequeña (última columna) e indica también que la
serie temporal es no estacionaria, ya que sabemos que para que sea estacionaria su
probabilidad debe ser mayor a 5%.
2.3.- FACP: función de autocorrelación parcial.
Por otra parte, el análisis de series temporales además de AC, se complementa con
ACP: autocorrelación parcial. Por su singularidad a continuación transcribimos el
algoritmo que Pérez (2007: 550) sugiere para su cálculo:” El primer término de la
función de autocorrelación parcial, que vamos a denotar por θ 11, puede estimarse
transformando la serie Xt en desviaciones respecto a su media muestral ( Yt= Xt menos
su media) y a continuación estimando una regresión de Yt sobre Yt-1. La pendiente
estimada de esta regresión es θ 11. El modelo de regresión es Yt =θ11Yt-1 + Ut. Además,
el primer valor de la función de autocorrelación parcial θ11 es precisamente igual al
primer valor de la función de autocotrrelación. Esta es una propiedad de las funciones
de autocorrelación de todo proceso estocástico estacionario.
El segundo valor de la función de autocorrelación parcial, θ 22, se estima mediante
una regresión de Yt sobreYt-1 eYt-2. El modelo de regresión es Yt = θ21Yt-1 + θ22Yt-2 + Ut.
591
El tercer valor de la autocorrelación parcial, θ 33, se estima mediante una regresión de
Yt sobreYt-1, Yt-2 e Yt-3 . El modelo de regresión es Yt = θ31Yt-1 + θ32Yt-2 + θ33Yt-3 +Ut3.
Vemos pues que la función de autocorrelación parcial puede estimarse mediante
una series de regresiones, cada una de las cuales contiene como variable explicativa
un retardo más que la anterior, y de que nos vamos quedando en cada caso con los
coeficientes estimados en los retardos más altos: θ 11,θ22, θ33 …….., que son así los
valores estimados de la función de autocorrelación parcial estimada mediante fórmulas
recursivas, utilizando la función de autocorrelación previamente estimada y utilizando
las ecuaciones de Yule-Walker. A veces se suele denominar correlograma a la
representación gráfica de las funciones de autocorrelación parcial.”
Bien, después de esta excelente exposición de Pérez, ahora abordemos otro
método para verificar si la serie temporal es o no es estacionaria.
XI.2.- Prueba para identificar la raíz unitaria en las series temporales.
Recordando el planteamiento y definición dados en párrafos anteriores, ahora
profundizaremos para arribar a una expresión algebraica que nos permita visualizar
mejor la raíz unitaria, su comprensión, interpretación y corroboración usando otros
signos, de los que antes se dijo; claro ésta vista ahora en el contexto de la prueba de
hipótesis que indicará si la serie temporal es o no estacionaria.
Así, recordando que si establecemos que Yt = ρYt-1 + Ut donde Ut es el término de error
con ruido blanco y que ρ toma valores entre -1 y +1. Al respecto, se dijo que cuando ρ =
1 la ecuación anterior se convierte en MCA sin variaciones porque es un proceso
estocástico no estacionario (Gujarati ,2004: 788), i.e., la serie es no estacionaria. Para
eliminarla se puede hacer la regresión de Yt en función exclusivamente de su primera
diferencia o valor rezagado anterior (Yt-1) y con ello observar qué valor toma ρ, tal que,
por ejemplo, si es cero entonces Yt es estacionaria con ruido blanco; si fuera ρ = 1
entones Yt es no estacionaria. Con ese fin Gujarati (idem) hace las siguientes
manipulaciones algebraicas:
Yt Yt 1 Yt 1 Yt 1 U t
Yt Yt 1 ( 1)Yt 1 U t
Que ahora expresamos como:
Y t Y t 1 U t
592
Donde δ es el coeficiente estimado de la pendiente de Yt-1 la cual actúa como
variable regresora para estimar Yt, que a su vez procuramos que sea estacionaria.
Sabemos que Δ es el operador de la primera diferencia y que si δ = (ρ – 1) entonces se
puede probar:
Yt (Yt Yt 1 ) U t
a).-
XI.2.1.1.- Pruebas para verificar si la serie temporal es o no estacionaria.
a) Visual, identificar si los gráficos de las variables muestran que éstas crecen o
decrecen monótonamente (cuando los shocks son persistentes) o por el contrario, no es
posible identificar un patrón de comportamiento definido. Entonces pues es importante
verificar si la serie presenta componente tendencial;sí éste se presenta la variación de
los términos de la serie a lo largo del tiempo no es en torno a un valor constante( Peña,
2005:18) por lo que decimos que no es estacionaria “en media” o, si la dispersión de
593
los datos no es parecida en el tiempo, se dice que la serie es no estacionaria en
varianza. Al respecto, para verificar la no constancia de la varianza en el tiempo se usa
la gráfica llamada Rango- Media.
594
dichos valores descienden rápidamente de manera que se acercan a cero ello indica
que ha disminuido la autocorrelación, se dice que es una situación cuasialeatoria y
que corresponde a variables estacionarias.
Cabe mencionar que estas pruebas visuales son calificadas como no formales y por
consiguiente que no son definitivas. Por eso a continuación se exponen las siguientes:
b) Prueba de Dickey-Fuller, (DF)
Tiene mayor rigor estadístico que las pruebas anteriores dado que su hipótesis nula
no consiste en indagar si la serie es “ruido blanco”, sino que pretende detectar si la
serie tiene “raíz unitaria”; en otras palabras, busca verificar si no existe relación entre el
aumento de cada valor y el inmediato anterior, tal que si no hay relación la serie es
estacionaria (I(0)); cuando si existe relación, se dice que la serie tiene raíz unitaria
(I(1)).
Al respecto cuando se buscan relaciones lineales entre las variables, dichas
relaciones lineales pueden ser con origen, sin origen, con tendencia, etc. Así, la prueba
puede realizarse en tres formas distintas:
1. dxt= rXt-1 + Ut
2. dxt= a0 + rXt-1 + Ut
3. dxt= a0 + rXt-1 + a1t + Ut
595
determinación (Carrascal et al, 1999); c) Incluir k´s mediante prueba y error hasta
eliminar la CORRELACION SERIAL en las Ut´s que, como se recordará, se mide con
el estadístico Durbin –Watson; d) Usar la B de Bartlett, Q de Parmateau, también
conocida como prueba Ljung-Box y la Z de Phillips- Perron.
En estos casos las pruebas de hipótesis se establecen así:
Ho: (p-valor≥0.05) la serie es “ruido blanco”= estacionaria, i.e. ρ=0; y
Ha: (p-valor≤0.05) la serie es “caminata aleatoria” = no estacionaria, ρ≠0.
596
estacionarias) sean del mismo orden y que adicionalmente, estén cointegradas, i.e.,
que estén vinculadas mediante una relación lineal estable tal que Ut, diferencia entre el
valor real de la variable dependiente y su valor estimado, sea estacionaria. O sea que
hacer análisis de cointegración entre dos o más variables equivale a analizar la
estacionariedad de la perturbación aleatoria, Ut, del modelo que las relaciona. Este
análisis de estacionariedad de una variable, Ut, se realiza con al ADF: Prueba
aumentada de Dickey-Fuller.
XI.3.-Profundización conceptual
En virtud de que estamos introduciendo nuevos conceptos que en mucho emanan del
estudio de la estacionariedad de las series temporales, es conveniente profundizar
profundizando en los ya mencionados y/o introduciendo otros, como los siguientes:
Modelos Dinámicos o Autorregresivos.
Se llaman dinámicos porque no son estáticos, es decir, sus valores cambian, están
relacionados con la variable tiempo, evolucionan conforme pasa el tiempo.Los hay de
dos tipos:
a).- Se denominan autorregresivos cuando el modelo incluye uno o más valores
pasados (rezagos) de la variable dependiente entre sus variables independientes:
ejemplo: Yt= α+βXt + ɠYt-1 + Ui ……………..(1)
b).- Se llaman modelos de rezagos distribuidos cuando el modelo de regresión
incluye sólo los valores actuales y pasados (rezagados) de las variables explicativas en
el lado derecho de la ecuación, ergo: Yt=α+β0Xt +β1Xt-1 + βXt-2 + Ui ……………(2)
Se habla de rezagos porque una variable regresada (Y) puede responder a una o
varias regresoras (X1, X2, X3, …., Xn ) con un rezago de tiempo.
En este contexto se dice que para estimar los modelos de KOYCH y deExpectativas
Adoptativas Consistentemente, se usa el método de variables instrumentalesque ya se
vio en análisis de autocorrelación. Como se recordará, la variable instrumental es una
variable representante para la variable regresada que tiene la propiedad de que no
está correlacionada con el término error: Ui.
III.3.1. Modelos con variables retardadas.
Se dice que la incorporación de efectos diferidos en el tiempo en un modelo
econométrico se hace a través de variables retardadas, que se manejan en dos tipos de
modelos que se manipulan con tratamientos econométricos diferentes: los modelos
autorregresivos y los de retardos distribuidos. Ver a) y b) anteriores.
III.3.1.1. Modelos autorregresivos.
Son aquellos en que el efecto se recoge mediante la incorporación de la variable
597
dependiente retardada en algún periodo, como variable explicativa. Estos modelos
suponen una violación de los supuestos básicos: la hipótesis o supuesto de que las
variables explicativas no son aleatorias, en virtud de que la variable endógena
retardada depende de la perturbación aleatoria y por consiguiente, tiene un carácter
estocástico.
Al respecto debe comentarse que los resultados de la estimación MCO de un
modelo con regresores estocásticos están condicionados al tipo de DEPENDENCIA
que existe entre estas y las perturbaciones. La dependencia puede ser:
Con este método se sustituyen los regresores exogénos por ellos mismos así como
la variable endogéna retardada por otra variable exógena con la que presente mayor
correlación, retardada en el mismo número de periodos.
La determinación del tipo de dependencia entre el regresor estocástico (la variable
endógena retardada) y la perturbación se realiza analizando la existencia de
autocorrelación en el modelo. Es interesante señalar que la ausencia de correlación en
las perturbaciones implica una situación de dependencia parcial, en tanto que cuando
hay autocorrelación ello implica que hay dependencia total. Para detectar la
autocorrelación se usa el contraste h de Durbin, que plante las mismas hipótesis que la
DW de Durbin Watson:
Ho: No hay autocorrelación; =0
Ha: Hay autocorrelación, AR(1) positiva o negativa; <0 ó >0
T
h ˆ N(0,1)
1 TS 2ˆ k 1
598
mismos retardados un periodo y sin término constante. S 2ˆ k 1 es el estimador de la
varianza del estimador correspondiente a la variable endógena retardada un periodo.
Ejemplo: con =5% si h>1.645 se rechaza Ho: y decimos que hay autocorrelación
positiva. Cuando h<-1.645 se rechaza Ho y se comenta que hay autocorrelación
negativa.
Como se indicó antes, cuando sucede lo anterior se usa el método de variables
instrumentales, que implica buscar unos “instrumentos” que sustituyan a los regresores
del modelo. Así en el caso de la variable endógena retardada se usa como instrumento
uno de los regresores también retardado.
Para detectar la autocorrelación también se usa el correlograma de los residuos y el
contraste de Breusch-Godfrey. Al eliminarse la autocorrelación con los métodos
sugeridos se conoce el efecto en el corto como en el largo plazo de la variable
endógena retardada. Ver Carrascal pp. 305 último párrafo.
XI.3.1.1.1.-Conceptos básicos:
Distribución de frecuencias: es la colocación o repartimiento de los datos de un
fenómeno económico de acuerdo con el número de veces que se repite cada uno de
ellos, como por ejemplo el peso o la estatura de las personas.
Distribución de probabilidad, es la lista de los resultados que se producen en la
realización de un experimento, mismos que aparecen con su probabilidad de ocurrencia
asociada a cada uno de ellos. Ejemplo, el experimento puede ser el lanzamiento de
una moneda al aire o de un dado un determinado número de veces, cuyos resultados
se registran junto con la probabilidad de ocurrencia asociada a cada uno de ellos.
Estacionalidad: es el efecto periódico que tiene una estación del año en los valores
de una serie temporal, ejemplo: en México las compras en navidad son mayores que en
el resto del año porque las personas reciben ingresos extras a los que normalmente
recibe en el mes ordinario
Estacionariedad: Es lograr que una serie temporal registre media y varianza
constantes durante el periodo de estudio de la misma.
Vector: Es un agente que transporta algo de un lugar a otro. En matemáticas es un
segmento de recta orientado en que se distingue un origen y un extremo (final).
Vector fijo: Es un segmento cuya posición en el espacio está totalmente
determinada.
Vector libre: Es un segmento que puede ser reemplazado por cualquier otro vector
paralelo, del mismo sentido y magnitud.
Radio vector: Es un segmento orientado que tiene como origen un punto fijo, y cuyo
extremo puede desplazarse sobre una curva dada.
599
Espacio vectorial: Estructura de un conjunto cuyo modelo lo proporcionan las
propiedades de los vectores libres del espacio euclidiano ordinario.
Sistema de vectores deslizantes: Conjunto compuesto de un número finito de
vectores móviles sobre su línea de aplicación.
Cálculo vectorial: Es el estudio de las funciones de una variable vectorial.
Variable vectorial: Cuando es de orden N es un vector compuesto de N elementos,
cada uno de los cuales es una variable de un problema matemático (Web, 2009).
Magnitud vectorial: Magnitud física cuya definición exige un valor numérico, una
dirección y un sentido.
Definiciones de Escalar:
En informática, un escalar es valor, variable o campo que sólo puede tener un valor
en un cierto momento; en comparación, están los conceptos de array, lista u Objeto,
que pueden tener almacenado en su estructura más de un valor.
Ejemplo: Una magnitud física se denomina escalar cuando puede representarse con
un único número (única coordenada) invariable en cualquier sistema de referencia. Así
la masa de un cuerpo es un escalar, pues basta un número para representarla (75 kg).
Variable determinista: Es aquella cuyo valor se conoce con certeza.
Variable estocástica o aleatoria: Es aquella que no se conoce su valor pero que se
puede predecir con probabilidades dado que tiene un comportamiento parecido al de
las distribuciones probabilisticas teóricas conocidas, cuyas características (o
propiedades estándar) sirven para explicar el comportamiento de variables económicas;
así, éstas últimas pueden describirse usando las probabilidades.
Variable aleatoria discreta, es aquella que sólo puede tomar ciertos valores que
son indivisibles o no fraccionables.
Variable aleatoria continua, es aquella que toma cualquier valor en un intervalo
determinado, es decir, toma valores fraccionables o divisibles.
Variable dummy, es una variable dicotómica porque toma sólo dos valores: 0 y 1;
generalmente describe una cualidad particular ( sexo, religión, etc.) y por consiguiente
cuantifica dicha cualidad con objeto de analizarla como sucede con las variables
cuantitativas.
Covarianza, es una medida estadística de la relación entre dos variables aleatorias:
600
Ella indica la forma en que las variables se mueven juntas; cuando es positiva indica
que las variables se mueven en la misma dirección; cuando es negativa indica que se
mueven en sentido contrario, que hay una relación inversa entre ellas y cuando es cero,
indica que las variables no están relacionadas, que son independientes. La medición de
la relación entre las dos variables es muy clara cuando se estandarizan sus datos
porque entonces se hace equivalente al coeficiente de correlación que varía entre -1 y
+1, de manera que cuando es igual a 1 indica que las dos variables varían en el mismo
sentido; cuando es menos 1, indica que varían en sentido inverso (mientras una
aumenta, la otra disminuye) y cuando es cero, indica que las variables no están
correlacionadas.
XI.3.1.1.2.-Procesos estocásticos integrados.
Comenta Gujarati (2004) que MCA: Modelo de Caminata Aleatoria es un caso
específico de una clase más general de procesos estocásticos conocidos como
procesos integrados. Así, recordando que la MCA sin variaciones es no estacionaria,
pero que su primera diferencia la hace estacionaria, se dice que MCA sin variaciones es
un proceso estocástico de orden 1 y se expresa como: I (1). Luego si una variable tiene
que diferenciarse dos veces para hacerse estacionaria se toma la diferencia de la
primera diferencia; a esta serie se le llama serie temporal integrada de orden dos, I (2),
etc.
En este contexto, si una serie de tiempo no estacionaria tiene que diferenciarse “d” para
hacerla ruido blanco o estacionaria, decimos que es una serie integrada de orden” d”; si
ella se denota como Yt entonces se escribe Yt ~ I (d).
Cuando Yt desde el principio es estacionaria de manera que no es necesario
diferenciarla, se le llama integrada de orden cero y se escribe Yt ~ I (0); se intuye
entonces “que serie de tiempo estacionaria” y “serie de tiempo integrada de orden cero”
significan lo mismo, i. e., son sinónimos.
XI.3.2-Propiedades de las series o variables integradas.
Si tenemos tres variables o series de tiempo Yt, Xt y Zt, entonces:
1. Una combinación lineal de series temporales estacionarias y no estacionarias, es
estacionaria, ergo, si Xt ~ I (0) y Yt ~ I (1), entonces Zt = (Xt + Yt) = I (0)
2. Una combinación lineal de una serie I (d) es también I (d).
3. Cuando Xt ~ I (d1) y Yt ~ I (d2), decimos que Zt = (aXt + bYt) ~ I (d2), donde: d1 ≤
d2 y a y b son constantes.
4. Si Xt ~ I (d) y Yt ~ I (d), entonces Zt = (aXt + bYt) ~ I (d*) señalando que d* ~ d,
pero que en algunos casos d* ≤ d, como sucede en la cointegración.
601
XI.3.3.1.1.-Proceso estocástico:
Es el registro en el tiempo de los valores de una variable o serie estadística de interés
para el investigador, los cuales se originan aleatoriamente. En economía puede ser la
producción de ladrillos, de tornillos, agujetas, etc., que genera una maquina en un
lapso determinado. En medicina pueden ser los latidos del corazón, el pulso de un
paciente; en el clima, los registros de la temperatura diaria o de la lluvia en un tiempo
previamente establecido. Todo este proceso de registro de las variaciones o
fluctuaciones de la variable o serie temporal se hace con el fin de estudiarlas e
interpretarlas en el contexto de la estabilidad o estacionariedad que es necesario que
las caracterice para hacer predicciones apropiadas en el futuro. En economía,
finanzas y en los negocios esto último es muy importante para predecir por ejemplo el
PIB, las tasas de interés, el valor de las acciones de una empresa, etc.
Así, decimos que un proceso estocástico estacionarioo estable es el que tiene µ, σ2 y
covarianza constantes, i. e., son invariantes respecto al tiempo. En opinión de Pulido et
al 2000,168): “si presenta un componente tendencial (no estacionariedad en media) o si
la dispersión no es homogénea en el tiempo (no estacionariedad en varianza)”, el
proceso no es estable, se dice que no es estacionario.
602
correlacionada. Un ejemplo es Ut: Término de error, que es un proceso con ruido
blanco, i. e., sus términos no están autocorrelacionados entre si, por eso decimos que
en este proceso los términos se distribuyen de manera independiente y es idéntico en
su comportamiento a la distribución normal porque tiene µ = 0 y σ2= 1.
XI.3.3.1.2.2.-Modelo de Caminata Aleatoria, MCA
Es una particularidad de un proceso estocástico no estacionario. Decimos que hay
dos tipos de MCA, que son:
a).- MCA sin variaciones, cuando la ecuación no tiene ordenada al origen y b).- Con
variaciones, cuando si la tiene.
Para el primer caso MCA se puede expresar diciendo que si Yt es una serie temporal,
decimos que Yt = Yt-1 + Ut es una MCA pura,
Donde Ut sí es estacionaria. Se llama pura porque el valor de Yt es igual a su valor de
“ayer” (Yt-1) más un choque aleatorio (Ut); éste último puede interpretarse como un
suceso inesperado (innovación, algo imprevisto), que está fuera de control o
manipulación alguna y que se comporta como una distribución normal estándar, que
tiene µ = 0 y σ2= 1, motivo por el cual se le conoce como un proceso con ruido blanco,
por lo que es una serie estacionaria.
Así, dicho en otras palabras, si Yt = Yt-1 + Ut, en cuyo caso Ut es una serie aleatoria con
media, variancia y covariancia invariantes en el tiempo, además de que U t no está
serialmente correlacionada.
El Modelo de caminata aleatoria: MCA, es una serie no estacionaria y es un ejemplo
DEL PROCESO DE RAÍZ UNITARIA.
XI.3.3.1.2.3.- Raíz unitaria
Si escribimos MCA como Yt = ρYt-1 + Ut; donde -1 ≤ ρ ≤ +1; y ρ es el coeficiente de
autocorrelación puro o serial en los términos de error Ut. Así si ρ = 1, entonces Yt = Yt-1,
es una MAC sin variaciones y se tiene lo que se conoce como PROBLEMA DE RAÍZ
UNITARIA IGUAL A SERIE NO ESTACIONARIA y escribimos Yt – Yt-1 = Ut.
Ahora, si L = operador de rezago tal que LYt = Yt-1 y también L2Yt = Yt-2, por lo que la
ecuación inicial de MCA que es Yt = ρYt-1 + Ut, puede escribirse como:
Yt = ρYt-1 + Ut
Ahora bien, si ρ: coeficiente de autocorrelación de primer orden, cuyo valor oscila entre
0 y ± 1 y si ρ = 1, entonces:
Yt – Yt-1 = Ut Ut es ruido blanco
Factorizando:
Yt (1 – L) = Ut.
603
Si el término raíz unitaria se refiere a la raíz del polinomio en el operador de
rezago, entonces sí (1 – L) = 0, luego L =1, de ahí el nombre de RAÍZ UNITARIA.
Luego si MCA tiene raíz unitaria, ello significa que la variable no es estacionaria , que
es caminata aleatoria, que no es rudo blanco y que existe autocorrelación serial e
indicio de que la correlación sea por casualidad y no por causalidad ( Suriñac, 1999).
Se elimina al hacer estacionaria La serie temporal DIFERENCIANDOLA, ergo, ΔYt =
(Yt – Yt-1) = Ut que como se recordará es ruido blanco o estacionaria, en otras palabras,
no está correlacionada serialmente y se distribuye normalmente.
XI.3.3.1. 2.4.- Diferenciación
La transformación de MCA mediante el método de diferenciación tiene el siguiente
fundamento:
Si tenemos el modelo Yt = β1 + β2Xt + Ut, donde Y = Gasto en consumo; X = Ingreso.
Como la ecuación anterior es válida para cada periodo, también lo es para el periodo
anterior (t-1) y se escribe así:
Yt-1 = β1 + β2Xt-1 + Ut-1.
Decimos que a Yt-1, Xt-1 y Ut-1 se les llama VALORES REZAGADOS DE Y, X, U,
respectivamente. En este caso específico las tres variables están rezagadas un periodo
y a la ecuación Yt = β1 + β2Xt + Ut se le llama ecuación FORMA DE NIVEL.
Si restamos la segunda de la primera ecuación tenemos:
ΔYt = β2ΔXt + ΔUt; llamada ecuación en primera diferencia.
A “Δ” se le conoce como primer operador de diferencia, el cual expresa que se
obtuvieron diferencias sucesivas de Y, X y U, es decir:
ΔYt = (Yt – Yt-1)
ΔXt = (Xt – Xt-1)
ΔUt = (Ut – Ut-1)
Hipotéticamente, si n = 10, numéricamente lo anterior se ve para Y, diferenciada tres
veces, (Rojas, 2009) así:
Tabla 11.3.3.1. 2.4.1 Datos
604
4 7.5 0.5 -0.5 -0.5
5 8.8 1.3 0.8 1.3
6 7.0 -1.8 -3.1 -3.9
7 8.6 1.6 3.4 6.5
8 9.2 0.6 -1.0 -4.4
9 10.3 1.1 0.5 1.5
10 11.5 1.2 0.1 -0.4
605
Grafico 11.3.3.1. 2.4.1 Obtencion
Por otra parte, debe aclararse que una serie no estacionaria se puede estudiar y usarse
para pronosticar solo para el periodo de tiempo bajo consideración, en tanto que con
una estacionaria se puede generalizar para todos los periodos, puesto que sus
variaciones se ajustan en torno a su media y su varianza, de ahí que se recomiende
siempre obtenerla.
Los “filtros” de mayor uso son, como arriba se indicó: los autorregresivos o
diferenciados, (AR: auto regression) y los aditivos o de medias móviles, (MA:moving
averages)
Dentro de los primeros (Gabriel Tapia Gómez, et al, 2002) el filtro univariante más
sencillo, AR, es aquel en que el operador diferencia, digamos que obtiene la primera
diferencia ordinaria y se denota así: AR(1).Con este procedimiento se eliminan las
606
frecuencias bajas pero se acentúan las más altas. Comenta que en series suaves
permite obtener estimaciones de los componentes estacional e irregular y aproximar la
tasa de crecimiento de la serie original cuando se filtra el logaritmo y, por consiguiente
se deduce que se utiliza como indicador del ciclo cuando las series tienen
comportamientos suaves. En este contexto es interesante decir que existen otros filtros
autoregresivos como el AR de orden mayor, que consiste en obtener la diferencia de
orden estacional, con lo que se eliminan las frecuencias bajas y los ciclos armónicos de
la frecuencia fraccional correspondiente.
El segundo filtro, MA, se utiliza para extraer componentes en análisis del ciclo, ya que
“dejan pasar intacta la información contenida en determinada banda de frecuencias
mientras que eliminan o acentúan las restantes”. Con este método se desestacionaliza
extrayendo el componente ciclo tendencia.
Derivado de lo anterior podemos decir que con los filtros MA y AR, sucesivamente, se
tendrán como resultados correspondientes, la atenuación de altas frecuencias y la
atenuación de bajas frecuencias, resultando un pico en la función de transferencia de la
serie filtrada y una atenuación de determinadas frecuencias intermedias. En opinión del
investigador Gabriel Tapia, et al, los filtros más usados son los de Hodrick & Prescott
(1980), Prescott (1986) y los de Henderson.
607
porque también se puede probar que Vt: Término de error de su primera diferencia, sí
está autocorrelacionada (no es estacionaria).
Los modelos con ΔYt = β2ΔXt + Vt se conocen como modelos dinámicos de regresión,
mismos que se caracterizan por incluir variables independientes rezagadas (ΔXt).
XI.3.3.1.2.6.-Conclusiones
La primer conclusión que podemos sacar de transformar el modelo original (Yt = β1 +
β2Xt + Ut) en ΔYt = β2ΔXt + Vt es que a veces puede inducirse la autocorrelación como
consecuencia de haber transformado el modelo original. Otra conclusión es que cuando
existe autocorrelación perfecta, se dice que ρ =1 y L = 1, que precisamente por eso
existe lo que se llama raíz unitaria, la cual indica que la serie es no estacionaria. Otra
conclusión es que en la práctica se acostumbra decir en general que son sinónimos los
términos estacionariedad, ruido blanco y no autocorrelación; igualmente, que son
sinónimo los conceptos de no estacionariedad, caminata aleatoria y autocorrelación.
Finalmente, debe agregarse que cuando ІρІ ≤ 1 está demostrado que la serie temporal
Yt es estacionaria.
XI.3.3.1.2.7.- La regresión espuria.
Es una relación que se da por casualidad y no por causalidad ( Suriñac, et al, 1999)
entre 2 variables en estudio, cuando se estima con MCO, simplemente porque ambas
varían en el tiempo y son asociadas por el investigador. Suele suceder que cuando se
hace la regresión Yt = f (Xt) y si son variables o procesos estocásticos no
correlacionados, el investigador espera que su R2 sea bajo; sin embargo, suele
aparecer con un R2 alto, ello se denomina regresión espuria o falsa que Yule (1926)
llamo “regresión extraña” entre Yt y Xt, Al respecto, Granger y Newbold (1974) indican
que cuando R2 es alta y d de Durbin-Watson es baja, ello es indicio de que existe una
relación espuria entre Yt y Xt. Esta extraña relación puede eliminarse aplicando el
método de diferenciación; ejemplo, cuando Yt e Xt son series no estacionarias, su R2 es
alto y d es baja, se dice que hay regresión espuria; para que desaparezca se hace la
regresión de las primeras diferencias de Yt (= ΔYt) sobre las primeras diferencias de Xt
(= ΔXt), mismas que ahora son estacionarias y determinan que su R 2 se acerque a cero
y que d de Durbin-Watson a 2, i. e., indican que ha desaparecido la relación falsa entre
Yt e Xt. Ella aparece con más frecuencia cuando Yt e Xt exhiben tendencias
estocásticas y que por consiguiente son I (1).
Con estas referencias conceptuales a continuación expondremos el
XI.3.3.1.2.8.- Procedimiento para obtener el modelo ARIMA
Pérez (2007) sugiere los siguientes pasos para obtener el modelo ARIMA, cuya
modelización se deriva después de haber hechos pruebas y arribar a los valores
adecuado que se obtengan para (p,d,q); en que p se refiere al número de
autorregresiones (AR) a realizar, d al número de diferenciaciones en la integrabilidad (I)
y q, al número de aplicaciones de medias móviles (MA, en inglés). Dichos pasos son:
608
1. trabajar con n≥50 datos;
2. Graficar Yt; a veces se usan medias y varianzas por subperíodos para identificar
por tramos mejor la posible “estacionariedad” de la serie temporal Yt.
3. Transformar Yt logarítmicamente para alisar su variabilidad procurando su
estacionariedad en media y en varianza; lo recomendable es ensayar con sus datos
originales y en logaritmos
4. Si se identifica alguna tendencia, la lineal se corrige tomando primeras
diferencias (d), que se indica así: I(1), que para bien o para mal es el caso más
frecuente; cuando la tendencia es no lineal, su corrección requiere hacer quizás dos o
más diferencias;
5. Identificación y formulación del modelo: se hace corrigiendo los procesos Ar (p) y
MA(q). Técnicamente lo primero se realiza analizando las funciones de autocorrelación
(FAC) y autocorrelación parcial (FACP); por lo general la formulación se prueba con
AR(1), AR(2) y MA(1), MA(2) y se culmina con ARMA(1,1) que toma en cuenta la parte
regular (AR) y la estacional (MA);
6. Una vez identificado y formulado el modelo, el siguiente paso es
La estimación de los parámetros;
7. Enseguida se verifica la bondad de ajuste contrastando su validez conjunta con
las estadísticas t, F, covarianza, R2, ∑U t, etcétera;
8. Se sugiere hacer el análisis detallado de los errores Ut. Se calculan y estudian las
diferencias entre Yt –Yt-1 = Ut; se deberá comprobar un comportamiento no sistemático
de los errores Ut;
9. Una vez identificados los resultados satisfactorios en las fases anteriores, se
procede a seleccionar el modelo que mejor se adapte a los datos de Yt;
10. Predicción: ahora ya se está en condiciones de iniciar la predicción para el
horizonte de planeación temporal deseado.
XI.3.3.1.2.8.1.1.-Características de los modelos ARIMA con valores apropiados
de p,d, q:
1. Un modelo ARIMA, por ejemplo (0,d,0) es una serie temporal que se hace o
convierte en estacionaria o ruido blanco (proceso puramente aleatorio) después
de ser diferenciado d veces, diferenciación realizada con objeto de extraer las
posibles fuentes de no estacionariedad (de variación), mismas que de no
extraerse se expresan o manifiestan con media y varianza variantes en el
periodo de tiempo de estudio de Yt ;
2. La transformación Box-Jenkins consigue estabilizar la variación de una serie
temporal (serie estacionaria en media y en varianza) y aproxima su distribución a
la normal: Yt tiende N(0,1), es decir con media cero y varianza 1. Al respecto,
609
conviene reiterar que la inducción de la estacionariedad en Yt por lo general se
hace mediante la diferenciación estacional, que puede ser de primer orden,
segundo orden, etc. i.e, hasta que se consiga que sea ruido blanco o
estacionaria.
La bondad de ajuste que más destaca por ejemplo en la forma funcional lineal, es
que es útil porque muestra aumentos o disminuciones constantes( valor de b) en los
valores temporales de la serie Yt . En lo que atañe a la forma funcional logarítmica, es
útil porque permite suavizar los datos de la serie cuando aumentan o disminuyen
610
rápido a abruptamente; esta forma funcional puede usar valores positivos o negativos.
La Semilogarítmica es una variante de la forma logarítmica.
La tendencia potencial: Se expresa con una línea curva cuya ecuación es Zt = atb
permite comparar datos que aumentan a un ritmo determinado, ejemplo: la velocidad
con que se encauza un automóvil. Como se detecta, en este caso no es posible aplicar
esta forma funcional si los datos incluyen el cero o son negativos.
La tendencia Exponencial: Su curva se describe con la ecuación Z t =Exp(a+bt),
misma que se aplica cuando los valores cambian (aumentan o disminuyen) a intervalos
cada vez mayores. Como el caso anterior: no se usa cuando los datos toman el valor
cero o negativos.
611
Los Modelos ARIMA de predicción son uniecuacionales que hacen énfasis en “el
análisis de las propiedades estocásticasde las series temporales”. Se caracterizan
porque la variable Yt es explicada por valores pasados o rezagados de si misma, por
medias móviles y por los términos estocásticos de error, U t. Esta situación los hace
diferentes de los modelos en que Yt es explicada por n variables individualmente ( X1,
X2 , …….,Xn ).
Los modelos ARIMA de mayor uso son univariantes, así llamados porque se
construyen con una sola serie temporal, independientemente de que su análisis sea
multivariable en ciertos casos. Fueron de gran uso en la década de los 70´s del siglo
XX, prácticamente sustituyeron a los modelos multiecuacionales, MES, que se basan
en un Sistema de Ecuaciones Simultámeas, SES.
Los modelos VARse parecen a los MES en el sentido de que incluyen varias
variables endógenas en su modelización; sin embargo, se diferencian en que cada
variable endógena es explicada por sus valores pasados o rezagados, así como por los
valores pasados o rezagados del resto de las variables endógenas consideradas en el
modelo. Como puede observarse no utilizan variables exógenas para construir el
modelo de predicción.
XI.3.3.1.2.9.1.- Modelos ARIMA
Analizando los dos últimos modelos aquí expuestos, empezaremos por
preguntarnos ¿Porqué se llaman modelos ARIMA?
612
modelización tiene una connotación muy especial e importante dado que indica que “el
valor de pronóstico de Yt en el periodo t es simplemente alguna proporción (=a1) de su
valor en el periodo (t-1) “más un choque” o perturbación en el tiempo (Gujarati, 2004:
812).
Por otra parte, si ahora el modelo se construye con la siguiente ecuación:
( Yt– ω) = a1( Yt-1 –ω) + a2 (Yt-2 –ω) + Ut
En él ahora se indica que Yt se comporta como un proceso autorregresivo de
segundo orden, escrito asi: AR(2). Ello significa que ahora el valor de Yt en el lapso t
depende de sus valores en los dos periodos anteriores y de un término aleatorio. En
general si modelamos los valores de Y en torno a sus desviaciones con respecto a su
media aritmética ω, dicho modelo se expresa con la siguiente ecuación así:
613
c) Procesos de Medias Móviles (MA)
Se generan calculando las medias móviles de los datos originales de las series de
tiempo. Cada uno de los puntos de un proceso MA es el promedio del número de
términos que el investigador estime conveniente usar para calcularla; puede ser de los
dos primeros términos, puede ser con el segundo y el tercero, etc.
Por ejemplo, si se tiene un conjunto de 100 datos el primer valor de la serie de medias
móviles podría ser el promedio de los primeros 25 términos, luego el promedio de los
términos 2 al 26, el tercer elemento de los términos 3 al 27 y así, hasta por último el
promedio de los últimos 25 números del 76 al 100.
Una serie de medias móviles puede ser calculada para cualquier serie temporal. Se usa
por ejemplo para calcular una demanda estable, sin tendencia y sin estacionalidad;
suaviza las fluctuaciones de plazos cortos, resaltando así las tendencias o ciclos de
plazos largos.”
Dentro de la metodología de Box & Jenkins, así se les llama a estos procesos porque
son una combinación lineal de los términos de error, U t, con ruido blanco y una media
móvil. Para ilustrarlo suponga usted que modelamos Yt con la siguiente ecuación:
Yt = µ + β0 Ut + β1Ut-1 + β2Ut-2
614
Modelo al que se le denomina proceso de media móvil de orden q, que escribimos
como MA(q).
XI.3.3.1.2.9.1.-Evaluación de los modelos ARIMA
¿Cómo saber si el modelo ARIMA es apropiado estadísticamente para hacer
predicciones?
Para ello debemos seguir los siguientes pasos:
1.- Del modelo ARIMA obtener los residuos Ut;
2.- Obtener los FAC y FACP, graficarlos y si vemos que ningún de los o se
salen de los límites del intervalo de confianza que hemos construido en torno a ellos
con cierto nivel de significación (α), y
3.- Si la probabilidad de Q de (BP) y (LB) de Ljuang-Box, es mayor que digamos
α=5%, entonces
4.- Decimos que los residuos estimados de Ut son puramente aleatorios, que son
independientes, que no hay autocorrelación, etc., luego
5.- No es necesario buscar otro modelo ARIMA para predecir.
615
En esta tesitura, si para hacer estacionaria una serie temporal Yt es necesario
diferenciarla d veces, y enseguida se le aplica a Yt el modelo ARMA (p, q), ahora
decimos que Yt es ARIMA (p, d, q) y se le conoce como una serie temporal
autorregresiva integrada de media móvil, en la que precisando decimos que:
p: número de términos autorregresivos;
d: número de veces que Yt se diferencia para hacerla estacionaria; y
q: número de términos de media móvil.
Ejemplo numérico: si ARIMA (3,2,4) ello implica que la serie Yt debe diferenciarse
dos veces (d=2) para hacerla estacionaria; de manera que esta serie ya transformada
en estacionaria, ahora puede modelarse como un proceso (3,4) en otras palabras, que
tenga tres términos AR y cuatro MA.
Como se infiere si d=0, ARIMA será (p,0,q) que simplificando por motivos prácticos
lo escribimos así: ARIMA (p,q). Ahora bien, conduciéndonos casuísticamente, si por
ejemplo ARIMA (p,0,0) ello indica que este proceso estocástico es un proceso
estacionario AR (p) puro porque d=0 y q=0; luego si un proceso ARIMA es (0,0, q) ello
indica que es un proceso MA(q) puro porque p= 0 y d=0. De estos ejemplos
casuísticos concluimos que los valores que tomen las literales p, d y q nos orientarán
sobre el proceso ARIMA a modelar.
Lo anterior es muy importante porque en la medida que construyamos un modelo
que genere apropiadamente la información de pronóstico que buscamos, estaremos
haciendo buenas predicciones porque con esta metodología sustentamos que Yt es
estacionaria, tal que µ, σ2 y covariancia son invariantes en el tiempo. Como ejemplo
ilustrativo puede verse el número dos en “los ejercicios”.
XI.3.3.1.2.9.2.- Modelos ARMA: Combinación de los procesos estocásticos
autorregresivos AR y MA.
Se dice que es una combinación porque el modelo consta de dos partes, la parte
autorregresiva (AR) y la de media móvil (MA). Se le llama modelo ARMA (p,q), donde p
es el orden de la parte autorregresiva y q es el orden de la parte de media móvil.
Esta modelización se hace cuando se considera que Yt para propósitos de
pronóstico, tenga características (comportamiento en el tiempo) tanto de AR como de
MA; llamándosele en este caso modelo ARMA y se dice que muestra un proceso
ARMA (1,1) cuando se escribe así:
Yt= θ+ a1Yt-1 + β0Ut + β1Ut-1
La cual es una ecuación en la que existe una parte autorregresiva (θ+ a1Yt-1) y otra
de media móvil de U (β 0Ut + β1Ut-1 ) y en donde θ es una constante.
616
Generalizando AR y MA, ahora podemos decir que en un modelo ARMA (p,q) hay p
términos autorregresivos y q términos de media móvil.
XI.3.3.2.-Relación secuenciada de actividades a desarrollar para aplicar la
Metodología de Box & Jenkins (BJ).
Derivado de la exposición previa en que se amplió el tema es que ahora los pasos
sugeridos por Pérez ( 2007) debemos complementarlos diciendo y reiterando que para
los modelos ARIMA inicialmente su metodología pretende indicar los valores que deben
tomar p,d y q, para posteriormente, modelar apropiadamente el comportamiento de la
serie temporal Yt , de manera que produzca estimaciones robustas estadísticamente en
el futuro visualizado por el investigador ( corto, mediano y largo plazo).
Así pues, los pasos para modelar apropiadamente el comportamiento futuro de la
serie temporal Yt,, partiendo del punto 5 antes descrito por Pérez ( ídem), son los
siguientes:
617
cuando éstos a lo largo del tiempo influyen o se impactan unos a otros; en este caso
sus valores están cercanos a uno. Mientras más larga sea el periodo de análisis de la
serie, menor es el efecto de los anteriores sobre los actuales. En otras palabras,
decimos que la autocorrelación cuantifica la magnitud de la correlación o relación entre
cada valor de Yt y sus valores desfasados 1, 2, 3, 4, …, n periodos.
Haciendo la analogía con el coeficiente de correlación que mide la relación entre dos
variables (X, Y) ahora refiriéndonos a la autocorrelación entre Yt y ella misma un
periodo antes (Yt-1) decimos que el coeficiente de autocorrelación (ρ) que existe entre
ellas es de primer orden y se calcula así:
cov(Yt , Yt 1 )
1
var(Yt ) * var(Yt 1 )
cov(Yt , Yt 1 )
1
var(Yt )
Generalizando: En un desfazamiento de k periodos, el coeficiente de autocorrelación
de orden k se obtiene así:
cov(Yt , Yt k )
k
var(Yt )
Observe usted que sí k=0, entonces:
var(Yt )
0 1
var(Yt )
Interpretación: El valor de ρ0=1 significa que hay autocorrelación perfecta y
expresa en otras palabras que Yt tiene raíz unitaria, es decir, es no estacionaria.
La autocorrelación parcial, FACP, se define de manera similar al coeficiente de
correlación parcial. Así, decimos que si en un modelo de regresión múltiple con k
variables, el k-iésimo coeficiente de correlación parcial expresa el efecto de la variable
regresora Xk sobre la variable regresada Yt , manteniendo constante el efecto del resto
618
de las variables regresoras sobre Yt .
Similarmente, con ese referente, la autocorrelación parcial expresa la
correlación entre los valores de los datos de la serie temporal, que están separados k
periodos de tiempo “manteniendo constantes las correlaciones de los otros
rezagos. Algebraicamente: la autocorrelación parcial entre dos términos de la serie se
indica como la correlación entre Yt y Yt-1, manteniendo constante el efecto de los otros
.
Así, cuando los valores de FAC ( son altos, ello se interpreta como que existe
una alta autocorrelación entre los términos de Ut en el periodo t; su expresión gráfica,
que es el correlograma, muestra que la mayoría de las observaciones ( aparece
afuera de las bandas o límites de confianza establecidos digamos con α= 5%. Se
concluye que la serie Yt es no estacionaria, que es necesario aplicarle primeras
diferencias para hacerla estacionaria para enseguida modelizarla con AR y MA. Así, la
observación de los ( que caen dentro y fuera de los límites del intervalo de
confianza ayuda a determinar la longitud de los rezagos necesarios para hacer
estacionaria una serie temporal que inicialmente no lo es.
Además de lo anterior, también se puede aplicar las pruebas Dickey-Fuller (DF) y
Aumentada Dickey- Fuller (ADF) que se usan para identificar la existencia de la raíz
unitaria en la serie temporal Yt.
619
Comentarios: Los FAC y FACP de los procesos AR(p) y MA(q) observan patrones
contrarios. Con esas referencias se hacen las regresiones hasta encontrar un ARIMA
(p,d,q) en que coincidan los patrones de FAC y FACP, mismos que sirven para obtener
el modelo ARIMA, donde una de sus características es que el valor de R 2 es bajo y que
d=2 de Durbin Watson, indicando que ya no hay autocorrelaciones entre los términos
de la serie
XI.3.3.2.1-Pronóstico
Con los resultados obtenidos enseguida ya se corre el modelo ARIMA para el
horizonte de planeación que tenga en mente el investigador. Este concepto se
desarrolla ilustrandolo con detalle en el siguiente ejercicio con Wviews 5, así como
en el Capítulo 12, punto 12.4.
1. Debe tenerse cuidado con la ecuación a utilizar para predecir, es decir, que se
construya con los valores reales (niveles de las variables), no con los cambios
(diferencias);
2. Observar que los datos no sean estacionales; si existe, eliminarla;
3.-Si bien es cierto que la metodología se aplicó a una serie temporal a la vez,
característica de esta metodología, ello no impide que se extienda al estudio
simultáneo de dos o más series temporales, en cuyo caso se usa la siguiente
metodología de modelos VAR:
Con este referente teórico, a continuación se ilustra la aplicación de su metodología.
XI.4.- EJERCICIOS CON EVIEWS
Ejercicio 1 APLICANDO LA METODOLOGIA DE BOX & JENKINS.
A. Aspectos básicos con aplicaciones a la economía mexicana (Rojas: 2009).
620
las series sean estacionarias, por lo que es importante comprobar esta situación antes
de trabajar con ellas.
Pero, ¿Porqué las series de tiempo estacionarias son tan importantes? De acuerdo a
Gujarati (2007: 772-773) porque, si una serie de tiempo es no estacionaria, se puede
estudiar su comportamiento sólo durante el periodo bajo consideración. Por tanto, cada
conjunto de datos perteneciente a la serie de tiempo corresponderá a un episodio
particular. Como consecuencia, no puede generalizarse para otros periodos. Así, pues,
para propósitos de pronóstico (predicción), tales series de tiempo (no estacionarias)
tendrán un valor práctico insignificante.
Cabe destacar que para ilustrar la aplicación de la metodología ARIMA con Eviews
vamos a trabajar con el precio de las acciones del Consorcio ARA, la cual cotiza en la
Bolsa Mexicana de Valores, para el periodo que comprende desde el 2 de enero de
2008 hasta el 19 de febrero de 2009, es decir, una muestra de 285 datos.
1. Método informal.
Como se trata del precio de acciones y dado que este mercado labora de lunes a
viernes y se mantiene cerrado los sábados y domingos así como días festivos, lo lógico
sería que seleccionáramos la frecuencia de datos diarios con semanas de 5 días (Daily
[5 day weeks]). Desgraciadamente Eviews no reconoce los días festivos del calendario
mexicano, por lo que nos marcará un tamaño de muestra más grande que la que
poseemos. Sin embargo, en caso de que el lector desee realizar la prueba, en Eviews
una vez que selecciono la frecuencia de los datos, en el rango debe escribir el periodo
en el siguiente orden: mes:día:año, con el siguiente formato: mm:dd:aaaa. De tal suerte
que, si el periodo de inicio es el 2 de enero de 2008, escribiremos en “Start date”:
01:02:2008 y si el periodo final de la muestra es el 19 de febrero de 2009 escribiremos
en “End date”: 02:19:2009.
621
predecir el precio de las acciones de ARA para cinco días más. Así, 1 se referirá a la
variable aleatoria del 2 de enero de 2008, 285 a la del 19 de febrero de 2009 y de la
variable 286 a la 290 se referirá a la estimación de dicha variable, por lo que la variable
286 se refiere al precio del 20 de febrero, 287 a la del 23, 288 a la del 24, 289 a la del
25 y 290 a la del 26 de febrero de 2009.
Una vez cargada la serie “ARA”, para empezar a trabajar cambiamos el periodo
muestral (Sample) en la ventana del Workfile dando doble click sobre el mismo, es
decir, sobre “Sample”. Este procedimiento desplegará una ventana denominada
“Sample” que se observa de la siguiente forma:
En la ventana del Sample cambiamos el 290 por el 285. En la ventana del Workfile se
observa ya el cambio realizado. Mientras que el Rango (Range) se mantiene inalterado.
Lo cual presenta una estructura como esta:
622
Imagen 11.4.2 Comandos
Hecho esto, abrimos la serie “ARA” dando doble click sobre ella en la ventana del
workfile. Una vez abierta la ventana de la serie vamos a: View/Graph/Line/Ok. Lo que
nos desplegará una gráfica como la siguiente:
623
una serie no presenta media y varianza constantes, entonces se dice que no es
estacionaria. Por tanto, podemos suponer, a priori, que, probablemente, no es
estacionaria, luego, presentará al menos una raíz unitaria (Pulido y López, 1999: 269,
273).
Comentario: Como puede observarse, la gráfica del proceso estocástico ARA presenta
un claro comportamiento descendente o decreciente por lo que, podemos suponer que
no es constante en media, luego entonces, podemos suponer que el proceso no es
estacionario. Además, existen variables dentro del proceso que muestran gran
dispersión, por lo que tampoco es constante en varianza (ver diagrama de dispersión en
el cuadro siguiente). Derivado de lo cual, quizá sea necesario y/o preciso trabajar en
diferencias. Además, tomando logaritmos se reduce la dispersión de la serie, es decir,
la transformación en logaritmos la convierte en estacionaria en varianza. Sin embargo,
realicemos otras pruebas gráficas y formales para determinarlo con precisión.
624
b) Correlograma.
Otro procedimiento gráfico para comprobar la posible existencia de una raíz unitaria en
el proceso estocástico consiste en inspeccionar el correlograma del mismo. Así, en la
ventana de la serie vamos a: View/Correlogram…/, en donde se desplegará una
ventana que nos solicita la especificación del correlograma a realizar, las opciones son:
en niveles (Level), es decir, los valores de el proceso original, en primeras diferencias y
en segundas diferencias. Asimismo, nos solicita en número de rezagos a incluir (Lags to
include), mismo que por default Eviews da 36. La ventana es como la siguiente:
Sin embargo, siguiendo el criterio y/o sugerencia de Gujarati (2007: 784-785) en cuanto
a el número de rezagos a utilizar y/o a la longitud del mismo, utilizaremos un cuarto de
la longitud de la serie de tiempo, es decir, 71 variables aleatorias. Por lo que, para
nuestro caso seleccionaremos el correlograma de niveles (Level) y en “Lags to include”
escribiremos 71/Ok. Procedimiento que nos desplegará el correlograma siguiente:
625
En términos teóricos, si la función de autocorrelación muestral (primera columna de la
izquierda del correlograma) decrece lentamente es muestra o indicio de la no
estacionariedad de la serie, es decir, presenta una raíz unitaria. Asimismo, si la
autocorrelación parcial (segunda columna de la izquierda del correlograma) muestra al
menos un valor significativo en el retardo uno, con un coeficiente de autocorrelación
parcial (PAC) cercano a la unidad (ρ ~ 1) es indicativo de la no estacionariedad de la
serie (Pulido y López, 1999: 274).
626
Asimismo, como todas las probabilidades asociadas al estadístico “Q” son menores a
0.05 se concluye que la serie es no estacionaria.
2. Método formal.
a) Test DF y ADF.
En Eviews para realizar la prueba DF y ADF una vez estando en la ventana de la serie
vamos a: View/ Unit Root Test…/, en donde nos aparecerá una ventana como la
siguiente. Cabe destacar que el Test de DF o simple es solamente válido si las series
son un proceso autorregresivo de orden 1, AR(1).
627
Imagen 11.4.4 Prueba Unit Root Test
En primer lugar, hay que especificar el número de retardos de los términos de las
primeras diferencias de la serie para incluir en la regresión del Test. En Eviews tenemos
dos opciones para seleccionar el número de retardos (Lag length): De forma automática
(Automatic selection) y especificado por el usuario (User specified). Si, por ejemplo,
seleccionamos el especificado por el usuario e incluimos cero (0) retardos o rezagos,
Eviews nos proporciona el Test de DF y si indicamos un número mayor que cero,
generará el Test de ADF.
ii) Si la serie original no parece presentar tendencia y tiene un valor medio distinto
de cero debemos incluir un término constante en la regresión; y
628
iii) Si la serie original parece fluctuar en torno al valor medio cero, no se considera
necesario incluir ningún regresor adicional en la regresión, es decir, no incluimos
ni constante ni término de tendencia (Pulido y López, 1999: 271).
Para nuestro caso, vamos a realizar los dos Test, es decir, el DF y el ADF.
Test DF.
Dado que la serie original de ARA presenta tendencia decreciente vamos a incluir en el
Test el intercepto y el término de tendencia lineal; luego, vamos a seleccionar los
rezagos de forma manual o especificados por el usuario, en donde indicaremos que son
629
cero para trabajar con el Test de DF, y; finalmente, vamos a realizar el Test primero en
niveles, luego en primeras diferencias para aceptar o rechazar la Ho. Así, siguiendo los
pasos preestablecidos, el resultado para el Test de DF en niveles es:
Ahora, realicemos el Test de DF pero en primeras diferencias con los demás criterios
constantes, así obtenemos:
630
Cuadro 11.4.2 Prueba Dickey Fuller Aumentada
Comentario: Dado que en términos absolutos el valor del estadístico DF, 16.12, es
mayor que el valor crítico de MacKinnon al 5% de significación igual a 3.42, se rechaza
la Ho y se acepta la Ha, por tanto, no existe raíz unitaria, es decir, la serie es
estacionaria. Asimismo, al ser la probabilidad asociada al estadístico DF menor a 0.05
se acepta la Ha y se rechaza la Ho.
Test ADF.
631
Para elaborar este Test vamos a modificar únicamente el número de rezagos, así, en
lugar de incluir cero como en el Test anterior de DF, vamos a incluir 1. Los demás
términos los mantendremos constantes, de tal suerte que como la serie original de ARA
presenta tendencia decreciente vamos a incluir en el Test el intercepto y el término de
tendencia lineal; luego, vamos a seleccionar los rezagos de forma manual o
especificados por el usuario, en donde indicaremos que es uno para trabajar con el Test
de ADF, y; finalmente, vamos a realizar el Test primero en niveles y luego en primeras
diferencias para aceptar o rechazar la Ho. Así, siguiendo los pasos descritos, el
resultado para el Test de ADF en niveles es:
Comentario: Dado que el valor del estadístico de ADF es menor en términos absolutos
al valor crítico de MacKinnon, a saber 2.44 < 3.42 al 5% de significación estadística, y
en virtud de que la probabilidad asociada al estadístico ADF es mayor a 0.05 se acepta
la Ho y por tanto se dice que existe raíz unitaria, es decir, la serie es no estacionaria.
632
El resultado del Test de ADF con primeras diferencias manteniendo constante los
demás términos es:
Comentario: Como puede observarse, al ser el valor del Test ADF mayor que el valor
crítico de MacKinnon (11.88 > 3.42) en términos absolutos al 5% de significación
estadística aceptamos la Ha; además, al ser la probabilidad asociada al Test de ADF
menor a 0.05 se corrobora la aceptación de la Ha, y se concluye que no existe raíz
unitaria, por tanto, la serie es estacionaria.
633
los resultados obtenidos, fue necesario diferenciar una vez la serie para volverla
estacionaria.
b) Test PP.
Este Test es similar a la prueba de ADF, pues si el valor del estadístico PP es menor o
inferior a los valores críticos de MacKinnon, a cualquier nivel de significación en
términos absolutos en ambos casos, se acepta la Ho de existencia de una raíz unitaria.
Mientras que el Test de ADF corrige la correlación serial de orden elevado añadiendo
más retardos del término diferenciado de la serie original en el lado derecho de la
ecuación, el Test de PP realiza una corrección del estadístico “τ” sobre el coeficiente en
la regresión AR(1) para considerar la correlación serial en el término “e”.
En este Test, al igual que en el ADF, tenemos que especificar si incluimos una
constante, constante más término de tendencia lineal o nada en la regresión. Para este
Test hay que especificar el número de periodos de correlación serial a incluir, es decir,
rezagos o retardos Pulido y López, 1999: 271).
634
El resultado del Test de PP en niveles, con intercepto y término de tendencia lineal y
bandwidth especificado por el usuario de 1 es:
Comentario: Como el valor del estadístico PP es, es términos absolutos, menor que el
valor crítico de MacKinnon al 5% de significación estadística (2.48 < 3.42) se acepta la
Ho y dado que la probabilidad asociada al estadístico PP es mayor a 0.05 se acepta la
Ho de que existe raíz unitaria, por tanto, la serie es no estacionaria.
635
Null Hypothesis: D(ARA) has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 1 (Fixed using Bartlett kernel)
Adj. t-Stat Prob.*
Phillips-Perron test statistic -16.12566 0.0000
Test critical values: 1% level -3.990817
5% level -3.425784
10% level -3.136061
*MacKinnon (1996) one-sided p-values.
Conclusión del Test PP: Dado que con la prueba PP en niveles se acepta la Ho y en
primeras diferencias se acepta la Ha, concluimos que la serie original “ARA” no es
estacionaria y por tanto hay que diferenciarla una vez para convertirla en estacionaria.
Así, tanto los métodos informales como los formales nos indican que la serie original
“ARA” es no estacionaria, por lo que es necesario diferenciarla una vez para volverla
estacionaria. Luego entonces, la serie es integrada de orden 1, I(1). Asimismo, es
preciso, antes de diferenciarla, convertirla en logaritmos en virtud de la dispersión que
presentan algunas variables aleatorias, lo cual es indicio de la inexistencia de varianza
constante.
636
II) Transformación y diferenciación de la serie.
Teóricamente, para obtener una serie en media constante es preciso obtener sus
primeras diferencias y, para obtener una serie con varianza constante es necesario
transformarla en logaritmos antes de diferenciarla, ya que las series transformadas en
logaritmos presentan menor dispersión.
637
La nueva variable generada (lara) aparecerá en la ventana del Workfile. A continuación
procedemos a graficarla de forma lineal a través de los pasos ya descritos
anteriormente. De esta forma obtenemos:
638
Como puede observarse, la transformación en logaritmos de la serie (lara) aun presenta
un comportamiento similar al de la serie original (ara), es decir, sin transformar.
Diferenciemos entonces la serie transformada en logaritmos una vez y grafiquémosla
para ver su comportamiento.
639
continuación vamos a graficarla a través del procedimiento conocido, es decir, en la
ventana de la serie vamos a: View/Graph/Line/Ok., lo que nos desplegará la gráfica
siguiente:
640
Pero, ¿Será adecuada la transformación y diferenciación correspondiente que
realizamos? La forma de saberlo es crear directamente la serie “ara” en diferencias y
obtener su gráfico correspondiente. Para ello, vamos al menú principal y ahí
seleccionamos: Quick/Generate Series…/, y en la ventana que nos desplegará
escribimos dara=d(ara). De la cual su gráfico correspondiente es:
Como puede observarse, en la gráfica de la serie “dlara” los valores de las variables
aleatorias oscilan en torno al 0.2 y al -0.2, mientras que en la serie “dara” dichos valores
oscilan en torno al 1.0 y al -1.0, por tanto, los valores de la serie transformada en
logaritmos y diferenciada una vez presentan menor dispersión, lo que supone una
media y varianza constante. Entonces, para nuestro caso no cabe duda de la serie con
la que vamos a trabajar, es decir, aquella que fue transformada en logaritmos y
diferenciada una vez (dlara) pues, es estacionaria.
Con ello, podemos ahora realizar el correlograma de la serie “dlara” para verificar la
estacionariedad de la misma. Así, con los pasos ya conocidos obtenemos el siguiente
correlograma:
641
Grafico 11.4.10 Correlograma
Ahora, realicemos los Test de raíces unitarias correspondientes, es decir, las pruebas o
métodos formales, para determinar que la serie efectivamente es ya estacionaria, pues,
gráficamente lo es.
642
a) Test de DF para “dlara”.
Cabe hacer mención que para realizar la prueba DF va a hacer en niveles (Level)
porque ya está diferenciada una vez, por lo que si se selecciona primeras diferencias en
realidad se tratará de las segundas diferencias; dado que la nueva serie (dlara) no
parece presentar tendencia (creciente o decreciente) pero parece tener uno o más
valores medios distintos de cero debemos incluir un término constante (intercept) en la
regresión; y en el número de rezagos cero para realizar el Test DF. El resultado del
Test de DF es:
643
Como el valor del estadístico DF (16.48) en términos absolutos es mayor que el valor
crítico de MacKinnon al 5% (2.87) y dado que la probabilidad del estadístico DF es
menor a 0.05 se acepta la Ha y se rechaza la Ho, por tanto, no existe raíz unitaria, es
decir, la serie “dlara” es estacionaria.
644
En virtud de que el valor del estadístico ADF (12.01) es mayor que el valor crítico de
MacKinnon al 5% (2.87) y dado que la probabilidad asociada al estadístico ADF es
menor a 0.05 se acepta la Ha, por tanto, no existe raíz unitaria, es decir, la serie “dlara”
es estacionaria.
Para el caso del Test de PP vamos a realizarlo en niveles (Level); con intercepto
(intercept); y vamos a especificar de forma manual 1 rezago. Así obtenemos lo
siguiente:
645
al estadístico PP es menor a 0.05, entonces aceptamos la Ha y rechazamos la Ho, por
lo que no existe raíz unitaria, luego entonces la serie “dlara” es estacionaria.
Conclusión general: Dado que con los métodos informales (gráfica lineal, diagrama de
dispersión y correlograma) concluimos que la serie “dlara”, misma que fue transformada
en logaritmos y diferenciada una vez, es estacionaria; y con los métodos formales (Test
de DF, ADF y PP) se acepta la Ha en virtud de que los valores de los estadísticos DF,
ADF y PP son mayores a los valores críticos de MacKinnon al 5% y a que la
probabilidad asociada a los mismos es menor a 0.05 concluimos contundentemente que
la serie de tiempo “dlara” es estacionaria. Por tanto, podemos pasar a la identificación
del modelo ARMA, pues ya sabemos que la serie es integrada de orden 1, es decir, I(1).
Una vez que hemos transformado la serie en estacionaria o en su caso probado que la
serie es estacionaria de origen procedemos a determinar el tipo de modelo más
adecuado para la serie objeto de estudio, es decir, el orden de los procesos
autorregresivos (AR) y de medias móviles (MA), esto es, los valores de p y q.
Sin embargo, no se piense que resulta fácil, incluso para personas con experiencia,
seleccionar el modelo ARMA. En muchas ocasiones se tendrán dudas razonables sobre
el modelo más adecuado. Al respecto, Pulido y López (1999: 294, 301) sostienen que
“no debemos preocuparnos en exceso por ello, ya que una posibilidad es seleccionar
varios modelos alternativos y comprobar posteriormente cuál de ellos resulta finalmente
más idóneo. Generalmente, suele procederse seleccionando siempre procesos lo más
sencillos posible”. Asimismo, Johnston y Dinardo (2001) reconocen lo difícil que resulta
la elección del orden de p y q. No obstante, sostienen que esta elección se agiliza
mediante un procedimiento numérico sugerido por Hannan y Rissanen. Se trata de un
procedimiento en tres etapas, a saber:
1.- Se estiman por MCO procesos AR puros de orden bastante elevado, lo cual no deja
de ser razonable ya que un proceso ARMA desconocido equivale a un proceso AR
infinito;
646
3.- Se ajustan algunos modelos ARMA utilizando para ello los residuos estimados.
Después del ajuste, es decir, de la inclusión de MA(q) elegimos como especificación
correcta aquella que proporciona el menor valor del criterio de Schwarz.
Por tanto, a la hora de identificar un modelo ARMA debemos siempre observar las
funciones de autocorrelación para decidir el orden del componente regular (p,q) con
base en la evolución de los primeros coeficientes.
Otro criterio proporcionado por Pulido y López (1999: 291) para determinar los procesos
a incluir en el modelo es el siguiente:
647
Cuadro 11.4.10 Criterio Pulido y López
Y t C 1 Y t 1 a t
Yt C 1Yt 1 2Yt 2 at
Por su parte, la forma general de MA(q) es:
Yt a t 1 a t 1 2 a t 2 ... q a t q
Yt a t 1 a t 1
Yt at 1at 1 2 at 2
Y un proceso combinado general ARMA(p,q) está dado por:
Cabe destacar, como comentan Pulido y López (1999: 281), que “realmente, en las
aplicaciones no es frecuente manejar un modelo ARIMA(p,d,q), sino el producto de dos
648
modelos: ARIMA(p,d,q)*SARIMA(P,D,Q), donde el primero corresponde a la parte
regular y el segundo a la estacional de la serie.
Ahora bien, para identificar los procesos que se incluirán en el modelo o los modelos
posibles a estimar, como se comento, es necesario contar con las funciones de
autocorrelación y autocorrelación parcial del correlograma de la serie estacionaria (ver
la página 642), Gráfico 11-4.10, en nuestro caso de la serie: DLARA.
649
Imagen 11.4.11
650
En virtud de que el comportamiento mostrado en el correlograma de la serie DLARA no
corresponde con el comportamiento teórico establecido en el cuadro 1, vamos a
establecer dos modelos hipotéticos para, posteriormente, de acuerdo a determinados
criterios que veremos más adelante, discernir entre uno u otros modelos.
De tal suerte y derivado del análisis visual realizado a través del correlograma para el
caso de la serie DLARA y tras realizar diversos modelos con ayuda de Eviews, los
modelos identificados que vamos a desarrollar aquí son:
651
IV) Estimación de coeficientes y evaluación-validación del modelo.
La evaluación de modelos ARIMA puede hacerse en forma similar a como se hace con
el modelo de regresión o los modelos de ecuaciones simultaneas (Pulido y Pérez, 2000)
Así, una vez identificado el modelo o los modelos procedemos a estimarlos con ayuda
de Eviews de la siguiente forma: en el menú principal vamos a: Quick/Estimate
Equation/, y en la ventana que despliega escribimos el primer modelo: dlara c ar(7)
ma(7)/Ok.
652
Cuadro 11.4.11 Regresion
Con los resultados obtenidos hay que juzgar la validez del modelo estimado, para ello
debemos verificar:
C AR(7) MA(7)
C 1.80212708265e-06 -9.36143365238e-06 5.98178985982e-06
AR(7) -9.36143365238e-06 0.0105534103408 -0.00724748850113
MA(7) 5.98178985982e-06 -0.00724748850113 0.00622684554418
653
En este caso, como se recordara, lo que nos interesa analizar son los valores
fuera de la diagonal principal, ¿Por qué? Así, por un lado, covarianzas
relativamente altas indican parámetros en cierta forma redundantes, algunos de
los cuales podrían eliminarse sin gran perjuicio para la capacidad explicativa del
modelo. Por otro, covarianzas reducidas conforman la conveniencia de mantener
todos los coeficientes del modelo (Pulido y López, 1999: 306).
Para nuestro caso, observamos que la covarianza que existe entre los procesos
AR(7) y Ma(7) y entre cada uno de estos con la constante es muy reducida, por
tanto, concluimos que debemos mantener todos los coeficientes del modelo y
podemos seguir adelante.
Tabla y gráfico de residuos: Para acceder a la tabla que nos muestra los
residuos, así como los valores de la serie original y estimada, dentro del menú de
la ventana de la ecuación del modelo estimado seleccionamos:
View/Actual,fitted, residual table/Ok. Y para acceder el gráfico del ajuste
realizado a través del modelo vamos a: View/Actual, fitted, residual graph/Ok.
Para nuestro caso la gráfica de los residuos obtenidos a través del modelo
planteado es:
Para el caso de la tabla de los valores reales, los estimados y la gráfica, por
razones de espacio tan sólo vamos a mostrar una parte:
654
Grafco 11.4.8 Valores estimados y residuales
655
2008 al 6 de noviembre del mismo año, periodo que se enmarca dentro del
derrumbe de las bolsas de valores del mundo, es decir, el comportamiento se
explica por la incertidumbre y pánico generado a raíz del crack bursátil y por
tanto quiebra de diferentes empresas a nivel mundial, entre ellas, por supuesto,
las grandes compañías hipotecarias, que sin duda, impactaron
desfavorablemente a diferentes empresas del ramo a nivel mundial, entre ellas:
Consorcio ARA. De hecho, fue el 23 de octubre de 2008 (observación 204
correspondiente) cuando el precio de las acciones de ARA alcanzaron su precio
más bajo durante todo el periodo en cuestión, a saber: 3.52 pesos por acción.
Aunque, también es cierto que en las observaciones 196 y 197 el precio real de
las acciones de ARA difiere en sobremanera con el precio estimado, de ahí el
comportamiento que muestra o presenta la gráfica. Es decir, el error en estas
observaciones es alto.
Cabe destacar que el gráfico de los residuos nos proporciona una visión de
conjunto de la cuantía de los errores, sesgos sistemáticos y puntos de errores
excepcionales (Pulido y López, 1999: 311).
656
planteado. Así, estando en la ventana de la ecuación vamos a: View/Residual
Tests/Correlogram-Q-statistics/, mismo que por default nos da 34 rezagos/Ok.,
obteniendo el siguiente correlograma (ver página 658: Gráfico11.4.9).
Test DF, ADF y PP para los residuos: Para verificar que los residuos son ruido
blanco, podemos ahora realizar sobre ellos los Test DF, ADF Y PP. Para ello,
debemos crear la serie de los residuos. Así, volvemos a correr la regresión, para
ello tenemos dos opciones: 1) Si estamos en la ventana de la ecuación vamos a:
Estimate/Ok.; y 2) En el menú principal vamos a: Quick/Estimate Equation…/y
escribimos la ecuación planteada con antelación. El porque hay que realizar
estos pasos se debe a que el programa tan sólo guarda la información en tanto
que no se realice una nueva operación, como es el caso de una nueva regresión,
es decir, guarda la información momentáneamente. De tal suerte que, al correr la
regresión o al volverla a estimar Eviews generará los residuos de la misma
automáticamente en la serie “resid” que aparece en el Workfile. A continuación
en el menú del Workfile vamos a: Objects/New Object…/Series/, y le damos el
nombre de U1/Ok. Misma que aparecerá en la ventana del archivo de trabajo. De
la serie “Resid” generada momentáneamente copiamos los valores de los
residuos a partir de la observación 2 hasta la 285 y las copiamos en la nueva
serie creada denominada U1 habiendo oprimido con antelación el botón “Edit +/-“
de la ventana de la nueva serie para que nos permita incluir los datos. Una vez
hecho esto, podemos ahora realizar las pruebas de raíces unitarias sobre los
residuos para probar si son o no ruido blanco.
657
Grafico 11.4.9 Correlograma
658
Para DF:
Para ADF:
Para PP:
659
Cuadro 11.4.15 Prueba Phillips Perron
Ahora realicemos el segundo modelo planteado siguiendo y/o aplicando los mismos
pasos y criterios descritos en el punto IV para el primer modelo. Por razones de
espacio, tan sólo mostraremos los resultados obtenidos dejando al lector la
interpretación, misma que puede realizarse como práctica. De tal suerte que los
resultados son los siguientes:
660
Cuadro 11.4.16 Regresion
Matriz de covarianzas:
661
Tabla y gráfica de los residuos:
662
Correlograma de los residuos:
663
Comentario sobre el correlograma: Como puede observarse en las funciones de
autocorrelación (AC) y autocorrelación parcial (PAC) ninguna sale de las bandas de
confianza, pues en el rezago 30 ambas están en el límite; asimismo, los valores de AC
y PAC son muy menores a 1; y la probabilidad asociada al estadístico Q son mayores
664
que 0.05. Derivado de estos resultados podemos concluir que los residuos son ruido
blanco.
665
V) Selección del modelo.
Ahora bien, si varios modelos pasan las pruebas de validación y se quiere discernir
entre uno u otros, existen criterios para determinar cual de ellos es mejor. Es decir, los
siguientes criterios se utilizan principalmente como elemento de comparación entre
modelos alternativos para una misma variable, entre ellos tenemos:
I ei2
L 1 ln( 2 ) ln
2 I
Donde:
I = Número de observaciones.
De acuerdo a Cabrera, et al.- (2001: 47) el valor que toma la función logarítmica de
verosimilitud puede ser un criterio para valorar la bondad del modelo, esencialmente
cuando se trata de comparar dos o más modelos alternativos. Pero, ¿Por qué no utilizar
el R2 para discernir entre un modelo u otro? Porque la principal ventaja de este
estadístico frente al R2 es que no se ve influido por las transformaciones a que se
puede ver sometida la variable endógena. Por lo que se refiere a este criterio para la
elección entre distintos modelos, se escoge aquel modelo que presenta un valor de la
función logarítmica de verosimilitud (L) más alto.
666
2. Criterio de información de Akaike (AIC: Akaike info criterion):
2K 2L
AIC
I I
Donde:
I = Número de observaciones.
El AIC sirve para comparar la bondad de ajuste entre dos modelos. El criterio para la
elección entre distintos modelos se fundamenta en el valor estimado del estadístico. Se
selecciona aquel modelo que presenta un estadístico AIC menor.
K * ln( I ) 2 L
SC
I I
Donde:
I = Número de observaciones.
Al igual que L y AIC, éste sirve para comparar la bondad de ajuste entre modelos
alternativos. El criterio de elección de un modelo entre varios alternativos se
fundamenta en el valor estimado del estadístico. Se selecciona aquel modelo que
presenta un estadístico Schwarz menor.
667
que éste se ve fuertemente influenciado por las transformaciones de la serie, cuando se
trata de discernir entre varios modelos nos quedaremos con aquel que posea el R 2 más
alto.
De tal suerte, los resultados obtenidos en los dos modelos planteados son:
668
Y con esta ecuación de regresión es con la que vamos a proceder a predecir el precio
de las acciones de ARA.
VI) Predicción.
Una vez seleccionado y planteado el modelo definitivo, es decir, aquel que cumple
satisfactoriamente los criterios de evaluación establecidos, puede pasarse a la etapa de
predicción.
La diferencia entre una y otra es que la primera nos permite predecir sólo un periodo
por delante y utiliza los valores reales para estimar y predecir, por ejemplo, para nuestro
caso, tan sólo nos proporcionará el precio de las acciones para la observación 286;
mientras que la segunda permite al modelo que vaya realimentando sus propias
predicciones, es decir, permite predecir para varias observaciones de una sola vez.
Ambas predicciones (estática y dinámica) coinciden para el primer periodo, pero, a
partir del segundo, la predicción dinámica utiliza el valor estimado y no el valor real del
periodo precedente.
Para nuestro caso, tal y como hemos venido trabajando o más bien dicho, generando la
serie, Eviews no la reconoce como transformación y diferenciación de la serie ordinaria
(original) ARA, es decir, por ejemplo, a la serie DLARA la reconoce como una serie
ordinaria (original) y no como una transformación de la serie ARA. Por lo que, al realizar
la predicción, Eviews tan sólo nos permitirá realizarla para la serie DLARA y no para la
serie ARA. Por ejemplo, al realizar la predicción de la serie DLARA tal y como hasta el
momento hemos venido trabajando, Eviews nos desplegará el siguiente cuadro de
diálogo:
669
Imagen 11.4.13 Prediccion
Como puede observarse, Eviews nos desplegará una ventana para la predicción de
DLARA teniendo nosotros que realizar las transformaciones necesarias para obtener
los valores de la predicción de la serie ARA.
Por tanto, en virtud de que Eviews no reconoce la serie DLARA como una
transformación y diferenciación de la serie ordinaria (original) ARA hay que generar una
nueva serie. Así, en el menú principal vamos a: Quick/Generate Series…/Ok, y en la
venta que despliega escribimos:
dlogara=dlog(ara)
670
no aparezca en el Workfile. Además, siempre podemos trabajar en la barra de
comandos.
Así, una vez generada la nueva serie [DLOG(ARA)], misma que por cierto deberá ser
exactamente igual a la serie DLARA como puede observarse en el siguiente cuadro:
dlog(ara)_c_ar(7)_ma(7)_sma(31)/Ok.
671
Cuadro 11.4.23 Regresion
ls_dlog(ara)_c_ar(7)_ma(7)_sma(31)/Ok.
672
Imagen 11.4.15 Comando
673
Grafico11.4.10 Prediccion
Como puede observarse, la serie ARAF está dentro de las bandas de confianza por lo que podemos
concluir que la predicción es buena. Asimismo, con respecto a las estadísticas, dado que casi todas (con
la excepción de root mean squared error, mean absolute error y mean abs, percent error) tienen valores
menores a uno, decimos que es buena estimación de la predicción.
El siguiente cuadro muestra los precios reales de las acciones de ARA para la observación 281 a 290, la
estimación y predicción realizada con nuestro modelo con el método dinámico para las mismas
observaciones, así como el error de predicción:
Obs. Fecha Precio real (Pr) Precio estimado (Pe) Error (Pr-Pe)
281 13/Feb/2009 3.87 3.25 0.62
282 16/Feb/2009 3.86 3.23 0.63
283 17/Feb/2009 3.64 3.21 0.43
284 18/Feb/2009 3.76 3.20 0.56
285 19/Feb/2009 3.86 3.18 0.68
286 20/Feb/2009 3.71 3.16 0.55
287 23/Feb/2009 3.67 3.15 0.52
288 24/Feb/2009 3.75 3.13 0.62
289 25/Feb/2009 3.65 3.11 0.54
674
290 26/Feb/2009 3.83 3.09 0.74
Como puede observarse, el error de estimación (para el caso de las observaciones 281
a 285) y el error de predicción (para el caso de las observaciones 286 a 290) es grande,
en promedio de 0.589 pesos por acción, con el método dinámico. Así, la predicción nos
proporciona una guía para determinar, en este caso, la compra o venta de acciones de
Consorcio ARA. Téngase presente, además, que los modelos ideales para predecir
series financieras son los ARCH y GARCH. Sin embargo, puede utilizarse la
metodología Box & Jenkins para este tipo de series recomendándose la predicción
para tres días posteriores y no más (Reyes, 2009).
Ahora bien, podemos realizar la predicción con el método estático con la restricción de
que tan sólo nos proporcionará la estimación para la siguiente observación, en nuestro
caso, la 286. Por lo que, si queremos estimar para la predicción 287 tenemos que
ingresar el precio real de las acciones de ARA para la observación 286, es decir,
necesitamos alimentar constantemente la serie. Sin embargo, este método es más
preciso en virtud de que utiliza el valor real anterior en lugar de utilizar el valor o los
valores estimados como el método dinámico.
675
Como puede observarse en la gráfica el precio estimado de las acciones de ARA (araff) con el método
estático ésta más pegado a las bandas de confianza y ello se debe a que a través de este método de
estimación, estático, se utilizan los valores reales y no los estimados. Por lo que la estimación con este
método será más precisa. Asimismo, con respecto a las estadísticas, dado que casi todas (con la
excepción de mean abs, percent error) tienen valores menores a uno, decimos que es buena estimación
de la predicción.
Obs. Fecha Precio real (Pr) Precio estimado (Pe) Error (Pr-Pe)
281 13/Feb/2009 3.87 3.98 -0.11
282 16/Feb/2009 3.86 3.83 0.03
283 17/Feb/2009 3.64 3.81 -0.17
284 18/Feb/2009 3.76 3.61 0.15
285 19/Feb/2009 3.86 3.77 0.09
286 20/Feb/2009 3.71 3.79 -0.08
Como se desprende del siguiente cuadro, el error de estimación (para el caso de las
observaciones 281 a 285) y el error de predicción (para el caso de la observación 286)
es muy pequeño. Por ejemplo, para el caso de la predicción del precio de las acciones
del 20 de febrero de 2009 el error entre el precio real y el de predicción es de -0.08
pesos por acción, es decir, 8 centavos de peso. Error muy inferior al error del precio de
predicción para la misma fecha con el método dinámico, a saber, 55 centavos de peso
por acción.
676
obtiene seleccionando en el Workfile dichas series y dando click derecho sobre las
mismas: Open/as Group/Ok., lo cual nos desplegará un cuadro con los valores de las
series. Una vez ahí, vamos a: View/Graph/Line/Ok., operación que desplegará:
Como puede observarse la predicción con el método estático (ARAFF) es más exacta
que la predicción con el método dinámico (ARAF), ello debido a que, como se comento,
el primero utiliza los valores reales para la estimación posterior y el segundo utiliza los
valores estimados para las predicciones posteriores.
Detección de la estacionariedad
En este ejercicio utilizamos el Tipo de Cambio nominal para México en el periodo de 1980 a
2010, utilizamos una base dividida en trimestres por lo que cada año cuenta con cuatro datos
677
teniendo como resultado 124 datos por los 31 años comprendidos. Para ingresar la base en
Eviews En la barra de herramientas elegimos File/New Worfile/ donde se abrirá un cuadro en el
cual se elige la opción de datos regulares, ingresaremos del periodo de 1980.1 a 2010.4;
nuestra base se encuentra en periodos trimestrales e incrementaremos 8 datos para la
predicción de dos años.
Una vez cargada la serie cambiamos el periodo muestral (Sample) en la ventana del Workfile
dando doble click sobre el mismo, es decir, sobre “Sample”. Este procedimiento desplegará una
ventana denominada “Sample” donde escribiremos “ 1 124 para indicar que trabajaremos con
los primeros 124 datos para estimar nuestros cálculos, sin embargo el programa sigue
reconociendo los 130 espacios para usarlos posteriormente. ¿132?
Ahora vamos a obtener la grafica de los datos de la variable Tipo de cambio, para esto damos
doble click sobre la variable tc que abrirá los datos, posteriormente vamos a:
View/Graph/Line/Ok. Lo que nos desplegará la siguiente grafica:
Como puede observarse, la gráfica del proceso estocástico presenta un claro comportamiento
creciente por lo que, podemos suponer que no es constante en media, por ello suponemos que
el proceso no es estacionario. En el siguiente grafico de dispersión se observan datos muy
dispersos por lo que tampoco es constante en varianza. Derivado de lo cual, quizá sea
necesario y/o preciso trabajar en diferencias.
678
Grafico 11.4.14. Dispersion de Tipo de Cambio
d) Correlograma.
Otro procedimiento gráfico para comprobar la posible existencia de una raíz unitaria en el
proceso estocástico consiste en inspeccionar el correlograma del mismo. Así, en la ventana de
la serie vamos a: View/Correlogram…/, en donde se desplegará una ventana que nos solicita la
especificación del correlograma donde indicaremos la opción Level (serie en niveles) y los
rezagos que en predeterminado indica el programa que son 36 para después dar click en el
botón de Aceptar que despliega el siguiente cuadro.
679
Dado que como puede observarse en el correlograma de la serie tipo de cambio la función de
autocorrelación desciende lentamente y la función de autocorrelación parcial presenta un valor
significativo en el primer coeficiente, cercano a la unidad, debemos proceder a la transformación
de la serie en logaritmos y posteriormente a diferenciarla. Asimismo, como todas las
probabilidades asociadas al estadístico “Q” son menores a 0.05 se concluye que la serie es no
estacionaria.
I.2.-Método formal.
Ahora pasamos a las pruebas formales para probar la existencia de raíz unitarua mediante Test
de Dickey-Fuller (DF), una variante del mismo la Dickey-Fuller Aumentada (ADF) y el Test de
Phillips-Perron (PP).
Prueba de hipótesis
Imagen 11.4.15
680
Como el valor de t de ADF, 2.555 es menor que el valor t crítico de MacKinnon al 5%, en
términos absolutos, con valor de 3.44 se acepta la Ho que nos dice que la serie presenta raíz
unitaria por lo tanto la serie es no estacionaria. Asimismo, al ser la probabilidad asociada al
estadístico DF mayor que 0.05 se acepta la Hipotesis nula.
Ahora, realicemos el Test de ADF pero en primeras diferencias con los demás criterios
constantes, así obtenemos:
681
Dado que en términos absolutos el valor del estadístico ADF en primeras diferencias es, 9.36
mayor que el valor crítico de MacKinnon al 5% de significación igual a 2.88, se rechaza la Ho y
se acepta la Ha, por tanto, no existe raíz unitaria, es decir, la serie es estacionaria. Asimismo, al
ser la probabilidad asociada al estadístico DF menor a 0.05 se acepta la Ha y se rechaza la Ho.
d) Test ADF.
682
Para elaborar este Test vamos a modificar únicamente el número de rezagos, así, en lugar de
incluir cero como en el Test anterior de DF, vamos a incluir 1. Los demás términos los
mantendremos constantes, de tal suerte que como la serie original de tipo de cambio presenta
tendencia creciente vamos a incluir en el Test el intercepto y el término de tendencia lineal;
luego, vamos a seleccionar los rezagos de forma manual o especificados por el usuario, en
donde indicaremos que es uno para trabajar con el Test de ADF, y; finalmente, vamos a realizar
el Test primero en niveles y luego en primeras diferencias para aceptar o rechazar la Ho. Así,
siguiendo los pasos descritos, el resultado para el Test de ADF en niveles es:
Dado que el valor del estadístico ADF es menor en términos absolutos al valor crítico de
MacKinnon, a saber -2.9793 < -3.4470 al 5% de significación estadística, y en virtud de que la
683
probabilidad asociada al estadístico ADF es mayor a 0.05 se acepta la Ho y por tanto se dice
que existe raíz unitaria, es decir, la serie es no estacionaria.
El resultado del Test de ADF con primeras diferencias manteniendo constante los demás
términos es:
Como puede observarse, al ser el valor del Test ADF mayor que el valor crítico de MacKinnon
(9.23 > 3.44) en términos absolutos al 5% de significación estadística rechazamos la Ho;
además, al ser la probabilidad asociada al Test de ADF menor a 0.05 (con un valor de 0.00) se
corrobora el rechazo a la hipótesis nula y se concluye por lo tanto la variable tipo de cambio es
estacionaria en primera diferencia.
684
e) Test PP.
Para obtener el Test Phillips Perron en Eviews es necesario abrir los datos tipo de cambio, ya
estando en esta ventana vamos a View/Unit Root Test, y se abrirá un nuevo cuadro, para la
prueba DF seleccionábamos este mismo en Test Type, ahora cambiaremos este tipo de prueba
por la opción Pillips Perron como se muestra en la siguiente Imagen 2.
Imagen 11.4.16
El resultado del Test de PP en niveles, con intercepto y término de tendencia lineal y bandwidth
predeterminado como 1 es:
685
Como el valor del estadístico PP es, en términos absolutos, menor que el valor crítico de
MacKinnon al 5% de significación estadística (-2.7428 < -3.4467) se acepta la Ho y dado que la
probabilidad asociada al estadístico PP es mayor a 0.05 se acepta la Ho: existe raíz unitaria,
por tanto, la serie es no estacionaria.
686
Al igual que en la prueba ADF en la prueba PP este estadístico presenta un valor mayor en
relación los valores críticos de MacKinnon en términos absolutos(-9.181379 > -3.4470) y en
virtud de que la probabilidad asociada al estadístico es menor que 0.05, por lo cual se rechaza
H0 : Tc presenta raíz unitaria, por lo tanto se acepta Ha : Tc no presenta raíz unitaria; por lo
tanto la variable tipo de cambio es estacionaria en primera diferencia.
687
década de los noventa los datos se encuentran más dispersos, puede observarse en la
siguiente gráfica.
688
Como puede observarse, al encontrarse los valores de la autocorrelación (AC) y los de la
autocorrelación parcial (PAC) dentro de las bandas de confianza, al ser los valores de AC y
PAC muy menores a 1 y al ser la probabilidad asociada al estadístico “Q” mayores a 0.05, con
excepción del segundo periodo que la probabilidad es menor a 0.05. Podemos concluir, de
acuerdo a este correlograma, que la serie “DTC” probablemente es estacionaria, es decir, no
presenta raíz unitaria.
Ahora, realicemos los Test de raíces unitarias correspondientes, es decir, las pruebas o
métodos formales, para determinar que la serie efectivamente es ya estacionaria.
Siguiendo los pasos ya descritos con antelación para realizar la prueba DF y, planteando la
prueba de hipótesis correspondiente de la siguiente manera:
Cabe hacer mención que para realizar la prueba ADF va a hacer en niveles (Level) porque ya
está diferenciada una vez, por lo que si se selecciona primeras diferencias en realidad se
tratará de las segundas diferencias; dado que la nueva serie (DTC) no parece presentar
tendencia (creciente o decreciente) pero parece tener uno o más valores medios distintos de
cero debemos incluir un término constante (intercept) en la regresión; y en el número de
rezagos cero para realizar el Test DF. El resultado del Test de DF es:
689
Como el valor del estadístico DF (-9.3689) en términos absolutos es mayor que el valor crítico
de MacKinnon al 5% (-2.8852) y dado que la probabilidad del estadístico DF es menor a 0.05 se
rechaza la Ho, por tanto, no existe raíz unitaria, es decir, la serie “DTC” es estacionaria.
Ahora realicemos la prueba ADF, manteniendo los términos seleccionados constantes pero
modificando el número de rezagos a 1 en lugar de cero. Obtenemos:
690
En virtud de que el valor del estadístico ADF (-9-2851) es mayor que el valor crítico de
MacKinnon al 5% (-2.8854) y dado que la probabilidad asociada al estadístico ADF es menor a
0.05 se rechaza Ho, por tanto, no existe raíz unitaria, es decir, la serie “DTC” es estacionaria.
Para el caso del Test de PP vamos a realizarlo en niveles (Level); con intercepto (intercept); y
vamos a especificar de forma manual 1 rezago. Así obtenemos lo siguiente:
691
Como puede observarse en los resultados del Test de PP el estadístico PP es mayor (-9.2295)
al valor crítico de MacKinnon al 5% (-2.8852) y dado que la probabilidad asociada al estadístico
PP es menor a 0.05, entonces rechazamos la Ho, por lo que no existe raíz unitaria, luego
entonces la serie “DTC” es estacionaria.
Dado que con los métodos informales (gráfica lineal, diagrama de dispersión y correlograma)
concluimos que la serie “dtc”, probablemente es estacionaria; y con los métodos formales (Test
ADF y PP) se acepta la Ha en virtud de que los valores de los estadísticos son mayores a los
valores críticos de MacKinnon al 5% y a que la probabilidad asociada a los mismos es menor a
0.05, concluimos c que la serie de tiempo “DTC” es estacionaria. Por tanto, podemos pasar a la
identificación del modelo ARMA, pues ya sabemos que la serie es integrada de orden 1, es
decir, I(1).
Otra prueba que es muy utilizada es la KPSS a diferencia de las anteriores pruebas donde la
hipótesis nula es la existencia de raíz unitaria, en la KPSS la hipótesis nula es la
estacionariedad de la serie.
Ho : la serie es estacionaria.
Nota: a diferencia de las pruebas ADF, DF y PP donde el valor del estadístico en términos
absolutos tenía que ser mayor a los valores de MacKinnon para rechazar Ho y aceptar la Ha
para que la serie no presentara raíz unitaria y por lo tanto deducir que la serie es estacionaria,
692
en la KPSS si el valor del estadístico es mayor a los valores de tablas se rechaza H0 por lo tanto
la serie es no estacionaria, en resumen se busca aceptar la hipótesis nula de estacionariedad
en la serie.
Para identificar los procesos que se incluirán en el modelo o los modelos posibles a estimar, es
necesario contar con las funciones de autocorrelación y autocorrelación parcial del
correlograma de la serie estacionaria, en nuestro caso de la serie: DTC. Como puede
observarse en el correlograma, el segundo rezago sale de las bandas de confianza tanto de las
funciones de autocorrelación como de autocorrelación parcial.
De tal suerte y derivado del análisis visual realizado a través del correlograma para el caso de la
serie DTC y tras realizar diversos modelos con ayuda de Eviews, los modelos identificados que
vamos a desarrollar aquí son:
3. AR(2) MA(2), es decir, ARMA(2,2) y en virtud de que diferenciamos una vez la serie para
convertirla en estacionaria es integrada de orden 1, I(1). Por lo tanto el modelo que se
desarrolla es un ARIMA(2,1,2).
Así, una vez identificado el modelo o los modelos procedemos a estimarlos con ayuda de
Eviews 5 como se había descrito en el ejercicio anterior.
693
Con los resultados obtenidos hay que juzgar la validez del modelo estimado, para ello debemos
verificar:
En este caso, como se recordara, lo que nos interesa analizar son los valores fuera de la
diagonal principal.
694
Para nuestro caso, observamos que la covarianza que existe entre los procesos AR(2) MA(2) y
entre cada uno de estos con la constante es muy reducida, por tanto, concluimos que debemos
mantener todos los coeficientes del modelo y podemos seguir adelante
Tabla y gráfico de residuos. Para acceder a la tabla que nos muestra los residuos, así
como los valores de la serie original y estimada, dentro del menú de la ventana de la
ecuación del modelo estimado seleccionamos.
Para nuestro caso la gráfica de los residuos obtenidos a través del modelo planteado es
695
Como puede observarse en la gráfica de los valores reales, estimados y residuales, estos
últimos se muestran dentro, durante la mayor parte del periodo, de las bandas de confianza,
con excepción del periodo comprendido a mediados de la década de los noventa, periodo de
gran volatilidad del tipo de cambio debido al error de diciembre y porque se establece que el
tipo de cambio debe ser flotante.
696
Coeficiente de determinación (R2): En nuestro caso, tenemos que R2 = 0.090648.
Correlograma de los residuos: Siguiendo con la validación del modelo, vamos a observar
el correlograma de los residuos obtenidos a partir del modelo planteado.
Test DF, ADF y PP para los residuos: Para verificar que los residuos son ruido blanco,
podemos ahora realizar sobre ellos los Test DF, ADF Y PP.
697
Pruebas de Raíz Unitaria a U1
698
Cuadro 11.4.40. PP con 1 rezago.
Como en las tres pruebas la probabilidad asociada a cada estadístico es menor a 0.05 y en
virtud de que el valor de los estadísticos DF, ADF y PP son mayores a los valores críticos de
MacKinnon al 5% concluimos que la serie de los residuos no presenta raíz unitaria, por tanto, es
ruido blanco, es decir, tiene un comportamiento aleatorio.
Ahora realicemos el segundo modelo planteado siguiendo y aplicando los mismos pasos y
criterios descritos en el punto IV para el primer modelo.
699
Matriz de covarianzas:
700
Tabla y gráfica de los residuos:
701
Cuadro 11.4.44. Correlograma U2.
702
Cuadro 11.4.46. Prueba Ampliada de Dickey-Fuller U2.
Para elegir entre un modelo y otro se consideran los planteamientos del ejercicio anterior, lo
cuales son: la suma de cuadrados de los residuos (Sum squaredresid) y el error estándar de la
regresión (S. E. of regresión). Se selecciona el modelo que presente la suma de los errores al
cuadrado y el error estándar de la regresión menores. Así mismo, a pesar del problema de
utilizar el R2 como una prueba de la bondad de ajuste del modelo, dado que éste se ve
fuertemente influenciado por las transformaciones de la serie, cuando se trata de discernir entre
varios modelos nos quedaremos con aquel que posea el R2 más alto.
703
Criterios Primer modelo: ARIMA Segundo modelo:
2,1, 2) SARMA
(2,2,1)
704
CAPITULO XII.- MODELOS DINAMICOS: DE VECTORES AUTORREGRESIVOS
(VAR) Y VECTORES DE ERRORES CORREGIDOS (VEC), COINTEGRACION y
PRONÓSTICO.
12.1. Los modelos VAR: VECTORES AUTORREGRESIVOS.
Son una generalización al campo multivariante de los modelos autorregresivos
univariantes AR de Box y Jenkins. En sus versiones modernas (modelos VARMA)
tienen un planteamiento similar a los modelos multvariantes de funciones de
transferencia (Pérez, 2006).
Gujarati (2003:823) señala que se parecen a los modelos de ecuaciones simultáneas
porque trabajan varias variables endógenas a la vez, donde cada una de ellas es
explicada por sus valores pasados o rezagados y por los valores rezagados del resto de
las variables que componen el modelo.
Su utilidad se debe a que sirven para hacer predicciones. Sus antecedentes se
localizan en modelos desarrollados con el Sistema de Ecuaciones Simultáneas, SES,
como también en la recomendación de su precursor Christopher Sims de que para
que haya verdadera simultaneidad entre las variables a todas se les debe de tratar por
igual, y que por ende no debe existir ninguna distinción apriorística entre las variables
endógenas del modelo. Sus recomendaciones también se derivan del desarrollo previo
que hizo Granger de la prueba de causalidad, en la que no hay variables exógenas en
este sistema de ecuaciones.
Al respecto, debe indicarse que el término autorregresivo aquí se refiere al uso del valor
rezagado de la variable dependiente en el lado derecho de la ecuación; igualmente, el
término vector es indicativo de que se están manejando dos o más variables
cuyos valores se autodeterminan simultáneamente: influencia recíproca.
(Gujarati, 2004: 823)
Un caso típico de estos modelos es cuando se estima la influencia recíproca entre las
variables, es decir, la causalidad de una sobre la otra y viceversa; en este caso las U t
también como en ejemplos anteriores son los términos de error en cada ecuación del
SES, pero aquí se les denomina impulso, innovaciones o choques pasados (Pérez,
2006:503).
Para estimar el valor de los estimadores del SES con puras variables endógenas, que
aparecen como “exógenas” en el lado derecho de las ecuaciones con sólo valores
rezagados, antes es necesario determinar la longitud del rezago K, determinación que
generalmente es empírica , sabiendo de antemano el experto que usar muchos valores
rezagados consume demasiados grados de libertad y es posible que surja la
multicolinealidad y, que, cuando se incluyen pocos rezagos puede incurrirse en errores
de especificación.
En ese sentido la opción técnica para determinar la longitud del rezago es utilizar los
705
criterios de AKAIKE y de SCHWARZ y seleccionar entre ellos dos el de menor valor;
acompañado de un alto valor del coeficiente de determinación. Como se intuye, en
cierta forma la determinación de la longitud del rezago k es una prueba de ensayo y
error. Algunos estudiosos sugieren que se use un número de rezagos equivalente a un
tercio del total de observaciones que tiene la serie temporal.
Cuando se usa Eviews para calcular con MCO los parámetros del SES, que con
propósitos ilustrativos digamos que corresponden a la ecuación de la oferta monetaria
(Mt) y la tasa de interés (Rt), que cuando actúan como “exógenas” en el lado derecho
de cada una de las dos ecuaciones, sus valores correspondientes son términos
rezagados. Así, al especificar las variables oferta monetaria (Mt) y tasa de interés (Rt),
cada rezago se especifica así: Mt-1 , Mt-2, …….., Mt-k) y Rt-1, Rt-2,……….., Rt-k .
Lo anterior visto como un proceso autorregresivo (AR) en opinión de Gujarati (2004:
825) se representa así:
Sea la serie temporal Yt del PIB en el periodo t, de manera que si la modelamos como
(Yt – )=α1 (Yt-1 – ) + Ut;
En este caso se dice que Yt sigue un proceso estócástico regresivo de segundo orden
o AR(2). Esto en otras palabras indica que el valor de Y t en el periodo t depende de sus
valores en los dos periodos anteriores más Ut.
Señala que en general
(Yt – )= α1 (Yt-1 – ) + α2 (Yt-2 – ) +….. αk (Yt-k – ) + Ut
706
Si después, con fines comparativos se corre el modelo SES con MCO y VAR
considerando un número diferente de rezagos de cada variable, entonces el
investigador dispondrá de resultados con MCO y VAR, ¿Cuál usará para predecir? La
elección se hará con base en los valores que tengan las estadísticas calculadas, por
ejemplo con Eviews. Por consiguiente, en el caso de los criterios de AKAIKE y
SCHWARZ escogerá aquel de los criterios que proporcione los valores más bajos de
los dos; igualmente, en el caso de las varianzas, seleccionará el modelo que tenga una
menor varianza, etc.
En opinión de Pulido et al, (1999, 178): “ Estrictamente hablando los modelos VAR
típicos no deben incluir variables exógenas, excepto que estas sean de tipo trivial,
término constante, tendencia, variables ficticias, etc. No obstante Eviews admite la
inclusión de cualquier tipo de variable exógena, estimándose entonces un modelo
híbrido VAR-Estructural.
707
de cada variable en cada ecuación del SES. Ejemplo, supóngase que se tiene un
modelo VAR de cuatro variables endógenas y se decide que cada una de ellas sea
rezagada seis veces en cada ecuación. El resultado es que se tendrán 24 parámetros
rezagados en cada ecuación, y si le agregamos el término constante, la ecuación
contará con 25 parámetros para su análisis e interpretación correspondiente, situación
que hace engorrosa su manipulación económica sobre todo cuando se alternas los
signos de los coeficientes; además de que estadísticamente ello consumirá
demasiados grados de libertad con las consecuencia que ello acarrea.
d).- Si en un modelo VAR la condición es que todas las variables sean estacionarias
en forma conjunta, cuando no es el caso la información deberá transformarse
apropiadamente, digamos diferenciándola. Ello en opinión de Harvey (Gujarati,
2004:827) no siempre produce resultados adecuados; también comenta que cuando el
modelo VAR contiene variables I(0) y I(1), variables estacionarias y no estacionarias, la
transformación de ellas no es tarea sencilla.;
e).- Los coeficientes individuales estimados no son fáciles de interpretar en virtud de
que estos analistas usan frecuentemente la llamada función de impulso- respuesta
(FIR),que se basa en el estudio de la respuesta de la variable endógena ante shocks en
las Ut.
f).- Gujarati en particular (2004:827) termina sugiriendo que el investigador analice
también “otras técnicas de predicción” y generaliza señalando que no existe ningún
método perfecto que se aplique apropiadamente en todas las situaciones, dado que
todos tienen ventajas y desventajas en su aplicación casuística.
g).-Finalmente y derivado de lo anterior con el fin de dar a conocer otro método de
predicción que amplía el acervo ya existente, este autor introduce los modelos ARCH y
los GARCH cuya aplicación sugiere se haga en el estudio de las series temporales
financieras ( precio de las acciones, tasas de interés, de inflación y de cambio, etc.).
Una de las características de estos modelos es que la varianza de Ut posiblemente esté
correlacionada en el tiempo por la acumulación de la volatilidad que tienen estas
variables debido a su naturaleza altamente cambiante en periodos cortos de tiempo. En
resumen es pues una opción más para hacer planeación al predecir el valor de una
variable en el tiempo.
XII.2.-Los MODELOS VEC: MODELOS DE CORRECIÓN DE ERROR.
Tienen VEC como acrónimo de sus siglas en inglés; MCE, acrónimo de sus siglas en
español, significa: Modelo de corrección del error.
Estos modelos son una particularidad de los VAR, son modelos con vectores de
cointegración (Vector Error Correction) cuyas características básicas abordaremos para
propósitos didácticos de la manera siguiente:
En principio diremos que el Instituto L.D. Klein los ubica (UAM, 2004) dentro de las
técnicas de predicción, es decir en el ámbito de los modelos VAR cuya sustentación
708
emana en parte de la metodología de Box & Jenkins que hizo posible la modelización
univariante de series de tiempo; mismas que al pronosticarles sus valores futuros
suponemos que son estacionarias. Al respecto, ahora es conveniente decir que
cuando inicialmente se corre una regresión con MCO de variables no estacionarias se
corre el riesgo de obtener correlaciones espurias pero; sin embargo, aquí surge la
excepción a la regla anterior, si las series de tiempo no estacionarias son
cointegrables, al verificarse que si son cointegradas, enseguida al realizar su regresión,
se elimina la correlación espuria entre ellas y, algo adicional muy importante, se obtiene
mucha información sobre sus relaciones de equilibrio en el largo plazo. Esto último es
muy importante cuando se manejan variables económicas ya que fundamenta su
planeación a largo plazo.
En este contexto es que aparecen los modelos VEC como una particularidad de los
VAR, restringidos usualmente a dos variables; se utilizan para modelar series
temporales que son no estacionarias pero que se sabe que son cointegradas, tal que al
correr su regresión se obtienen los dos beneficios apuntados en el párrafo anterior.
Derivado de lo anterior, el investigador al correr los modelos VAR sabe que logrará
una relación de equilibrio de las variables económicas en el largo plazo, pero también
está consciente de que en el corto plazo pueden existir desequilibrios entre ellas. Aquí
surge la conveniencia de utilizar los modelos VEC ya que la proporción del
desequilibrio también llamado error( dispersión de los términos de las series
temporales de la ruta de equilibrio a largo plazo)observado en el corto plazo se corrige
gradualmente mediante ajustes parciales en ese lapso, con los modelos VEC; esa
es la razón por lo que en español se les llame modelos MCE: Modelos de corrección
del error, dado que reencauzan el alejamiento o variación de sus términos del corto
plazo hacia la ruta de equilibrio a largo plazo.
En este sentido también es interesante decir que Pérez (2006:635) con un ejemplo
numérico en que usa Eviews deriva el VEC de un VAR, con una interpretación
ampliada con respecto a lo que antes explicó el Instituto L.D. Klein tanto en el sentido
estadístico como en el económico.
Así, partiendo de un VAR se usan los modelos VEC para conciliar el equilibrio de las
variables económicas en el corto con el largo plazo; la condición es que ellas estén
cointegradas, situación que se verifica con la Prueba de Johansen y cuya aplicación
ilustraremos en los ejercicios siguientes. Mientras tanto conviene profundizar en el tema
señalando que Engle y Granger (1987) consideran que una combinación lineal
de dos o más series no estacionarias puede ser estacionaria mediante el proceso de
diferenciación. La combinación estacionaria puede interpretarse
como la cointegración o equilibrio de la relación entre las variables. Se reitera que un
modelo VEC es un modelo VAR restringido habitualmente a dos variables. El
planteamiento del VEC restringe la especificación del comportamiento de largo
plazo de las variables endógenas a converger a su relación de equilibrio de largo
plazo y permiten la dinámica de corto plazo.
709
En este sentido conviene citar el ejemplo del Dr. Anyul Insel ( 2007): Téngase en cuenta
la relación entre el consumo y los ingresos en un simple modelo de corrección de
errores:
Donde u1t y u2t son perturbaciones de ruido blanco, θ1 , θ2 representan la velocidad con
que se ajustan los valores de las las variables C t y Yt las cuales son dos variables
endógenas; λ es el corrector en el corto plazo . También, θ 1, θ2 y λ son parámetros
positivos como están denotados en las ecuaciones (1) y (2). El término de
cointegración (Ct-1 - λYt-1) es el término de corrección de errores puesto que la
deviación del equilibrio de largo plazo está gradualmente corregido a través de ajustes
de corto plazo. Así, como se ha venido reiterando, en un modelo de corrección de
errores, la dinámica de corto plazo de las variables en un sistema está influenciada por
las desviaciones de equilibrio de largo plazo.
También cuando θ 1=0 ó θ2 = 0, se dice que no hay relación de causalidad entre las
variables cointegradas.
710
XII.3.-COINTEGRACIÓN (Granger).
Como se indicó, los conceptos antes expuestos ahora sirven como referencia para
introducir otros más, así como para que con su uso conjunto ahora nos permitan
profundizar en el estudio de la relación lineal de dos variables o series temporales,
digamos Yt , Xt .
XII.3.1.- Significado
Al respecto, se habla de cointegración cuando existen dos series que no son
estacionarias pero que están relacionadas linealmente, de manera que si les sacamos
sus primeras diferencias las hacemos estacionarias y decimos que están cointegradas.
Esta estacionariedad le da estabilidad a su variación conjunta en el tiempo, situación
que fundamenta la relación de equilibrio de sus variaciones en el corto con el largo
plazo. En otras palabras, esta teoría y su metodología proponen la solución al
problema de integrar la dinámica a corto plazo con el equilibrio a largo plazo, de dos
variables en estudio. Para ello antes es esencial verificar que las dos series están
cointegradas.
XII.3.2.- Pruebas que se hacen para verificar si existe cointegración de X t con Yt,:
a).-Las pruebas de raíces unitarias son para verificar que Yt , Xt . sean I(1):
cointegración de primer orden.
b).-Se aplica la regresión de Yt sobre Xt y viceversa y se considera U y ˆx
c).- Enseguida se aplican las pruebas de raíces unitarias sobre U .
d).- Cuando ρ tiende a 1, ello indica que U tiene raíz unitaria y hace suponer que no
existen relaciones de cointegración entre Yt , Xt , por lo que no se identifican
relaciones estables entre ellas en el largo plazo.
e).- Como antes se indicó, también se usa la prueba de Johansen
Así si Xt, y Yt son cointegrables U y ˆx es I(0). Si no lo son, U será I(1). Como
las pruebas de raíces unitarias se aplican sobre U, la H 0 es que existe una raíz unitaria,
luego en las pruebas de cointegración las H0 y Ha son:
H0: U tiene una raíz unitaria ó ρ tiende a 1: Xt ,y Yt no son cointegrables.
Ha: Xt y Yt son cointegrables ó ρ tiende a 0, Xt ,y Yt son cointegrables.
Como U no es observable se utiliza el residual estimado e al cual aplican las
pruebas de ADF para probar la raíz unitaria en U ; cuando existe más de una raíz
unitaria se usa la prueba de Johansen (Maddala 1996,pág. 673-676).
XII.3.3.- Propiedades
711
a).Esta metodología se aplica en el análisis conjunto de dos o más series
integradas, que tienen la propiedad de que su primera diferencia puede ser
estacionaria. Dicha propiedad se conoce como cointegración (Granger, 2003). Ejemplo
, dos series suaves pueden moverse y evolucionar de manera similar aunque no
idéntica en torno a un parámetro determinado (µ), en ese caso se dice que son
estacionarias porque la distancia que las separa, es decir su diferencia con respecto a
µ es más o menos constante ( estable). Luego la cointegración es el procedimiento
mediante el cual la diferencia entre dos series integradas (no estacionarias) puede
hacerse estacionaria, es decir, moverse con cambios constantes, no abruptos alrededor
del parámetro µ. Algo semejante se dijo en el Capítulo 10 cuando la estacionariedad se
detectaba analizando las fluctuaciones de los valores de los términos de la serie
temporal en torno a la varianza.
Otras propiedades útiles e interesantes de las variables son:
b) Deben estar integradas ambas con el mismo factor oculto.
c) Puede considerarse que han sido generadas “como un modelo de corrección de
error”.
d) Cuando hay predicción con la cointegración digamos cuando sus valores se
proyectan hacia el futuro, las predicciones de las dos variables forman un ratio
constante porque los parámetros de la ecuación de regresión son lineales y constantes
(Granger, 2003). Este resultado asintótico lleva a que esta clase de modelos sea útil
porque se usa para determinar equilibrios a largo plazo.
Estas propiedades identificadas por Clive W. Granger y derivadas del análisis
conjunto de las variaciones de dos o más series, fue un gran avance dado que Box &
Jenkins propusieron métodos para hacer pronósticos de una única serie temporal
integrada a la vez.
En este sentido es que cuando se habló de una sola serie temporal, se dijo que es
estacionaria en momento uno (media aritmética) y momento dos (varianza) constantes.
Lo anterior se demuestra en el Capítulo de Momentos inserto en mi libro de “Estadística
Aplicada al Análisis Económico” (2011).
Es importante reiterar que para que haya cointegración de dos series integradas
(con un comportamiento suave durante su evolución en el tiempo), éstas deben
poseer la propiedad de que una relación lineal de ellas sea estacionaria.
Al verificar que dos variables tienen la propiedad de la cointegración, se intuye que
estas variables tienen las otras propiedades, es decir: a).- que ambas deben estar
cointegradas con el mismo factor común oculto; b).- puede considerarse que ambas
han sido generadas por el “modelo de corrección de error”, MCE, en el que las
variaciones en una de las series se explican en función de los retardos de la diferencia
entre las dos series, posiblemente después de un cambio o ajuste de escala, y los
retardos de las diferencias de cada serie.
712
Al respecto, es interesante mencionar que dicho modelo fue inventado por el
económetra DENNIS SARGAN con el fin de convertir la idea de la cointegración en
algo útil en términos prácticos. Para ello seleccionó algunas ecuaciones famosas de la
teoría del crecimiento económico y las transformó en estocásticas. Se usa mucho en la
modelización macroeconómica para simular políticas públicas, para la evaluación de
sus efectos y de sus predicciones, con indicaciones calculadas de la incertidumbre que
las rodea. En sí, plantear el análisis usando este modelo sirve para explicar y eliminar
diversas dificultades que surgen en el proceso de investigación, como es el caso de las
REGRESIONES ESPURIAS.
Granger y Engle (GE) desarrollaron el MCE con el fin de conciliar la evolución de
corto plazo de una variable económica con su evolución en el largo plazo.
Así, podemos agregar a la metodología descrita párrafos arriba, que cointegración
significa que a pesar de que dos o más series temporales a nivel individual sean no
estacionarias, su combinación lineal puede ser estacionaria. Para determinar si dos o
más series están cointegradas se aplican las pruebas (GE), (AGE), (RCDW) y (MCE),
principalmente.
Luego entonces la cointegración de dos o más variables indica que es factible que
exista entre ellas una relación de equilibrio en el largo plazo, y que si no existe esa
relación de equilibrio en el corto plazo, es decir que haya un desequilibrio en esa
relación en el corto plazo, éste, también llamado error, puede eliminarse en el corto
plazo aplicando con MCE.
Por consiguiente, la cointegración de series temporales hace que aun no siendo
ellas estacionarias en sus niveles, al diferenciarse en primer orden, se conviertan en
estacionarias.
A manera de resumen de lo anterior puede decirse que la cointegración así
entendida y aplicada, es útil en la modelización de grupos de series, lo cual significa
una superación del enfoque de Box & Jenkins que, como antes se indicó, inicialmente
sólo se interesaron preferentemente en el análisis de una única serie integrada a la vez
(Granger, 2003). Conviene aclarar que posteriormente la metodología de Box &
Jenkins fue generalizada para estudiar dos o más series a la vez mediante el desarrollo
de la metodología de los modelos VAR.
Así, con la cointegración se formulan modelos matemáticos que relacionan variables
económicas que, simultáneamente, ajustan mejor los datos disponibles de las variables.
Por su uso, destacan los modelos de planeación que hacen las predicciones a corto y
largo plazo sobre el ingreso, el desempleo, el consumo, la inversión, etc., cuyos datos
generalmente corresponden a series integradas que deben diferenciarse para hacerlas
estacionarias.
En este contexto, otra aportación de Granger es su análisis de la CAUSALIDAD,
mismo que le permite afirmar que ésta tiene dos componentes:
1. La causa ocurre antes del efecto, y
713
2. La causa contiene información sobre el efecto que es único, y no está en otra
variable.
El alcance de esta afirmación “es que la variable causal puede contribuir a la
predicción de la variable efecto después de que se hayan utilizado previamente otros
datos”. Da la impresión de que la causalidad tiene un papel fundamental en la
generalización del modelo de corrección del error, sin embargo, es cauteloso al decir
que esto pertenece todavía al terreno de la investigación que se está realizando
(Granger, 2003).
XII.3.3.1.-Características de dos o más series temporales.
1. Si ambas son estacionarias, su relación se estima con los métodos habituales:
MCO o GLM. Al respecto, utilizando el rigor técnico estadístico, se dice que una serie
temporal es estacionaria cuando su media aritmética (µ), σ 2 y Covariancia son
constantes o invariantes en el tiempo de estudio de la serie temporal.
2. Cuando las series son no estacionarias de orden distinto, no es posible estimar la
relación entre ellas.
Las series se pueden estacionarizar (lograr que la serie tenga un comportamiento
suave, regular, sin variación significativa estadísticamente a lo largo del tiempo, de
manera que sean constantes su media, variancia y covariancia) ya sea aplicando
logaritmos, diferencias o ratios con otras variables o hacer una regresión por primeras
diferencias, etc.
3. Cuando las series son no estacionarias pero están cointegradas, se puede usar,
MCO o GLM, para estimar los efectos a largo plazo y el MCE (modelo de corrección del
error) para estimar los efectos a corto plazo.
XII.3.3.2.-El modelo de corrección del error, MCE o VEC en inglés.
4.- Derivado de este último numeral y abundando sobre el MEC, diremos que éste
modelo es un modelo VAR restringido que se usa para predecir variables no
estacionarias que de antemano sabemos que están cointegradas. El VEC tiene
relaciones de cointegración construidas dentro de la especificación que éste restringe el
comportamiento en el largo plazo de las variables endógenas a que converjan a su
relación de cointegración, en tanto que permite ajustes dinámicos en el corto
plazo: (Users Guide EViews 4.0, página 733).
Cuando se comprueba que están integradas las variables del mismo orden, se elimina
la posible existencia de una relación espuria entre ellas, relación que además es
estacionaria, i.e., que vincula el equilibrio de las variables económicas en el corto y en
el largo plazo ( Pérez, 2008: 91).
714
Por lo antes expuesto, debemos decir que el término de cointegración también se
conoce como “término de corrección del error” dado que se corrige la desviación o
error de corto plazo gradualmente a través de una serie de ajustes parciales en ese
lapso, reencauzando así las variaciones ya ajustadas hacia la senda de equilibrio en el
largo plazo.
Para ilustrar lo anterior, tomemos el ejemplo de un sistema de dos ecuaciones con una
ecuación de cointegración sin términos rezagados ni diferenciados. La ecuación de
cointegración es ( Pulido et al, 1999: 390):
Y2t = βY1t
La cual indica que la relación de equilibrio entre las variables sólo se cumplirá a largo
plazo. Al respecto, β es el término de corrección del error.
Como puede observarse en este modelo sencillo pero ilustrativo muestra a β en el lado
derecho de la ecuación, que en equilibrio de las dos variables en el largo plazo es igual
a cero; sin embargo, si Y1 e Y2 se desvían del equilibrio en el largo plazo, β toma
valores distintos de cero y cada variable se ajustará parcialmente hasta restablecer la
relación de equilibrio entre ellas. Aquí los coeficientes a1 y a2 miden o expresan la
velocidad de ajuste de cada variable endógena hacia el equilibrio.
Comentarios:
715
a).- La cointegración da sustento estadístico e interpretación económica al concepto de
equilibrio, útil para la formulación del MCE, dado que la conecta con el concepto de
equilibrio estadístico como con las variaciones en torno al mismo en el corto plazo;
b).- La modelización del equilibrio del corto con el largo plazo en cierta manera resuelve
el debate relativo al uso de variables en niveles o en diferencias, ya que una forma de
estacionarizar una serie no estacionaria es “diferenciándola” tantas veces como sea
necesario para hacerla estacionaria. Como se recordará, cuando se vio la metodología
de Box & Jenkins, este método ha sido criticado porque elimina datos de largo plazo
que pueden ser de utilidad para el investigador. Por lo que una opción son los modelos
dinámicos, uno de los cuales es el MEC.
c).- Esta vinculación de la cointegración entre las variables endógenas con su orden
de integración, reduce o evita la existencia de la relación espuria entre ellas (Luego
entonces cuando no integran, decimos que su relación es espuria). Además de que el
análisis de cointegración entre series temporales no estacionarias permite distinguir
entre las tendencias deterministicas y estocásticas, así como sus respectivas
aplicaciones en la inferencia estadística (Pérez, 2008:93)
4.- Se debe tener cuidado en la interpretación de los resultados, ya que por ejemplo
si la evidencia empírica muestra que las variables de la ecuación de regresión tienen
una media y una varianza que no son constantes a través del tiempo, ello significa que
no son estacionarias, situación que obliga a usar métodos econométricos especiales
como la ADF (prueba de raíces unitarias de Dickey y Fuller Aumentado).
716
XII.3.4.1.-Modelo de Largo Plazo
Cuando las series de variables son estacionarias, el marco natural de análisis es de
COINTEGRACIÓN: se específica un modelo VAR sin restricciones de acuerdo con el
procedimiento de Johansen. Estos vectores se interpretan como relaciones de equilibrio
de largo plazo entre el conjunto de variables bajo estudio. Las principales pruebas
estadísticas en el VAR son: La Correlación serial (LM), heterocedasticidad (ARCH), F,
la prueba de normalidad Jarque-Bera X y la de White. X, al igual que el análisis de
correlación entre los valores actuales y estimados.
XII.3.4.2.- Modelo de corto plazo.
Su construcción es para conocer la dinámica de ajuste de la variable dependiente. Para
ello se usa el teorema de Granger (Eagle y Granger) que utiliza el vector de
cointegración obtenido anteriormente, como mecanismo de corrección de errores
(VEC) en el procedimiento de lo general a lo específico (Hendry). Al analizar los
resultados del modelo se puede conocer si los parámetros de la ecuación son
estadísticamente significativos con cierto nivel de α, el uso de variables dicotómicas,
etc., es decir se hacen pruebas de diagnóstico: autocorrelación, heterocedasticidad,
normalidad, R2 y error cuadrático medio. Si las pruebas son satisfactorias se puede
decir que los datos del modelo permiten predecir adecuadamente la variable
dependiente.
XII.3.4.3.- ¿Cuál es la relación entre los modelos de corto y largo plazo?
Es la estabilidad que se logra de las fluctuaciones en el tiempo de las variables que los
integran, misma que permite hacer planeación objetiva para escenarios con diferentes
horizontes temporales. Su diferencia está en el horizonte temporal de planeación; es de
corto plazo si es menos de un año; es de largo plazo, si es mayor a un año.
METODOLOGIA DE COINTEGRACION
717
En este contexto decimos, como se indicó en el marco teórico de esta tema, que la
mayoría de las series económicas temporales son no estacionarias, por lo que suele
decirse que pueden contener una raíz unitaria (Pulido et al, 1999: 388), por lo que son
integradas de orden 1, indicando que en su comportamiento histórico muestran una
pendiente creciente o decreciente, situación que no ayuda a pronosticar su evolución
satisfactoria en el tiempo y exige un estudio detallado sobre cómo eliminarla. También
vimos que una serie temporal es estacionaria cuando su media y varianza no son
afectadas por el tiempo. Cuando si es afectada, se le denomina serie no estacionaria.
Al respecto, dijimos en el marco teórico que un ejemplo de esta última es MCA: modelo
de caminata aleatoria, que con literales se expresa así: Yt = Yt-1 +εt las cuales
significan lo siguiente: Y es la serie temporal no estacionaria; Yt-1 es ella misma
rezagada un periodo y ε es el término aleatorio de error con ruido blanco, lo cual indica
que este último no contiene autocorrelaciones y por eso es estacionario. En ese
sentido la serie Y conviene decir que tiene un valor constante de predicción, sujeto al
tiempo y que su varianza es creciente con el devenir del mismo. También se indicó que
el MCA es una serie estacionaria diferenciada en virtud de que la primera diferencia de
Y es estacionaria y se expresa así:
Yt - Yt-1 = ( 1 – L) = εt
En ese sentido decimos que una serie diferenciada estacionaria se denomina integrada
de orden d y se expresa con I(d) donde d por consiguiente, representa el orden de
integración, entendiendo por éste el número de raíces unitarias que contiene la serie
Yt o, dicho en otra forma: es el número de operaciones de diferenciación que
debemos de realizar para que la serie temporal se transforme en estacionaria. Así,
decimos para el MCA antes señalado que hay una raíz unitaria, que es una serie
integrada de orden 1,I(1). En este contexto también dijimos que una serie estacionaria
será de orden 0, I(0). Luego una serie temporal Yt no estacionaria es integrada de
orden d y se indica como Yt tiende a I(d) podemos convertirla en estacionaria
diferenciándola d veces. Por su importancia y uso sucesivo que tendrán, es conveniente
decir que Granger y Engle (1987) tipificaron o caracterizaron las series I(0) y I(1) de la
siguiente manera:
718
En el ejercicio anterior también indicamos que las pruebas para detectar si la serie es
estacionaria, son los informales (gráfica y correlograma) y los formales ( DF, ADF y PP).
Cointegración.
En este contexto es que Granger y Engle (1987) comentan que una combinación lineal
de dos o más series no estacionarias, puede ser estacionaria. Luego si existe una
combinación lineal de dos o más series que es estacionaria, i.e., I(0), se dice que las
series no estacionarias, con una raíz unitaria, mismas que dan lugar a esa combinación
lineal, están cointegradas.
Por otra parte pero en conexión con el tema, es conveniente reiterar que un modelo de
corrección de error (MCE) o vector de corrección del error (VCE) es un modelo (VAR)
restringido por lo general, a dos variables, que se utiliza para predecir series no
estacionarias pero que se sabe ( como en el caso anterior) que son cointegradas.
Señala Pulido et al que la especificación de un VEC restringe la evolución de las
variables endógenas en el largo plazo, con objeto de que converjan a sus relaciones de
719
cointegración, en tanto que admite “un amplio espectro de dinamicidades a corto
plazo”. Luego entonces el concepto de cointegración en ese sentido, debe interpretarse
como una corrección del error, entendiendo por error la desviación de los valores de las
variables respecto al equilibrio a largo plazo, misma que se corrige paulatinamente por
medio de ajustes parciales en el corto plazo. Ejemplo algebraico de la creación de
una ecuación de cointegración considerando dos variables: Y1t , Y2t , sin término de
diferenciación alguno y sin incluir valores retardados de ellas en el lado derecho de la
ecuación, aun cuando por lo general siempre se incluyen las variables endógenas
retardadas: Y1t -1, Y2t -1.
Así, la ecuación de cointegración (Pulido et al, 1999: 390) es: Y2t = βY1t. La cual indica
que la relación de equilibrio entre las variables sólo se cumplirá a largo plazo. Al
respecto, β es el término de corrección del error.
Luego el error (desviación) a ir corrigiendo gradualmente es: Y2t - βY1t por lo que el
vector de corrección del error (VCE) será:
ΔY1t = a1((Y2t -1 - β*Y1t -1) + ε1t , en la que Δ en las dos ecuaciones significa variación;
ahora digamos por consiguiente que la segunda ecuación es:
Obsérvese que: a).- β, el corrector del error aparece en ambas ecuaciones y b).- que
β está al lado derecho de la ecuación. En el equilibrio a largo plazo β toma el valor de
cero, pero si Y1 y Y2 se desvían de ese equilibrio, β ≠ 0 y cada una de esas variables
se ajusta parcialmente para restablecer la relación de equilibrio. Ahora diremos que a1 y
a2 representan la velocidad con que se ajusta gradualmente en el corto plazo la
desviación incurrida en el largo plazo.
1.- Para la construcción de la ecuación hemos supuesto que las dos variables
endógenas Y1 y Y2 tienen una media distinta de cero y que la ecuación de integración
no tiene un término independiente (por eso no aparece en la ecuación).
2.- Sin embargo, por otra parte conviene decir que también puede suponerse que estas
dos variables endógenas no tienen tendencia pero que, ahora si, la ecuación de
cointegración tiene un término independiente (µ). En este modelo, el vector de
corrección del error, VEC, se representa así:
720
3.- Otro supuesto interesante para la construcción de la ecuación de cointegración en
un modelo VEC puede ser: que considere que las dos variables endógenas presenten
tendencia y un término constante (δ), luego el VEC se expresará así:
4.- Puede haber otro tipo de supuestos a considerar para construir la ecuación de
cointegración, mismos que por consiguiente, cambiarán las ecuaciones del VEC.
5.- Eviews está diseñado para calcular la ecuación de cointegración con varios de los
supuestos anteriores.
721
Cuadro 12.3.4.4.1. Creación de base de datos en Eviews.
X: M:
Exportaciones Importaciones
5811 7146
6060 8614
6263 9442
6726 10092
8156 10741
8132 12010
6989 12067
7834 12534
7018 11112
7709 10232
8038 8413
8207 7105
7547 5908
8116 6707
8270 7236
8996 7218
9769 7595
9502 8258
9288 8997
9271 8797
9245 9071
8379 8901
9110 8796
9124 8291
7517 7917
7342 8194
7025 7659
8043 7531
8720 7342
9549 8026
9403 8872
9697 8890
10339 9580
10749 10713
10343 11797
10664 12382
11697 12727
12347 13618
11708 13770
12351 13810
13122 15313
12469 14128
14204 15982
16276 18100
722
13391 15534
14807 18659
14606 18764
15283 19777
14460 19612
15467 21365
15484 22339
16257 22792
15628 21289
16952 22597
16683 23349
18489 23916
18062 24843
19406 26882
19461 27369
21443 28939
23017 24372
24056 23700
24413 24864
25543 25671
26626 26790
28417 28162
29104 29969
31169 32904
30415 30635
32659 33843
33334 35924
34910 38581
33704 36983
35476 38868
34207 38921
36762 41369
35424 39062
39268 42134
40821 43969
43397 47694
44326 49256
47463 50949
49489 53512
51598 57843
46942 51718
47806 51382
45788 49111
45630 51653
43356 47115
48427 51287
48090 51317
723
48267 52558
46400 48711
47911 49708
49427 51270
51653 54274
51683 53170
57264 56798
57071 58313
58886 63218
56750 59310
64774 64869
64802 65271
70192 72275
69935 69407
75941 75804
74990 75685
76070 78271
72625 74984
79966 81477
82752 83751
86569 87513
82609 84099
92093 94110
Con los datos anteriores de las dos series temporales, iniciemos el proceso, cuyo
primer paso es detectar la estacionariedad de ellas.
1.- Informales:
724
Cuadro 12.3.4.4.2 Procedimiento para obtención de gráfica.
a) Gráfica para X:
Como puede observarse, existe una tendencia creciente, lo cual revela que conforme la
serie evoluciona en tiempos sus términos se alejan de la media aritmética de los
mismos y por consiguiente no tienen varianza ni covarianza constante. Es posible que
sus valores deambulen en el tiempo como una caminata aleatoria, de ahí que no
725
garanticen constancia en su comportamiento histórico y qué no constituyan una base
sólida para proyectarlos al futuro.
Una vez realizada la operación anterior, se especifican las cualidades que contendrá el
correlograma, en este caso se seleccionan los niveles y los rezagos a incluir son 36.
726
Cuadro 12.3.4.4.4 Especificación de correlograma.
b) Tabla de correlograma:
727
están próximos a 1 propiciando con ello perturbaciones que aparecerían en caso de
que sus valores fueran proyectados. Las Q tienen una probabilidad de cero indicando
la no estacionariedad. Luego entonces grafica y numéricamente hay congruencia y por
ello es que rechazamos Ho y aceptamos Ha: Yt es no estacionaria porque la
probabilidad asociada a Q es menor que α=5%;
a).- ADF
Con el fin de realizar dicha prueba se retoma la serie “X” desde el workfile o base de
datos, a continuación se abre la serie, en seguida se abre la opción view y del submenú
se selecciona unit root test. Los pasos anteriores se ilustran en el siguiente cuadro.
Y aparece un cuadro cuyo título es “Unit Root Test” que nos pregunta sobre el test a
realizar, le decimos que “Augmented Dickey-Fuller/ en él seleccionamos “ level” y “
Trend & Intercept”, dejando igual los datos que Eviews por default incluye/ ok y aparece
el siguiente cuadro:
728
Cuadro 12.3.4.4.6: Raíz Unitaria Prueba Dickey-Fuller Aumentada.
729
Planteamiento de las hipótesis:
Ho. Yt tiene raíz unitaria, luego es no estacionaria; su probabilidad debe ser mayor que
α=5%; Además, el valor ADF que corresponde a la estadística t de Student para X debe
ser menor en valor absoluto en todos los niveles de significación (1%,5%, 10%) que los
sugeridos por McKinnon.
Ha: Yt no tiene raíz unitaria, luego es estacionaria; su probabilidad debe ser menor que
α=5%; Además, el valor ADF que corresponde a la estadística t de Student para X debe
ser mayor en valor absoluto en todos los niveles de significación (1%,5%, 10%) que los
sugeridos por McKinnon.
730
Verificación de las hipótesis: Al ser el valor t= 0.512757 de ADF menor en valores
absolutos en todos los niveles de significación (1, 5 y 10%) sugeridos por MacKinnon,
ello indica que: aceptamos Ho, es decir, la serie X es no estacionaria, por tanto, tiene
raíz unitaria. Asimismo, la probabilidad asociada a t de ADF es mayor a 0.05 lo que
indica la no estacionariedad de X.
Seguimos las mismas indicaciones que en el caso anterior, pero ahora cuando el
cuadro nos pregunta sobre el tipo de test a realizar le decimos que el de Phillips-Perron,
dejando igual el resto de datos que por default aparecen:
731
Cuadro 12.3.4.4.9: Análisis de Regresión de la prueba Prueba Phillips-Perron.
Interpretación: decimos que aceptamos la Ho, que la serie tiene raíz unitaria y por ello
X es no estacionaria. El resto de las estadísticas utilizadas para decidir la
estacionariedad de la serie muestran relaciones similares a las descritas con ADF, de
ahí que concluyamos que la serie es no estacionaria.
732
Verificación de la no estacionariedad de M
a) Gráfica:
b) Correlograma:
Tabla 12.3.4.4.2: Correlograma de las Importaciones.
733
Interpretación similar a la serie X: M es no estacionaria.
a).-ADF:
734
Cuadro 12.3.4.4.10: Raíz Unitaria Prueba Dickey-Fuller Aumentada.
735
Cuadro 12.3.4.4.11: Análisis de regresión de la prueba Dickey-Fuller Aumentada.
736
El valor de t de ADF en valores absolutos es menor a los valores críticos al 1, 5 y 10%
de MacKinnon y su probabilidad es mayor a 0.05 lo que indica que la serie M es no
estacionaria, que aceptamos Ho: M tiene raíz unitaria y es no estacionaria.
b).- Prueba PP
737
Cuadro 12.3.4.4.4.13: Análisis de Regresión de la prueba Prueba Phillips-Perron.
738
Con base en lo anterior ahora podemos pasar a establecer la relación en el corto plazo
entre las variables. Para ello antes es conveniente averiguar con la prueba de
causalidad de Granger si existe o no causalidad entre las dos variables.
Aparecen los datos de las dos series X y M. Una vez hecho esto en la ventana que
despliega vamos a View, a continuación Granger Causality, los pasos se ilustran a
continuación.
739
Y en la ventana que despliega, por de fault el programa indica que se utilizaran 2
rezagos y aparece el siguiente cuadro:
740
En este Test se establecen las hipótesis nulas de que X no explica a M y a su vez, que
M no explica a X. Para aceptarlas necesitamos que la probabilidad asociada (α) debe
ser mayor a 5%. Como se observa es menor a 0.05 y concluimos aceptando la
hipótesis alterna: X si explica a M y M explica a X. Es decir, X si impacta o causa
efectos en M y viceversa, en el corto plazo.
Paso 2.2: Modelo VAR a partir del cual se obtendrá el VEC para el corto plazo.
En Eviews para estimar el modelo VAR vamos a Quick, en seguida Estimate VAR y se
despliega la ventana siguiente:
741
En la cual especificamos en “VAR Type” el que por default marca el programa
“Unrestricted VAR”; en “Endogenous Variables” escribimos X_M; en “Lag Invervals for
Endogenous” anotamos 1_4 porque así lo deseamos como investigadores; y el resto lo
mantenemos igual. Dichas especificaciones se observan en la siguiente ventana:
742
Luego en ese mismo cuadro vamos a la pestaña “cointegration”/aceptar, y aparece el
cuadro siguiente que contiene el modelo VAR:
C 76.17676 277.6340
(290.536) (325.359)
[ 0.26219] [ 0.85331]
R-squared 0.995426 0.994418
Adj. R-squared 0.995064 0.993976
Sum sq. Resids 2.65E+08 3.32E+08
S.E. equation 1619.361 1813.458
F-statistic 2747.624 2249.030
Log likelihood -964.2650 -976.7174
743
Akaike AIC 17.69573 17.92213
Schwarz SC 17.91668 18.14308
Mean dependent 30258.28 32443.36
S.D. dependent 23048.87 23364.28
Determinant Residual 3.12E+12
Covariance
Log Likelihood (d.f. adjusted) -1894.501
Akaike Information Criteria 34.77275
Schwarz Criteria 35.21464
Vemos que el cuadro contiene las ecuaciones de la relación entre las variables, ahora
rezagadas. El algoritmo para su determinación empezó buscando VAR, mismo cuyo
cuadro muestra los coeficientes de cada variable en su ecuación correspondiente, qué,
como se indicó, describe la especificación estructural del modelo, i.e., la relación de X y
M; dicha relación muestra los valores de X en función de sus cuatro rezagos ( valores
omitidos que corresponden a los cuatro trimestres de 1980), como de M también en
cuatro rezagos. Lo mismo sucede con la ecuación de M que la muestra en función de
si misma y de X rezagadas cuatro veces; además de su ordenada al origen (C)
correspondiente.
Reiteramos el modelo VAR al usar rezagos tiene como objetivo principal el identificar
el impacto de los valores pasados ( se omitieron los cuatro trimestres de 1980 porque
están muy lejanos e impactan menos a los valores de 2008:2) en el valor actual de las
variables, en este caso X y M. En otras palabras cualquier serie se rezaga con el
propósito de detectar el impacto de sus valores de sus últimos periodos en el valor
actual de la misma. Así, el coeficiente obtenido para X(-1), que vale 1.096537 expresa
mejor la relación del periodo n-1 con n; el coeficiente de X(-3) es -0.471570 y expresa el
impacto de X en el periodo n-3 en el valor actual de X. Ahora bien, en el ámbito de la
cointegración es importante decir que la otra variable actúa como endógena
determinando el valor de X: su valor actual está determinado por M rezagada en un
número igual de periodos (rezagos) que X. De conformidad con Carrascal, et al (2001):
los valores iníciales de X tienen menor impacto en su valor actual, de ahí que para
mejorar este último se acostumbre calcular (rezagar/omitir) su valor con respecto a los
valores cercanos al actual, ya que es más significativo su impacto que el de los valores
iniciales de la serie.
Concluimos diciendo que la relación entre X y M se expresa con los coeficientes de las
ecuaciones de cada una de ellas.
744
Al ya conocer el modelo VAR ahora podemos iniciar el análisis de la relación de X y M
en el largo plazo, mediante el siguiente procedimiento, que implica realizar antes la
prueba de Johansen que se muestra en seguida:
Para ello recuerde que econométricamente se dice que las series temporales que son
no estacionarias de orden I(1) están cointegradas linealmente si existe una combinación
lineal de ellas que mediante la primera diferencia, se conviertan en estacionarias, de
orden I(0). El vector de coeficientes que crea esta serie estacionaria (o ecuación de
cointegración) es el vector cointegrante.
Así, comencemos diciendo que sabemos que X y M son no estacionarias y que para
modelar conjuntamente su efecto en el largo plazo debemos utilizar un modelo VAR.
Así, conforme al marco teórico, recuerde que dos variables no estacionarias con
tendencia estocástica están cointegradas si se mueven juntas (ejemplo: el ingreso y el
gasto) en el tiempo y si sus diferencias son estables (es decir constantes o
estacionarias) debido a que gravitan los valores de cada una de las variables en torno a
µ y σ2 constantes.
Test de Johansen
745
las variables, tal y como se realizó en ocasiones anteriores. Una vez ahí, vamos a
View/Cointegration Test, lo que desplegará una ventana como la siguiente:
Como se dijo, este Test nos permite determinar si las variables están cointegradas y,
además, nos proporciona el número de ecuaciones de cointegración. En la vantana
anterior hay que especificar el número de retardos (Lag intervals), que para nuestro
caso es de 1 a 4. Asimismo, en “Deterministic trend assumption of test” el programa da
por default el 3) Intercept (no trend) in CE and test VAR”/Ok, obteniendo:
Date: Time:
Sample (adjusted): 1981Q2 2008Q2
Included observations: 109 after adjustments
Trend assumption: Linear deterministic trend
Series: X M
Lags interval (in first differences): 1 to 4
746
Trace test indicates 2 cointegrating eqn(s) at the 0.05 level
* denotes rejection of the hypothesis at the 0.05 level
**MacKinnon-Haug-Michelis (1999) p-values
X M
1.77E-07 -2.27E-07
4.64E-07 -4.25E-07
747
Como se observa hasta arriba del cuadro anterior, la prueba de Johansen establece las
siguientes hipótesis:
Para verificar hipótesis nula (Ho) utilizamos la estadística Trace Statistic, si es mayor al
valor crítico al 5 se rechaza la Ho; si es menor se acepta la Ho. Asimismo, el valor de
contraste (Eigenvalue) si es mayor a 0.05 se rechaza Ho, y si es menor a 0.05 se
acepta la Ho. También, Eviews nos proporciona una probabilidad asociada al
estadístico Trace, misma que si es menor a 0.05 rechazamos Ho y si es mayor la
aceptamos.
Para nuestro caso probamos primero “None” que significa que no existe ninguna
relación de cointegración entre X y M. Así, como el valor del estadístico Trace Statistic
(16.18) es mayor al valor Crítico (15.49), aceptamos la Ha, existe cointegración entre X
y M. Igualmente como su probabilidad asociada es menor a 0.05, aceptamos Ha,
también, porque el valor del estadístico Eigenvalue es mayor a 0.05, se rechaza Ho.
Se hace un planteamiento similar de hipótesis para el siguiente caso (At most 1):
Por tanto, decimos que X y M están cointegradas y que existe una relación de
cointegración entre ellas en el largo plazo, que son las ecuaciones que a continuación
calcularemos con el Mecanismo de Corrección del Error (MCE o VEC).
Prueba 1:
Prueba 2:
748
Ha: Como máximo existe una relación de cointegración entre X y M.
Interpretación de la prueba 1:
1.- Al ser el estadístico “Trace Statistic” (16.18) mayor que el valor crítico (15.49) y
como su probabilidad asociada es menor al 5% (que es 3.93%) se rechaza la Ho, por
tanto, existe relación lineal de cointegración entre ambas series. Asimismo, al ser el
valor de contraste (Eigenvalue: 0.075453) mayor que 0.05 se rechaza la Ho.
Interpretación de la prueba 2:
1.- Al ser el estadístico “Trace Statistic” (7.6334277) mayor que el valor crítico
(3.841466) al 5% se rechaza la Ho, por tanto, existe cointegración entre X y M.
Asimismo, el valor de contraste (Eigenvalue: 0.067643) al ser mayor que 0.05 se
rechaza la Ho.
Conclusiones:
1.- X y M tienen una relación lineal o equilibrio de largo plazo al estar cointegradas. La
cointegración expresa la presencia de un equilibrio a largo plazo hacia el que converge
el sistema económico a largo plazo. X y M tienen una relación lineal o equilibrio a largo
plazo al estar cointegradas, cuya ecuación se obtendrá enseguida;
2.- Dicho equilibrio se obtiene con la ecuación de un modelo VAR, mismo que establece
o expresa la relación a largo plazo de X y M y cuya característica es que siendo X y M
no estacionarias las convierte en estacionarias ( diferenciándolas una vez), por lo que la
predicción resulta más segura en el largo plazo al mostrar sus datos un comportamiento
estacionario: sus valores gravitan en torno a µ y σ 2 constantes; tal que si se alejan
gradualmente se corrige ese alejamiento a partir del modelo VAR con el Mecanismo de
Corrección del Error, MEC y por consiguiente lo anterior indica que las diferencias (
denominadas “errores”) que se presentan en las dos variables en su devenir en el
tiempo, en la ecuación de cointegración se interpretan como el “ error de desequilibrio”
( error Correction) para cada punto particular en el tiempo. Este error o diferencia se
corrige con el modelo VEC, cuya ecuación es la referencia básica y que se obtiene con
el siguiente procedimiento:
749
Una vez que hemos comprobado que X y M están cointegradas ( Pulido et al, 1999:
400) de orden 1, ahora ya podemos estimar un modelo de corrección de error (VEC),
que como se indicó en el marco teórico el error se origina en las desviaciones de
algunos de los valores de la serie con respecto a su curva con comportamiento
constante en su media y desviación estándar (es decir, se elimina o se reduce la
tendencia, creciente o decreciente, de la curva que daba lugar a una serie no
estacionaria), con base en los siguientes pasos que tienen como operación fundamental
la diferenciación de sus valores, con objeto de eliminar la autocorrelación entre los
términos de la serie y homogeneizar su valor en el tiempo.
Así, de conformidad con Pérez (2006:635) para estimar el modelo VEC en el menú
principal vamos a: Quick/Estimate VAR/Ok. Como se hizo anteriormente, y nos
desplegará una ventana como la siguiente:
750
Cuadro 12.3.4.4.22: Especificación del Tipo de Modelo VEC en Eviews.
En este nuevo cuadro, se muestra hasta arriba que existe una sola ecuación de
cointegración. Al respecto, conviene abundar sobre este punto diciendo de manera
751
reiterada que el máximo número de ecuaciones de cointegración que se puede
manejar es el número de variables endógenas menos uno; en nuestro caso es 2-1= una
ecuación de cointegración). Lo anterior en automático Eviews lo indica en “Rank:
Number of cointegrating equations”, es 1. Y en “Deterministic Trend Specification”,
seleccionamos “Linear trend in data” y en ella especificamos “intercep (no trend) in CE
and VAR”. El resto permanece en blanco/Ok., lo cual generará el siguiente cuadro que
contiene la composición de la ecuación de cointegración, misma que indica la
relación de cointegración normalizada asumiendo una relación de cointegración con
ella misma de 1.
M(-1) -1.278801
(0.11919)
[-10.7292]
C 11074.14
Error Correction: D(X) D(M)
CointEq1 -0.060054 -0.021518
(0.02620) (0.02936)
[-2.29170] [-0.73287]
752
D(M(-2)) 0.015439 -0.296073
(0.14194) (0.15903)
[ 0.10877] [-1.86175]
C 580.7010 331.3434
(213.703) (239.437)
[ 2.71733] [ 1.38384]
R-squared 0.525973 0.532119
Adj. R-squared 0.482880 0.489584
Sum sq. Resids 2.36E+08 2.96E+08
S.E. equation 1544.472 1730.458
F-statistic 12.20544 12.51024
Log likelihood -949.7455 -962.1393
Akaike AIC 17.61001 17.83742
Schwarz SC 17.85692 18.08433
Mean dependent 770.0642 764.8532
S.D. dependent 2147.752 2422.139
Determinant Residual 2.80E+12
Covariance
Log Likelihood -1860.897
Log Likelihood (d.f. adjusted) -1871.386
Akaike Information Criteria 34.74102
Schwarz Criteria 35.28423
Por otra parte, en lo que se refiere al grado de relación que existe entre las dos
variables ( dentro de cada ecuación, dado que son endógenas) expresado, por R 2 ,
vemos que a diferencia del modelo VAR donde esta estadística refleja valores muy
altos de asociación mutua ( alrededor del 99% ), aquí con el VEC dicha relación es
mucho más baja ( 52.9 % en la primera ecuación y 53.2 % en la segunda), sobre todo
en lo que se refiere a la R2 ajustada (48.2% y 48.5% respectivamente). Ello en
opinión de Pulido et al no debe sorprendernos mucho. ¿ A qué se debe? ¿ Cómo se
interpretan en VAR y en VEC los R2 ?
753
Aquí los valores bajos de estos dos coeficientes indican que no hay autocorrelación
entre sus términos. De igual manera, al no haber autocorrelación es un indicio de que
con VEC ésta se eliminó por medio de la “primera diferencia” aplicada a los valores
rezagados; esta autocorrelación no se había eliminado con VAR puesto que nada
más los rezagó. Esto es muy importante porque ahora los valores proyectados estarán
“limpios”, libres de toda contaminación cronológica y serán estacionarios, i.e., cuando
se alejen de la media, siempre serán corregidos con el VEC y tenderán a gravitar a su
alrededor, tendrán, por consiguiente, una σ 2 y covarianza constantes.
Derivado de lo anterior es que puede decirse que a diferencia de un modelo VAR, con
el VEC se realizan ajustes en el corto plazo que mejoran las proyecciones a largo plazo
porque la relación entre las variables se vuelve estacionaria tal que los datos
proyectados muestran un comportamiento estable en torno a µ y σ 2 constantes. Luego
754
entonces enseguida se procede a la obtención de las ecuaciones de X y M que nos
permitirán proyectar sus valores a futuro.
A cada una de ellas le vamos a dar valores, por ejemplo, para la ecuación 1 le
sustituimos los valores originales de M, y para la ecuación 2, los valores de X. Para ello
vamos a utilizar Excel para crear las series o variables relacionadas, mismas que
pasaremos a Eviews para su posterior graficación, a la ecuación uno llamémosle X1 y a
la ecuación 2, M1. Una vez generadas, en el Workfile seleccionamos el grupo en donde
ambas están capturadas o en su caso seleccionamos una a una y vamos a
Quick/Graph/XY line/, y en el cuadro que despliega decimos que Ok., con lo cual
obtendremos la gráfica de relación de cointegración ente X1 y M1:
755
Como puede observarse, la curva tiene pendiente positiva lo cual corrobora la teoría de
que al aumentar el valor de una variable (X1) su valor influye de manera positiva en la
otra (M1), es decir, que de conformidad con los registros de INEGI se detecta que para
poder exportar siempre ha sido necesario importar (insumos, materias primar,
maquinaria y equipo, etc.), esto se corrobora de manera contundente en el caso de la
Industria Maquiladora, que importa prácticamente todo, que por ejemplo en 2006 fueron
responsables del 45% de las exportaciones del país.
Ahora bien conviene decir que partiendo del cuadro anterior la corrección (conciliar el
corto con el largo plazo) del error sigue el siguiente proceso: la variable original, X
(que también puede ser M) es sometida en primer lugar a un rezago, en seguida es
diferenciada una vez y rezagada 1, 2, 3 y 4 veces, misma que al estar cointegrada con
M, ésta también es sometida al mismo proceso e incluida en la misma ecuación (D(X).
Similarmente para M se sigue el mismo procedimiento de X. Ello se debe a que
necesitamos dos ecuaciones para predecir ambas variables.
756
Cuadro 12.3.4.4.25: Ecuaciones del Modelo VEC.
Obsérvese que los procesos de las ecuaciones para D(X) y D(M) primero se describen
con literales (VAR Model) y luego con los valores de esas literales (VAR Model –
Substituted Coefficients).
El cuadro anterior generado con Eviews para el modelo VEC, muestra hasta arriba que
la ecuación de cointegración es:
X(-1)=1.00
De manera que al generar las ecuaciones D(X) y D(M) vemos que cada una de ellas
está constituida por los siguientes términos:
757
1.- Para D(X):
Observaciones:
iii).- a2 = +11074.13752;
iv).- Los términos de i,ii, iii, producen el equilibrio a corto plazo a la velocidad indicada
por los valores de a1 y a2 reduciendo o corrigiendo las desviaciones (errores) de los
términos de la serie X con respecto a µ, usando el corrector del error β, con objeto de
que dichos términos tiendan hacia µ de dicha serie de X, es decir: - 0.06005409622*(
X(-1) - 1.278801088*M(-1) + 11074.13752 ).
v).- Derivado de lo anterior decimos que el resto de los términos de D(X) producen el
equilibrio a largo plazo, mismo que se logra rezagando y diferenciado los términos de X,
es decir: + 0.1639451205*D(X(-1)) + 0.16961291*D(X(-2)) - 0.337485587*D(X(-3)) +
0.5976770003*D(X(-4)) - 0.2906096476*D(M(-1)) + 0.01543856127*D(M(-2)) +
0.1153728258*D(M(-3)) - 0.1644833507*D(M(-4)) + 580.7010363.
Observaciones:
iii).- a2 = +11074.13752;
iv).- Los términos de i,ii, iii, producen el equilibrio a corto plazo a la velocidad indicada
por los valores de a1 y a2 reduciendo o corrigiendo las desviaciones (errores) de los
términos de la serie M con respecto a µ, usando el corrector del error β, con objeto de
758
que dichos términos tiendan hacia µ de dicha serie de X, es decir: - 0.02151755148*(
X(-1) - 1.278801088*M(-1) + 11074.13752 ) .
v).- Derivado de lo anterior decimos que el resto de los términos de D(M) producen el
equilibrio a largo plazo, mismo que se logra rezagando y diferenciado los términos de
M, es decir: + 0.003842353517*D(X(-1)) + 0.5939942495*D(X(-2)) -
0.4638615266*D(X(-3)) + 0.6323003611*D(X(-4)) - 0.04216826772*D(M(-1)) -
0.2960731768*D(M(-2)) + 0.2132232439*D(M(-3)) - 0.02474805851*D(M(-4)) +
331.3434169
vi).- Observe que en D(X) y D(M) los valores de a 1 y a2 son los mismos, no así el de β.
Interpretación:
En el cuadro arriba explicado viene el proceso que muestra que para X fue necesario ir
determinando coeficientes de ajuste con base en diferenciaciones y en rezagos.
Ejemplo, trabajando para X a través del Vector de Corrección del Error primero
diferencia una vez la variable original, en este caso X, y a partir de las indicaciones
dadas (de 1 a 4 rezagos) va a incluir en la ecuación de regresión la variable X
diferenciada y rezagada 1, 2, 3 y 4 periodos respectivamente.
¿Cómo, dónde se vio la corrección del error, es decir, la bondad del ajuste?
Para ilustrar la corrección del error se comparan la suma de los residuos al cuadrado
(Sum sq. Resid) y el error estándar de la ecuación (S.E. Equation) del VAR y el VEC.
Para verificar que se corrigió el error, en el VEC dichas estadísticas deben ser menores
que en VAR. Lo cual se constata con lo siguiente:
759
Cuadro 12.3.4.4.26: Comparación entre la suma de los errores al cuadrado y el
error estándar de la ecuación del Modelo VAR y VEC.
PARA X PARA M
Al respecto es importante decir que los valores en VEC están expresando las
diferencias en tanto que en VAR son valores originales.
Se observa en la gráfica que los valores diferenciados giran en torno a una media a
largo plazo: ya presentan crecimientos y decrecimientos en el largo plazo como cuando
las series X y M eran no estacionarias, pero ahora corregidas las desviaciones de sus
valores que gravitan en torno a la media aritmética, µ.
760
Paso 4: Predicción.
Una vez generadas las ecuaciones procedemos a realizar la predicción, para ellos
debemos modificar el Rango (Range) en el Workfile. Así, dando doble click sobre el
Range se abre una ventana en la cual especificaremos que será hasta 2009Q4. Une
vez hecho esto, enseguida vamos a: Quick/estímate VAR/escribo “VAR TYPE:VEC,
Endogeneous: X_ M/ok, lags: 1_4; enseguida aparece Cuadro VEC donde
seleccionamos: Procs/Make Model/Ok., apareciendo la siguiente ventana:
En esta nueva ventana presiónanos el botón “Solve”, mismo que desplegará un cuadro
como el siguiente:
761
En el cual especificamos en “Solution Sample”: 2008q3_2009q4, dejando igual el resto
de opciones/Ok., lo que generará dos nuevas series en el Workfile, mismas que por
default Eviews nombra como X_0 y M_0 que son la predicción a partir de 2008q3, lo
cual se observa en la siguiente tabla, que se obtiene modificando el Sample, ahora a
2009q4:
762
1990:3 14204 14204 15982 15982
1990:4 16276 16276 18100 18100
1991:1 13391 13391 15534 15534
1991:2 14807 14807 18659 18659
1991:3 14606 14606 18764 18764
1991:4 15283 15283 19777 19777
1992:1 14460 14460 19612 19612
1992:2 15467 15467 21365 21365
1992:3 15484 15484 22339 22339
1992:4 16257 16257 22792 22792
1993:1 15628 15628 21289 21289
1993:2 16952 16952 22597 22597
1993:3 16683 16683 23349 23349
1993:4 18489 18489 23916 23916
1994:1 18062 18062 24843 24843
1994:2 19406 19406 26882 26882
1994:3 19461 19461 27369 27369
1994:4 21443 21443 28939 28939
1995:1 23017 23017 24372 24372
1995:2 24056 24056 23700 23700
1995:3 24413 24413 24864 24864
1995:4 25543 25543 25671 25671
1996:1 26626 26626 26790 26790
1996:2 28417 28417 28162 28162
1996:3 29104 29104 29969 29969
1996:4 31169 31169 32904 32904
1997:1 30415 30415 30635 30635
1997:2 32659 32659 33843 33843
1997:3 33334 33334 35924 35924
1997:4 34910 34910 38581 38581
1998:1 33704 33704 36983 36983
1998:2 35476 35476 38868 38868
1998:3 34207 34207 38921 38921
1998:4 36762 36762 41369 41369
1999:1 35424 35424 39062 39062
1999:2 39268 39268 42134 42134
1999:3 40821 40821 43969 43969
1999:4 43397 43397 47694 47694
2000:1 44326 44326 49256 49256
2000:2 47463 47463 50949 50949
2000:3 49489 49489 53512 53512
2000:4 51598 51598 57843 57843
2001:1 46942 46942 51718 51718
2001:2 47806 47806 51382 51382
2001:3 45788 45788 49111 49111
2001:4 45630 45630 51653 51653
2002:1 43356 43356 47115 47115
2002:2 48427 48427 51287 51287
2002:3 48090 48090 51317 51317
2002:4 48267 48267 52558 52558
2003:1 46400 46400 48711 48711
2003:2 47911 47911 49708 49708
763
2003:3 49427 49427 51270 51270
2003:4 51653 51653 54274 54274
2004:1 51683 51683 53170 53170
2004:2 57264 57264 56798 56798
2004:3 57071 57071 58313 58313
2004:4 58886 58886 63218 63218
2005:1 56750 56750 59310 59310
2005:2 64774 64774 64869 64869
2005:3 64802 64802 65271 65271
2005:4 70192 70192 72275 72275
2006:1 69935 69935 69407 69407
2006:2 75941 75941 75804 75804
2006:3 74990 74990 75685 75685
2006:4 76070 76070 78271 78271
2007:1 72625 72625 74984 74984
2007:2 79966 79966 81477 81477
2007:3 82752 82752 83751 83751
2007:4 86569 86569 87513 87513
2008:1 82609 82609 84099 84099
2008:2 92093 92093 94110 94110
2008:3 92063.61 93820.8
2008:4 98103.14 100625.4
2009:1 95007.31 96496.7
2009:2 102448.1 104636.7
2009:3 101289.4 103111.3
2009:4 107740.8 110137.9
Comentarios económicos: Al comparar los valores futuros de estas dos variables clave
del comercio exterior mexicano, se observa que en general seguirán aumentando las
importaciones para aumentar las exportaciones, pero se observa que en el primer
trimestre de 2009 ambas decrecen, situación similar al comportamiento real de la
economía debido a la crisis financiera que se inició en octubre de 2008 y que un no toca
fondo. Será interesante observar qué pasa en el tercero y cuarto trimestres de 2009,
¿Realmente caerán las exportaciones en 2009/3 y aumentarán en 2009/4 como lo
visualiza este ejercicio econométrico con VEC?
764
Desgraciadamente no se puede predecir para los siguientes periodos con la
econometría tradicional en virtud de que con Eviews se necesitan conocer o dar valores
a las Importaciones (M) suponiendo que el modelo a estimar sea X = f(M) y viceversa,
es decir, se necesitan conocer o dar valores hipotéticos a la variable X si el modelo a
estimar fuera M = f(X).
Sin embargo, si se pueden comparar las “estimaciones” tanto de las X como de las M
obtenidas con la econometría tradicional y con el método MCE. Así, por ejemplo, en
Eviews vamos a Quick/Estimate Equation/, en la ventana que aparece escribimos
X_c_M/Ok., se obtienen los siguientes resultados:
Dependent Variable: X
Method: Least Squares
Date: 05/11/09 Time: 21:23
Sample: 1980:1 2008:2
Included observations: 114
Variable Coefficient Std. Error t-Statistic Prob.
C -1647.258 370.3250 -4.448142 0.0000
M 0.982518 0.009436 104.1283 0.0000
R-squared 0.989776 Mean dependent var 29414.66
Adjusted R-squared 0.989685 S.D. dependent var 23069.33
S.E. of regression 2343.009 Akaike info criterion 18.37365
Sum squared resid 6.15E+08 Schwarz criterion 18.42165
Log likelihood -1045.298 F-statistic 10842.70
Durbin-Watson stat 0.264626 Prob(F-statistic) 0.000000
765
En la cual en “Series name/Forecast name/ escribimos Xf/ y el periodo de estimación
(Forecast sample) escribimos: 1980q1_2008q2/Ok. Serie que aparecerá en la ventana
del Workfile con el nombre especificado: Xf. Una vez hecho esto, debemos volver a
predecir con el modelo MCE ya que anteriormente especificamos que sólo predijera a
partir del tercer trimestre de 2008 y hasta el cuarto de 2009. Por tanto, siguiendo los
pasos descritos anteriormente para predecir a través del MCE, ahora vamos a estimar
desde 1980q1 y hasta 2008q2 para realizar la comparación entre ambos métodos. De
tal suerte que, una vez que nos encontramos en la ventana de “Model Solution” en
“Solution Sample” escribimos 1980q1_2009q4, permaneciendo constantes las demás
indicaciones que por default Eviews selecciona/Ok., con lo cual se modificará la serie
X_0. Así, seleccionamos la serie original de X, la serie de estimación con el método
MCE que por default Eviews denominó como “X_0” y la serie de Xf obtenida con MCO;
les damos click derecho y vamos a: Open/As Group/ Ok., lo cual nos desplegará un
cuadro comparativo con los siguientes datos:
Obs X X_0 XF
1980:1 5811 5811 5373.81667194
1980:2 6060 6060 6816.15338004
1980:3 6263 6263 7629.67844428
1980:4 6726 6726 8268.31527008
1981:1 8156 8156 8905.96957768
1981:2 8132 8475.513 10152.7851653
1981:3 6989 8813.822 10208.7887023
1981:4 7834 8750.645 10667.6246987
1982:1 7018 9826.429 9270.48382748
1982:2 7709 10130.96 8405.86781717
1982:3 8038 10688.35 6618.66722314
1982:4 8207 10696.36 5333.533426
1983:1 7547 11600.79 4157.45914834
1983:2 8116 11883.02 4942.49118498
1983:3 8270 12594.28 5462.24330935
1983:4 8996 12754.72 5444.55798187
1984:1 9769 13628.96 5814.96734083
1984:2 9502 13934.55 6466.37690314
1984:3 9288 14739.95 7192.45784816
1984:4 9271 15024.82 6995.95420946
1985:1 9245 15920.3 7265.16419448
1985:2 8379 16283.2 7098.13610158
1985:3 9110 17158.11 6994.97169126
1985:4 9124 17543.06 6498.80000353
1986:1 7517 18477.94 6131.33819915
1986:2 7342 18915.47 6403.49573876
1986:3 7025 19852.98 5877.84850522
1986:4 8043 20328.13 5752.08617645
1987:1 8720 21311.49 5566.39023787
1987:2 9549 21831.56 6238.43268224
766
1987:3 9403 22830.84 7069.64307397
1987:4 9697 23393.93 7087.32840145
1988:1 10339 24432.23 7765.26595499
1988:2 10749 25038.83 8878.45906826
1988:3 10343 26101.18 9943.50879005
1988:4 10664 26752.85 10518.2819333
1989:1 11697 27851.37 10857.25071
1989:2 12347 28547.12 11732.6744205
1989:3 11708 29674.88 11882.0171859
1989:4 12351 30416.79 11921.3179136
1990:1 13122 31580.14 13398.0427585
1990:2 12469 32367.32 12233.7586992
1990:3 14204 33563.45 14055.34743
1990:4 16276 34397.72 16136.3209639
1991:1 13391 35630.09 13615.1792793
1991:2 14807 36510.98 16685.5486341
1991:3 14606 37778.83 16788.7130444
1991:4 15283 38707.81 17784.0039744
1992:1 14460 40013.23 17621.8884725
1992:2 15467 40990.22 19344.2428658
1992:3 15484 42333.42 20301.2155863
1992:4 16257 43359.61 20746.2963279
1993:1 15628 44742.04 19269.571483
1993:2 16952 45817.68 20554.7052802
1993:3 16683 47240.01 21293.5589617
1993:4 18489 48366.09 21850.6467775
1994:1 18062 49829.51 22761.4411429
1994:2 19406 51006.5 24764.7957395
1994:3 19461 52511.88 25243.2820997
1994:4 21443 53740.68 26785.8356636
767
1995:1 23017 55289.12 22298.6750737
1995:2 24056 56570.34 21638.4228476
1995:3 24413 58162.81 22782.0740249
1995:4 25543 59497.31 23574.9662071
1996:1 26626 61134.88 24674.4040657
1996:2 28417 62523.37 26022.4190272
1996:3 29104 64207.08 27797.8294029
1996:4 31169 65650.42 30681.5203009
1997:1 30415 67381.34 28452.1865198
1997:2 32659 68880.32 31604.1048846
1997:3 33334 70659.52 33648.7252454
1997:4 34910 72215.01 36259.2760856
1998:1 33704 74043.58 34689.2120123
1998:2 35476 75656.44 36541.2588071
1998:3 34207 77535.5 36593.3322714
1998:4 36762 79206.63 38998.5368091
1999:1 35424 81137.29 36731.8673367
1999:2 39268 82867.59 39750.1632272
1999:3 40821 84851 41553.0841123
1999:4 43397 86641.42 45212.9643832
2000:1 44326 88678.72 46747.6578015
2000:2 47463 90530.2 48411.0611032
2000:3 49489 92622.57 50929.2552332
2000:4 51598 94536.12 55184.5415294
2001:1 46942 96684.74 49166.617594
2001:2 47806 98661.34 48836.491481
2001:3 45788 100867.4 46605.1926635
2001:4 45630 102908.1 49102.7539114
2002:1 43356 105172.9 44644.0863492
2002:2 48427 107278.7 48743.1522526
2002:3 48090 109603.4 48772.6277984
2002:4 48267 111775.4 49991.9328766
2003:1 46400 114161.3 46212.1853861
2003:2 47911 116400.7 47191.756025
2003:3 49427 118849 48726.4494433
2003:4 51653 121156.8 51677.9340967
2004:1 51683 123668.9 50593.234011
2004:2 57264 126046.3 54157.8100171
2004:3 57071 128623.5 55646.3250803
2004:4 58886 131071.6 60465.5768196
2005:1 56750 133715.2 56625.8957193
2005:2 64774 136235.3 62087.7143571
2005:3 64802 138946.7 62482.6866709
2005:4 70192 141540 69364.2440984
2006:1 69935 144320.6 66546.3819194
2006:2 75941 146988.3 72831.5508034
2006:3 74990 149839.5 72714.6311384
2006:4 76070 152582.9 75255.4231868
2007:1 72625 155506.1 72025.8858847
2007:2 79966 158326.6 78405.3765153
2007:3 82752 161323.2 80639.6228874
768
2007:4 86569 164222 84335.8563314
2008:1 82609 167293.6 80981.5392187
2008:2 92093 170272.2 90817.5288542
2008:3 173420.2
2008:4 176479.9
2009:1 179705.8
2009:2 182848.1
2009:3 186153.6
2009:4 189379.8
769
X_0, como se indicó en el punto anterior, cada valor está estimado con respecto al dato
estimado anterior.
4.- Sin embargo, para fines de predicción, como en el punto anterior, el MCE es
adecuado ya que predice, en nuestro caso, para el tercer trimestre de 2008 y hasta el
cuarto trimestre de 2009 a partir de los valores reales anteriores de la serie como lo
ilustra la ecuación D(X). En contra posición, la predicción para el mismo periodo a
través del MCE pero estimado para toda la serie muestra mayores diferencias dado
que, como se ha comentado, predice a partir de los valores anteriores estimados de la
serie. Gráficamente se observa así:
Comentarios:
770
en este caso, utiliza los valores reales y no los estimados como en el caso anterior,
utilizado para comparar la bondad en la estimación con respecto a la econometría
tradicional.
2.- La serie estimada con econometría tradicional (XF) llega hasta 2008q2 dado que no
se puede predecir debido a que no se conocen los valores futuros de la variable
independiente, en este caso M. Mientras que la serie X_0 contiene valores futuros
porque cada uno de estos se obtienen a partir de los valores rezagados de la serie de
acuerdo a la ecuación de predicción.
Para el caso de M, se siguen los mismo pasos descritos para X; se sugiere que el lector
los lleva a cabo para afianzar su familiaridad con el tema. Como guía se proporcionan
los siguientes resultados:
Dependent Variable: M
Method: Least Squares
Date: 05/11/09 Time: 21:31
Sample: 1980:1 2008:2
Included observations: 114
Variable Coefficient Std. Error t-Statistic Prob.
C 1982.652 361.0471 5.491394 0.0000
X 1.007387 0.009674 104.1283 0.0000
R-squared 0.989776 Mean dependent var 31614.60
Adjusted R-squared 0.989685 S.D. dependent var 23359.46
S.E. of regression 2372.476 Akaike info criterion 18.39864
Sum squared resid 6.30E+08 Schwarz criterion 18.44665
Log likelihood -1046.723 F-statistic 10842.70
Durbin-Watson stat 0.266597 Prob(F-statistic) 0.000000
2. Cálculo de M_0 y MF, con el fin de comparar la bondad de ajuste de cada uno de los
métodos:
obs M M_0 MF
1980:1 7146 7146 7836.57777715
1980:2 8614 8614 8087.41714646
1980:3 9442 9442 8291.91671261
1980:4 10092 10092 8758.33690535
1981:1 10741 10741 10198.9003516
1981:2 12010 11218.31 10174.723063
1981:3 12067 12107.74 9023.27969302
1981:4 12534 12108.3 9874.52172944
771
1982:1 11112 13125.29 9052.49391676
1982:2 10232 13514.55 9748.59835128
1982:3 8413 14305.48 10080.0286826
1982:4 7105 14274.49 10250.2770899
1983:1 5908 15225.21 9585.40165317
1983:2 6707 15557.92 10158.6048706
1983:3 7236 16388.73 10313.7424725
1983:4 7218 16487.59 11045.1054529
1984:1 7595 17421.21 11823.8156235
1984:2 8258 17747.83 11554.8432877
1984:3 8997 18635.52 11339.2624643
1984:4 8797 18867.21 11322.1368849
1985:1 9071 19820.61 11295.9448222
1985:2 8901 20181.16 10423.5476583
1985:3 8796 21119.54 11159.9475738
1985:4 8291 21459.43 11174.0509922
1986:1 7917 22445.66 9555.18004241
1986:2 8194 22863.57 9378.88731297
1986:3 7659 23850 9059.54562593
1986:4 7531 24281.94 10085.0656177
1987:1 7342 25307.03 10767.0666339
1987:2 8026 25794.56 11602.1904779
1987:3 8872 26829.74 11455.1119722
1987:4 8890 27346.75 11751.2837577
1988:1 9580 28415.47 12398.026228
1988:2 10713 28979 12811.0549084
1988:3 11797 30064.85 12402.0557761
1988:4 12382 30664.81 12725.4270112
1989:1 12727 31781.6 13766.0578084
1989:2 13618 32424.81 14420.8593749
1989:3 13770 33563.74 13777.1390657
1989:4 13810 34246.73 14424.888923
1990:1 15313 35415.75 15201.5843195
1990:2 14128 36141.18 14543.760592
1990:3 15982 37335.97 16291.577081
1990:4 18100 38103.04 18378.8829975
1991:1 15534 39328.2 15472.5714293
1991:2 18659 40137.99 16899.0314572
1991:3 18764 41391.71 16696.5466651
1991:4 19777 42244.43 17378.5476813
1992:1 19612 43529.49 16549.4681594
1992:2 21365 44425.67 17563.906894
1992:3 22339 45741.61 17581.0324734
1992:4 22792 46681.83 18359.742644
1993:1 21289 48030.46 17726.0962051
1993:2 22597 49015.14 19059.8766266
1993:3 23349 50396.72 18788.8895168
1993:4 23916 51426.53 20608.2304846
1994:1 24843 52842.4 20178.0762248
1994:2 26882 53917.78 21532.0043869
1994:3 27369 55368.55 21587.4106732
1994:4 28939 56490.19 23584.0517575
772
1995:1 24372 57976.99 25169.6789354
1995:2 23700 59145.41 26216.3540548
1995:3 24864 60669.02 26575.9912228
1995:4 25671 61884.91 27714.3385615
1996:1 26790 63446.38 28805.3387099
1996:2 28162 64710.31 30609.5688723
1996:3 29969 66310.52 31301.6437587
1996:4 32904 67623.21 33381.8979661
1997:1 30635 69263.15 32622.328149
1997:2 33843 70625.25 34882.9046339
1997:3 35924 72305.87 35562.890876
1997:4 38581 73718.1 37150.532828
1998:1 36983 75440.4 35935.6240754
1998:2 38868 76903.46 37720.7138843
1998:3 38921 78668.42 36442.3397491
1998:4 41369 80183.07 39016.2135989
1999:1 39062 81991.7 37668.329759
1999:2 42134 83558.68 41540.7254845
1999:3 43969 85412 43105.1975348
1999:4 47694 87032.1 45700.2265121
2000:1 49256 88931.14 46636.0890587
2000:2 50949 90605.16 49796.2621572
2000:3 53512 92550.97 51837.2282706
2000:4 57843 94279.72 53961.8075071
2001:1 51718 96273.35 49271.413517
2001:2 51382 98057.68 50141.7959069
2001:3 49111 100100.2 48108.8888898
2001:4 51653 101941 47949.7217398
2002:1 47115 104033.5 45658.9236441
2002:2 51287 105931.6 50767.3832497
2002:3 51317 108075.2 50427.8938221
2002:4 52558 110031.5 50606.2013256
2003:1 48711 112227.4 48725.4097493
2003:2 49708 114242.9 50247.5715446
2003:3 51270 116492 51774.770275
2003:4 54274 118567.6 54017.2137935
2004:1 53170 120871.2 54047.4354042
2004:2 56798 123008 59669.6623927
2004:3 58313 125367.2 59475.2366968
2004:4 63218 127566 61303.6441479
2005:1 59310 129982.2 59151.8654617
2005:2 64869 132244 67235.1389532
2005:3 65271 134718.2 67263.3457899
2005:4 72275 137044.2 72693.1618565
2006:1 69407 139577.7 72434.263391
2006:2 75804 141968.9 78484.6298653
2006:3 75685 144562.9 77526.6048042
2006:4 78271 147020.4 78614.5827916
2007:1 74984 149676.1 75144.1344892
2007:2 81477 152201.1 82539.3626424
2007:3 83751 154919.8 85345.942895
2007:4 87513 157513.3 89191.1391708
773
2008:1 84099 160296.4 85201.8865504
2008:2 94110 162959.6 94755.9450988
2008:3 165808.3
2008:4 168542.5
2009:1 171458.2
2009:2 174264.4
2009:3 177248.5
2009:4 180128.1
774
Conclusiones:
775
XII.4.-PRONÓSTICO.
XII.4.1.- Predicción univariante: de los valores de la serie de tiempo Y t.
Las condicionales tienen como fundamento la relación causal que existe entre la
variable explicada Yt y su explicativa Xt, de manera que Yt se puede predecir sí y sólo sí
se conocen los valores futuros de Xt.
3. El determinista o clásico; y
4. El estocástico o moderno basado en Box and Jenkins.
776
XII.4.2.- Consideraciones.
777
Pero, reiteramos, ¿Porqué las series de tiempo estacionarias son tan importantes? De
acuerdo a Gujarati (2007: 772-773) porque, si una serie de tiempo es no estacionaria,
se puede estudiar su comportamiento sólo durante el periodo bajo consideración. Por
tanto, cada conjunto de datos perteneciente a la serie de tiempo corresponderá a un
episodio particular. Como consecuencia, no puede generalizarse para otros periodos.
Así, pues, para propósitos de pronóstico (predicción a largo plazo), tales series de
tiempo (no estacionarias) tendrán un valor práctico insignificante.Derivado de lo anterior
es que se debe procurar que éstas sean estacionarias, es decir, que observen
estabilidad estadística en el tiempo en términos de media, varianza y covarianza,
minímamente, ya que para hacer planeación a largo plazo, como es el Plan Nacional
de Desarrollo de México, en el cual se plasma la visión del México que todos queremos
cada seis años; en él se expresan las relacionan y por consiguiente la evolución de
las variables que se estima producirán el crecimiento y desarrollo sostenido y
sustentable anhelado históricamente por los mexicanos.
El modelo ARIMA
1.-Método informal.
Creación de un nuevo archivo:
Para generar un nuevo archivo de trabajo (Workfile) en Eviews , una vez que se ha
abierto la aplicación, en el menú principal seleccionamos: File/new/workfile/ok, con lo
que se desplegará la ventana de información ya conocida. Como se trata del precio de
acciones y dado que este mercado labora de lunes a viernes y se mantiene cerrado los
sábados y domingos así como días festivos, lo lógico sería que seleccionáramos la
frecuencia de datos diarios con semanas de 5 días (Daily [5 day weeks]).
Desgraciadamente Eviews no reconoce los días festivos del calendario mexicano, por lo
que nos marcará un tamaño de muestra más grande que la que poseemos. Sin
778
embargo, en caso de que el lector desee realizar la prueba, en Eviews una vez que
selecciono la frecuencia de los datos, en el rango debe escribir el periodo en el
siguiente orden: mes:día:año, con el siguiente formato: mm:dd:aaaa. De tal suerte que,
si el periodo de inicio es el 2 de enero de 2008, escribiremos en “Start date”: 01:02:2008
y si el periodo final de la muestra es el 19 de febrero de 2009 escribiremos en “End
date”: 02:19:2009.
Una vez cargada la serie “ARA”, para empezar a trabajar cambiamos el periodo
muestral (Sample) en la ventana del Workfile dando doble click sobre el mismo, es
decir, sobre “Sample”. Este procedimiento desplegará una ventana denominada
“Sample” que se observa de la siguiente forma:
779
En la ventana del Sample cambiamos el 290 por el 285. En la ventana del Workfile se
observa ya el cambio realizado. Mientras que el Rango (Range) se mantiene inalterado.
Lo cual presenta una estructura como esta:
Hecho esto, abrimos la serie “ARA” dando doble click sobre ella en la ventana del
workfile. Una vez abierta la ventana de la serie vamos a: View/Graph/Line/Ok. Lo que
nos desplegará una gráfica como la siguiente:
780
Gráfica 12.4.3.1.: Comportamiento gráfico de la variable “ARA”
Comentario: Como puede observarse, la gráfica del proceso estocástico ARA presenta
un claro comportamiento descendente o decreciente por lo que, podemos suponer que
no es constante en media, luego entonces, podemos suponer que el proceso no es
estacionario. Además, existen variables dentro del proceso que muestran gran
dispersión, por lo que tampoco es constante en varianza (ver diagrama de dispersión en
el cuadro siguiente). Derivado de lo cual, quizá sea necesario y/o preciso trabajar en
diferencias. Además, tomando logaritmos se reduce la dispersión de la serie, es decir,
la transformación en logaritmos la convierte en estacionaria en varianza. Sin embargo,
realicemos otras pruebas gráficas y formales para determinarlo con precisión.
781
Gráfica 12.4.3.2.: Dispersión de la variable “ARA”
f) Correlograma.
Otro procedimiento gráfico para comprobar la posible existencia de una raíz unitaria en
el proceso estocástico consiste en inspeccionar el correlograma del mismo. Así, en la
ventana de la serie vamos a: View/Correlogram…/, en donde se desplegará una
ventana que nos solicita la especificación del correlograma a realizar, las opciones son:
en niveles (Level), es decir, los valores de el proceso original, en primeras diferencias y
en segundas diferencias. Asimismo, nos solicita en número de rezagos a incluir (Lags to
include), mismo que por default Eviews da 36. La ventana es como la siguiente:
782
Cuadro 12.4.3.3.: Especificación de correlograma.
Sin embargo, siguiendo el criterio y/o sugerencia de Gujarati (2007: 784-785) en cuanto
a el número de rezagos a utilizar y/o a la longitud del mismo, utilizaremos un cuarto de
la longitud de la serie de tiempo, es decir, 71 variables aleatorias. Por lo que, para
nuestro caso seleccionaremos el correlograma de niveles (Level) y en “Lags to include”
escribiremos 71/Ok. Procedimiento que nos desplegará el correlograma siguiente:
783
En términos teóricos, si la función de autocorrelación muestral (primera columna de la
izquierda del correlograma) decrece lentamente es muestra o indicio de la no
estacionariedad de la serie, es decir, presenta una raíz unitaria. Asimismo, si la
autocorrelación parcial (segunda columna de la izquierda del correlograma) muestra al
menos un valor significativo en el retardo uno, con un coeficiente de autocorrelación
parcial (PAC) cercano a la unidad (ρ ~ 1) es indicativo de la no estacionariedad de la
serie (Pulido y López, 1999: 274).
3. Método formal.
784
El criterio de aceptación de la Ho es que si el valor de t del estadístico de DF, ADF y PP
es menor que los valores de t críticos de Mackinnon (a cualquier nivel de significación al
que estemos trabajando), ambos en términos absolutos, se acepta la Ho. Si el valor de
los estadísticos es mayor que los valores críticos de Mackinnon, ambos en términos
absolutos, se acepta la Ha.
f) Test DF y ADF.
En Eviews para realizar la prueba DF y ADF una vez estando en la ventana de la serie
vamos a: View/ Unit Root Test…/, en donde nos aparecerá una ventana como la
siguiente. Cabe destacar que el Test de DF o simple es solamente válido si las series
son un proceso autorregresivo de orden 1, AR(1).
En primer lugar, hay que especificar el número de retardos de los términos de las
primeras diferencias de la serie para incluir en la regresión del Test. En Eviews tenemos
dos opciones para seleccionar el número de retardos (Lag length): De forma automática
(Automatic selection) y especificado por el usuario (User specified). Si, por ejemplo,
seleccionamos el especificado por el usuario e incluimos cero (0) retardos o rezagos,
785
Eviews nos proporciona el Test de DF y si indicamos un número mayor que cero,
generará el Test de ADF.
786
ii) Si el Test acepta la Ho en niveles y primeras diferencias, pero se rechaza al
realizar el Test en segundas diferencias, entonces la serie contiene dos raíces
unitarias y es integrada de orden 2, I(2).
Para nuestro caso, vamos a realizar los dos Test, es decir, el DF y el ADF.
Test DF.
Dado que la serie original de ARA presenta tendencia decreciente vamos a incluir en el
Test el intercepto y el término de tendencia lineal; luego, vamos a seleccionar los
rezagos de forma manual o especificados por el usuario, en donde indicaremos que son
cero para trabajar con el Test de DF, y; finalmente, vamos a realizar el Test primero en
niveles, luego en primeras diferencias para aceptar o rechazar la Ho. Así, siguiendo los
pasos preestablecidos, el resultado para el Test de DF en niveles es:
787
Comentario: Como el valor de de t de DF, 2.43, es menor que el valor t crítico de
MacKinnon al 5%, en términos absolutos, de significación estadística, 3.42, se acepta la
Ho. Luego, entonces, existe raíz unitaria, por tanto, la serie es no estacionaria.
Asimismo, al ser la probabilidad asociada al estadístico DF mayor que 0.05 se acepta la
Ho y se rechaza la Ha.
Ahora, realicemos el Test de DF pero en primeras diferencias con los demás criterios
constantes, así obtenemos:
Comentario: Dado que en términos absolutos el valor del estadístico DF, 16.12, es
mayor que el valor crítico de MacKinnon al 5% de significación igual a 3.42, se rechaza
la Ho y se acepta la Ha, por tanto, no existe raíz unitaria, es decir, la serie es
estacionaria. Asimismo, al ser la probabilidad asociada al estadístico DF menor a 0.05
se acepta la Ha y se rechaza la Ho.
788
Conclusión preliminar: En virtud de que el Test de DF en primeras diferencias
rechaza la Ho y acepta la Ha y dado que en niveles se acepta la Ho y se rechaza la Ha
concluimos que la serie contiene una raíz unitaria y, por tanto, es integrada de orden 1,
I(1).
Test ADF.
Para elaborar este Test vamos a modificar únicamente el número de rezagos, así, en
lugar de incluir cero como en el Test anterior de DF, vamos a incluir 1. Los demás
términos los mantendremos constantes, de tal suerte que como la serie original de ARA
presenta tendencia decreciente vamos a incluir en el Test el intercepto y el término de
tendencia lineal; luego, vamos a seleccionar los rezagos de forma manual o
especificados por el usuario, en donde indicaremos que es uno para trabajar con el Test
de ADF, y; finalmente, vamos a realizar el Test primero en niveles y luego en primeras
diferencias para aceptar o rechazar la Ho. Así, siguiendo los pasos descritos, el
resultado para el Test de ADF en niveles es:
789
Comentario: Dado que el valor del estadístico de ADF es menor en términos absolutos
al valor crítico de MacKinnon, a saber 2.44 < 3.42 al 5% de significación estadística, y
en virtud de que la probabilidad asociada al estadístico ADF es mayor a 0.05 se acepta
la Ho y por tanto se dice que existe raíz unitaria, es decir, la serie es no estacionaria.
El resultado del Test de ADF con primeras diferencias manteniendo constante los
demás términos es:
Comentario: Como puede observarse, al ser el valor del Test ADF mayor que el valor
crítico de MacKinnon (11.88 > 3.42) en términos absolutos al 5% de significación
estadística aceptamos la Ha; además, al ser la probabilidad asociada al Test de ADF
menor a 0.05 se corrobora la aceptación de la Ha, y se concluye que no existe raíz
unitaria, por tanto, la serie es estacionaria.
790
Conclusión de las Pruebas DF y ADF: Derivado de los resultados obtenidos y en
virtud de que con ambas pruebas se acepta la Ho con los datos en niveles, pero se
rechaza la Ho en primeras diferencias, entonces la serie contiene una raíz unitaria y,
por tanto, es no estacionaria y es integrada de orden 1, I(1). Por lo que, de acuerdo a
los resultados obtenidos, es necesario diferenciar una vez la serie para volverla
estacionaria
g) Test PP.
Este Test es similar a la prueba de ADF, pues si el valor del estadístico PP es menor o
inferior a los valores críticos de MacKinnon, a cualquier nivel de significación en
términos absolutos en ambos casos, se acepta la Ho de existencia de una raíz unitaria.
Mientras que el Test de ADF corrige la correlación serial de orden elevado añadiendo
más retardos del término diferenciado de la serie original en el lado derecho de la
ecuación, el Test de PP realiza una corrección del estadístico “τ” sobre el coeficiente en
la regresión AR(1) para considerar la correlación serial en el término “e”.
En este Test, al igual que en el ADF, tenemos que especificar si incluimos una
constante, constante más término de tendencia lineal o nada en la regresión. Para este
Test hay que especificar el número de periodos de correlación serial a incluir, es decir,
rezagos o retardos Pulido y López, 1999: 271).
791
El resultado del Test de PP en niveles, con intercepto y término de tendencia lineal y
bandwidth especificado por el usuario de 1 es:
792
C 0.466007 0.199219 2.339171 0.0200
@TREND(1) -0.001323 0.000536 -2.470401 0.0141
R-squared 0.021590 Mean dependent var -0.027254
Adjusted R-squared 0.014627 S.D. dependent var 0.241696
S.E. of regression 0.239922 Akaike info criterion -0.006496
Sum squared resid 16.17512 Schwarz criterion 0.032050
Log likelihood 3.922429 F-statistic 3.100400
Durbin-Watson stat 1.890580 Prob(F-statistic) 0.046575
Comentario: Como el valor del estadístico PP es, es términos absolutos, menor que el
valor crítico de MacKinnon al 5% de significación estadística (2.48 < 3.42) se acepta la
Ho y dado que la probabilidad asociada al estadístico PP es mayor a 0.05 se acepta la
Ho de que existe raíz unitaria, por tanto, la serie es no estacionaria.
793
Comentario: Dado que el valor del estadístico PP es mayor, en términos absolutos,
que el valor crítico de MacKinnon al 5% (16.12 > 3.42) y en virtud de que la probabilidad
asociada al estadístico es menor a 0.05, aceptamos la Ha y rechazamos la Ho, por
tanto, no existe raíz unitaria, es decir, la serie es estacionaria.
Conclusión del Test PP: Dado que con la prueba PP en niveles se acepta la Ho y en
primeras diferencias se acepta la Ha, concluimos que la serie original “ARA” no es
estacionaria y por tanto hay que diferenciarla una vez para convertirla en estacionaria.
Así, tanto los métodos informales como los formales nos indican que la serie original
“ARA” es no estacionaria, por lo que es necesario diferenciarla una vez para volverla
estacionaria. Luego entonces, la serie es integrada de orden 1, I(1). Asimismo, es
preciso, antes de diferenciarla, convertirla en logaritmos en virtud de la dispersión que
presentan algunas variables aleatorias, lo cual es indicio de la inexistencia de varianza
constante.
Teóricamente, para obtener una serie en media constante es preciso obtener sus
primeras diferencias y, para obtener una serie con varianza constante es necesario
transformarla en logaritmos antes de diferenciarla, ya que las series transformadas en
logaritmos presentan menor dispersión.
794
La nueva variable generada (lara) aparecerá en la ventana del Workfile. A continuación
procedemos a graficarla de forma lineal a través de los pasos ya descritos
anteriormente. De esta forma obtenemos:
795
Como puede observarse, la transformación en logaritmos de la serie (lara) aun presenta
un comportamiento similar al de la serie original (ara), es decir, sin transformar.
Diferenciemos entonces la serie transformada en logaritmos una vez y grafiquémosla
para ver su comportamiento.
796
Gráfica 12.4.3.5.: Comportamiento de la variable “DLARA”
797
seleccionamos: Quick/Generate Series…/, y en la ventana que nos desplegará
escribimos dara=d(ara). De la cual su gráfico correspondiente es:
Como puede observarse, en la gráfica de la serie “dlara” los valores de las variables
aleatorias oscilan en torno al 0.2 y al -0.2, mientras que en la serie “dara” dichos valores
oscilan en torno al 1.0 y al -1.0, por tanto, los valores de la serie transformada en
logaritmos y diferenciada una vez presentan menor dispersión, lo que supone una
media y varianza constante. Entonces, para nuestro caso no cabe duda de la serie con
la que vamos a trabajar, es decir, aquella que fue transformada en logaritmos y
diferenciada una vez (dlara) pues, es estacionaria.
Con ello, podemos ahora realizar el correlograma de la serie “dlara” para verificar la
estacionariedad de la misma. Así, con los pasos ya conocidos obtenemos el siguiente
correlograma:
798
Como puede observarse, al encontrarse los valores de la autocorrelación (AC) y los de
la autocorrelación parcial (PAC) dentro de las bandas de confianza, al ser los valores de
AC y PAC muy menores a 1 y al ser la probabilidad asociada al estadístico “Q” mayores
a 0.05 concluimos, de acuerdo a este correlograma, que la serie “dlara” es estacionaria.
Ahora, realicemos los Test de raíces unitarias correspondientes, es decir, las pruebas o
métodos formales, para determinar que la serie efectivamente es ya estacionaria, pues,
gráficamente lo es.
799
Ha: ρ < 1; no existe raíz unitaria, por tanto, la serie es estacionaria.
Cabe hacer mención que para realizar la prueba DF va a hacer en niveles (Level)
porque ya está diferenciada una vez, por lo que si se selecciona primeras diferencias en
realidad se tratará de las segundas diferencias; dado que la nueva serie (dlara) no
parece presentar tendencia (creciente o decreciente) pero parece tener uno o más
valores medios distintos de cero debemos incluir un término constante (intercept) en la
regresión; y en el número de rezagos cero para realizar el Test DF. El resultado del
Test de DF es:
Como el valor del estadístico DF (16.48) en términos absolutos es mayor que el valor
crítico de MacKinnon al 5% (2.87) y dado que la probabilidad del estadístico DF es
menor a 0.05 se acepta la Ha y se rechaza la Ho, por tanto, no existe raíz unitaria, es
decir, la serie “dlara” es estacionaria.
800
Ahora realicemos la prueba ADF, manteniendo los términos seleccionados constantes
pero modificando el número de rezagos a 1 en lugar de cero. Obtenemos:
En virtud de que el valor del estadístico ADF (12.01) es mayor que el valor crítico de
MacKinnon al 5% (2.87) y dado que la probabilidad asociada al estadístico ADF es
menor a 0.05 se acepta la Ha, por tanto, no existe raíz unitaria, es decir, la serie “dlara”
es estacionaria.
Para el caso del Test de PP vamos a realizarlo en niveles (Level); con intercepto
(intercept); y vamos a especificar de forma manual 1 rezago. Así obtenemos lo
siguiente:
801
Cuadro 12.4.3.18.: Análisis de Regresión de la Prueba de Dickey-Fuller
Aumentada.
Conclusión general: Dado que con los métodos informales (gráfica lineal, diagrama de
dispersión y correlograma) concluimos que la serie “dlara”, misma que fue transformada
en logaritmos y diferenciada una vez, es estacionaria; y con los métodos formales (Test
de DF, ADF y PP) se acepta la Ha en virtud de que los valores de los estadísticos DF,
ADF y PP son mayores a los valores críticos de MacKinnon al 5% y a que la
probabilidad asociada a los mismos es menor a 0.05 concluimos contundentemente que
la serie de tiempo “dlara” es estacionaria. Por tanto, podemos pasar a la identificación
del modelo ARMA, pues ya sabemos que la serie es integrada de orden 1, es decir, I(1).
802
VIII) Identificación de la estructura ARMA.
Una vez que hemos transformado la serie en estacionaria o en su caso probado que la
serie es estacionaria de origen procedemos a determinar el tipo de modelo más
adecuado para la serie objeto de estudio, es decir, el orden de los procesos
autorregresivos (AR) y de medias móviles (MA), esto es, los valores de p y q.
Sin embargo, no se piense que resulta fácil, incluso para personas con experiencia,
seleccionar el modelo ARMA. En muchas ocasiones se tendrán dudas razonables sobre
el modelo más adecuado. Al respecto, Pulido y López (1999: 294, 301) sostienen que
“no debemos preocuparnos en exceso por ello, ya que una posibilidad es seleccionar
varios modelos alternativos y comprobar posteriormente cuál de ellos resulta finalmente
más idóneo. Generalmente, suele procederse seleccionando siempre procesos lo más
sencillos posible”. Asimismo, Johnston y Dinardo (2001) reconocen lo difícil que resulta
la elección del orden de p y q. No obstante, sostienen que esta elección se agiliza
mediante un procedimiento numérico sugerido por Hannan y Rissanen. Se trata de un
procedimiento en tres etapas, a saber:
1.- Se estiman por MCO procesos AR puros de orden bastante elevado, lo cual no deja
de ser razonable ya que un proceso ARMA desconocido equivale a un proceso AR
infinito;
3.- Se ajustan algunos modelos ARMA utilizando para ello los residuos estimados.
Después del ajuste, es decir, de la inclusión de MA(q) elegimos como especificación
correcta aquella que proporciona el menor valor del criterio de Schwarz.
803
Por su parte, para identificar un proceso AR, si la función de autocorrelación decrece
(en forma regular, es decir, alternando valores positivos y negativos o en forma de
ondas sinusoidales) y la función de autocorrelación parcial presenta un número de
coeficientes igual al orden del proceso, entonces, el AR corresponderá a el número de
coeficientes de la autocorrelación parcial que sobrepasan las bandas de confianza.
Por tanto, a la hora de identificar un modelo ARMA debemos siempre observar las
funciones de autocorrelación para decidir el orden del componente regular (p,q) con
base en la evolución de los primeros coeficientes.
Otro criterio proporcionado por Pulido y López (1999: 291) para determinar los procesos
a incluir en el modelo es el siguiente:
Yt C 1Yt 1 2 Yt 2 ... p Yt p a t
804
Por tanto, un AR(1) tiene la forma:
Y t C 1 Y t 1 a t
Yt C 1Yt 1 2Yt 2 at
Yt a t 1 a t 1 2 a t 2 ... q a t q
Yt at 1 at 1
Yt a t 1 a t 1 2 a t 2
805
Yt C 1Yt 1 2Yt 2 ... p Yt p a t 1 a t 1 2 a t 2 ... q a t q
Cabe destacar, como comentan Pulido y López (1999: 281), que “realmente, en las
aplicaciones no es frecuente manejar un modelo ARIMA(p,d,q), sino el producto de dos
modelos: ARIMA(p,d,q)*SARIMA(P,D,Q), donde el primero corresponde a la parte
regular y el segundo a la estacional de la serie.
Ahora bien, para identificar los procesos que se incluirán en el modelo o los modelos
posibles a estimar, como se comento, es necesario contar con las funciones de
autocorrelación y autocorrelación parcial del correlograma de la serie estacionaria (ver
la página 25), en nuestro caso de la serie: DLARA.
806
Cuadro 12.4.3.19.: Comportamiento teórico para identificar en la función de
autocorrelación total y parcial los procesos AR, MA Y ARMA.
807
En virtud de que el comportamiento mostrado en el correlograma de la serie DLARA no
corresponde con el comportamiento teórico establecido en el cuadro 1, vamos a
establecer dos modelos hipotéticos para, posteriormente, de acuerdo a determinados
criterios que veremos más adelante, discernir entre uno u otros modelos.
De tal suerte y derivado del análisis visual realizado a través del correlograma para el
caso de la serie DLARA y tras realizar diversos modelos con ayuda de Eviews, los
modelos identificados que vamos a desarrollar aquí son:
808
IX) Estimación de coeficientes y evaluación-validación del modelo.
La evaluación de modelos ARIMA puede hacerse en forma similar a como se hace con
el modelo de regresión o los modelos de ecuaciones simultaneas (Pulido y Pérez, 2000)
Así, una vez identificado el modelo o los modelos procedemos a estimarlos con ayuda
de Eviews de la siguiente forma: en el menú principal vamos a: Quick/Estimate
Equation/, y en la ventana que despliega escribimos el primer modelo: dlara c ar(7)
ma(7)/Ok.
809
Durbin-Watson stat 2.016104 Prob(F-statistic) 0.000338
Inverted AR Roots .94 .59+.74i .59 -.74i -.21 -.92i
-.21+.92i -.85 -.41i -.85+.41i
Inverted MA Roots .97 .61+.76i .61 -.76i -.22 -.95i
-.22+.95i -.88 -.42i -.88+.42i
Con los resultados obtenidos hay que juzgar la validez del modelo estimado, para ello
debemos verificar:
C AR(7) MA(7)
C 1.80212708265e-06 -9.36143365238e-06 5.98178985982e-06
AR(7) -9.36143365238e-06 0.0105534103408 -0.00724748850113
MA(7) 5.98178985982e-06 -0.00724748850113 0.00622684554418
En este caso, como se recordara, lo que nos interesa analizar son los valores
fuera de la diagonal principal, ¿Por qué? Así, por un lado, covarianzas
relativamente altas indican parámetros en cierta forma redundantes, algunos de
los cuales podrían eliminarse sin gran perjuicio para la capacidad explicativa del
modelo. Por otro, covarianzas reducidas conforman la conveniencia de mantener
todos los coeficientes del modelo (Pulido y López, 1999: 306).
Para nuestro caso, observamos que la covarianza que existe entre los procesos
AR(7) y Ma(7) y entre cada uno de estos con la constante es muy reducida, por
tanto, concluimos que debemos mantener todos los coeficientes del modelo y
podemos seguir adelante.
Tabla y gráfico de residuos: Para acceder a la tabla que nos muestra los
residuos, así como los valores de la serie original y estimada, dentro del menú de
la ventana de la ecuación del modelo estimado seleccionamos:
View/Actual,fitted, residual table/Ok. Y para acceder el gráfico del ajuste
realizado a través del modelo vamos a: View/Actual, fitted, residual graph/Ok.
810
Para nuestro caso la gráfica de los residuos obtenidos a través del modelo
planteado es:
Para el caso de la tabla de los valores reales, los estimados y la gráfica, por razones de
espacio tan sólo vamos a mostrar una parte:
811
Gráfica 12.4.3.9.: Gráfico de parcela con ajuste residual.
812
la 215, periodo de gran volatilidad del precio de las acciones de Grupo ARA. Este
periodo comprende a partir del 2 de octubre de 2008 al 6 de noviembre del mismo año,
periodo que se enmarca dentro del derrumbe de las bolsas de valores del mundo, es
decir, el comportamiento se explica por la incertidumbre y pánico generado a raíz del
crack bursátil y por tanto quiebra de diferentes empresas a nivel mundial, entre ellas,
por supuesto, las grandes compañías hipotecarias, que sin duda, impactaron
desfavorablemente a diferentes empresas del ramo a nivel mundial, entre ellas:
Consorcio ARA. De hecho, fue el 23 de octubre de 2008 (observación 204
correspondiente) cuando el precio de las acciones de ARA alcanzaron su precio más
bajo durante todo el periodo en cuestión, a saber: 3.52 pesos por acción. Aunque,
también es cierto que en las observaciones 196 y 197 el precio real de las acciones de
ARA difiere en sobremanera con el precio estimado, de ahí el comportamiento que
muestra o presenta la gráfica. Es decir, el error en estas observaciones es alto.
Cabe destacar que el gráfico de los residuos nos proporciona una visión de
conjunto de la cuantía de los errores, sesgos sistemáticos y puntos de errores
excepcionales (Pulido y López, 1999: 311).
813
Como puede observarse en el correlograma de los residuos, en el rezago 7, tanto en la
función de autocorrelación (AC) como en la función de autocorrelación parcial (PAC), ya
no salen de las bandas de confianza. Asimismo, en la AC el rezago 30 ya no sale de las
bandas de confianza, de hecho se encuentra en el límite. Sin embargo, en la PAC tanto
el rezago 30 como 31 salen, aunque poco, de las bandas de confianza. Por otra parte,
el valor de los coeficientes de AC y PAC son muy menores a 1. Pero como se comento,
los valores para los rezagos 30 y 31 son los más altos de los 36 rezagos mostrados en
el correlograma. A pesar de ello, vemos que la probabilidad asociada al estadístico Q
son todas mayores a 0.05.
Derivado del análisis realizado al correlograma podemos concluir por adelantado que
los residuos son ruido blanco, es decir, k ~ N(0, 1/n).
Test DF, ADF y PP para los residuos: Para verificar que los residuos son ruido
blanco, podemos ahora realizar sobre ellos los Test DF, ADF Y PP. Para ello,
debemos crear la serie de los residuos. Así, volvemos a correr la regresión, para
ello tenemos dos opciones: 1) Si estamos en la ventana de la ecuación vamos a:
Estimate/Ok.; y 2) En el menú principal vamos a: Quick/Estimate Equation…/y
escribimos la ecuación planteada con antelación. El porque hay que realizar
estos pasos se debe a que el programa tan sólo guarda la información en tanto
que no se realice una nueva operación, como es el caso de una nueva regresión,
es decir, guarda la información momentáneamente. De tal suerte que, al correr la
regresión o al volverla a estimar Eviews generará los residuos de la misma
automáticamente en la serie “resid” que aparece en el Workfile. A continuación
en el menú del Workfile vamos a: Objects/New Object…/Series/, y le damos el
nombre de U1/Ok. Misma que aparecerá en la ventana del archivo de trabajo. De
la serie “Resid” generada momentáneamente copiamos los valores de los
residuos a partir de la observación 2 hasta la 285 y las copiamos en la nueva
serie creada denominada U1 habiendo oprimido con antelación el botón “Edit +/-“
de la ventana de la nueva serie para que nos permita incluir los datos. Una vez
hecho esto, podemos ahora realizar las pruebas de raíces unitarias sobre los
residuos para probar si son o no ruido blanco.
814
Cuadro 12.4.3.24.: Correlograma de Residuales.
815
regresión no presenta tendencia indicaremos para los tres test “None”, obteniendo los
siguientes resultados:
Para DF:
Para ADF:
Para PP:
816
Conclusión: Como en las tres pruebas la probabilidad asociada a cada estadístico es
menor a 0.05 y en virtud de que el valor de los estadísticos DF, ADF y PP son mayores
a los valores críticos de MacKinnon al 5% concluimos que la serie de los residuos no
presenta raíz unitaria, por tanto, es ruido blanco, es decir, tiene un comportamiento
aleatorio.
Ahora realicemos el segundo modelo planteado siguiendo y/o aplicando los mismos
pasos y criterios descritos en el punto IV para el primer modelo. Por razones de
espacio, tan sólo mostraremos los resultados obtenidos dejando al lector la
interpretación, misma que puede realizarse como práctica. De tal suerte que los
resultados son los siguientes:
817
Durbin-Watson stat 1.969314 Prob(F-statistic) 0.000116
Inverted AR Roots .97 .61 -.76i .61+.76i -.22 -.95i
-.22+.95i -.87+.42i -.87 -.42i
Inverted MA Roots .99 .93 -.09i .93+.09i .89+.28i
.89 -.28i .82 -.45i .82+.45i .71+.61i
.71 -.61i .62+.78i .62 -.78i .57 -.74i
.57+.74i .41+.84i .41 -.84i .23 -.91i
.23+.91i .05 -.93i .05+.93i -.14+.92i
-.14 -.92i -.22+.97i -.22 -.97i -.32+.88i
-.32 -.88i -.49+.79i -.49 -.79i -.64+.68i
-.64 -.68i -.77+.53i -.77 -.53i -.86+.37i
-.86 -.37i -.89 -.43i -.89+.43i -.92+.19i
-.92 -.19i -.94
Matriz de covarianzas:
818
Gráfica 12.4.3.11.: Gráfica de parcela y residuales.
819
Cuadro 12.4.3.30.: Correlograma de residuales.
820
Cuadro 12.4.3.31.: Prueba de Raíz Unitaria Dickey-Fuller.
821
X) Selección del modelo.
Ahora bien, si varios modelos pasan las pruebas de validación y se quiere discernir
entre uno u otros, existen criterios para determinar cual de ellos es mejor. Es decir, los
siguientes criterios se utilizan principalmente como elemento de comparación entre
modelos alternativos para una misma variable, entre ellos tenemos:
I ei2
L 1 ln( 2 ) ln
2 I
Donde:
I = Número de observaciones.
De acuerdo a Cabrer, et al.- (2001: 47) el valor que toma la función logarítmica de
verosimilitud puede ser un criterio para valorar la bondad del modelo, esencialmente
cuando se trata de comparar dos o más modelos alternativos. Pero, ¿Por qué no utilizar
822
el R2 para discernir entre un modelo u otro? Porque la principal ventaja de este
estadístico frente al R2 es que no se ve influido por las transformaciones a que se
puede ver sometida la variable endógena. Por lo que se refiere a este criterio para la
elección entre distintos modelos, se escoge aquel modelo que presenta un valor de la
función logarítmica de verosimilitud (L) más alto.
2K 2L
AIC
I I
Donde:
I = Número de observaciones.
El AIC sirve para comparar la bondad de ajuste entre dos modelos. El criterio para la
elección entre distintos modelos se fundamenta en el valor estimado del estadístico. Se
selecciona aquel modelo que presenta un estadístico AIC menor.
823
K * ln( I ) 2 L
SC
I I
Donde:
I = Número de observaciones.
Al igual que L y AIC, éste sirve para comparar la bondad de ajuste entre modelos
alternativos. El criterio de elección de un modelo entre varios alternativos se
fundamenta en el valor estimado del estadístico. Se selecciona aquel modelo que
presenta un estadístico Schwarz menor.
De tal suerte, los resultados obtenidos en los dos modelos planteados son:
824
Primer modelo: Segundo modelo:
Criterios
ARIMA(7,1,7) ARIMA(7,1,7)*SARIMA(0,0,31)
Suma de cuadrados de los residuos 0,383111 0,376377
Desviación estándar de la regresión 0,037393 0,03713
Coeficiente de determinación 0,056671 0,073251
Coeficiente de determinación ajustado 0,049785 0,063067
Logaritmo de verosimilitud (L) 518,7615 521,2175
Criterio de información de Akaike (AIC) -3,72391 -3,734423
Criterio de Schwarz (SC) -3,684661 -3,68209
825
Y con esta ecuación de regresión es con la que vamos a proceder a predecir el precio
de las acciones de ARA.
XI) Predicción.
Una vez seleccionado y planteado el modelo definitivo, es decir, aquel que cumple
satisfactoriamente los criterios de evaluación establecidos, puede pasarse a la etapa de
predicción.
La diferencia entre una y otra es que la primera nos permite predecir sólo un periodo
por delante y utiliza los valores reales para estimar y predecir, por ejemplo, para nuestro
caso, tan sólo nos proporcionará el precio de las acciones para la observación 286;
mientras que la segunda permite al modelo que vaya realimentando sus propias
predicciones, es decir, permite predecir para varias observaciones de una sola vez.
Ambas predicciones (estática y dinámica) coinciden para el primer periodo, pero, a
partir del segundo, la predicción dinámica utiliza el valor estimado y no el valor real del
periodo precedente.
Para nuestro caso, tal y como hemos venido trabajando o más bien dicho, generando la
serie, Eviews no la reconoce como transformación y diferenciación de la serie ordinaria
(original) ARA, es decir, por ejemplo, a la serie DLARA la reconoce como una serie
ordinaria (original) y no como una transformación de la serie ARA. Por lo que, al realizar
la predicción, Eviews tan sólo nos permitirá realizarla para la serie DLARA y no para la
serie ARA. Por ejemplo, al realizar la predicción de la serie DLARA tal y como hasta el
momento hemos venido trabajando, Eviews nos desplegará el siguiente cuadro de
diálogo:
826
Como puede observarse, Eviews nos desplegará una ventana para la predicción de
DLARA teniendo nosotros que realizar las transformaciones necesarias para obtener
los valores de la predicción de la serie ARA.
Por tanto, en virtud de que Eviews no reconoce la serie DLARA como una
transformación y diferenciación de la serie ordinaria (original) ARA hay que generar una
nueva serie. Así, en el menú principal vamos a: Quick/Generate Series…/Ok, y en la
venta que despliega escribimos:
dlogara=dlog(ara)
827
Así, una vez generada la nueva serie [DLOG(ARA)], misma que por cierto deberá ser
exactamente igual a la serie DLARA como puede observarse en el siguiente cuadro:
dlog(ara)_c_ar(7)_ma(7)_sma(31)/Ok.
828
Cuadro 12.4.3.37.: Análisis de Regresión del Modelo AR(7) MA(7) SMA(31).
ls_dlog(ara)_c_ar(7)_ma(7)_sma(31)/Ok.
829
Cuadro 12.4.3.37.: Especificación de estimación.
830
Gráfica 12.4.3.12.: Gráfico de estimación.
Como puede observarse, la serie ARAF está dentro de las bandas de confianza por lo que podemos
concluir que la predicción es buena. Asimismo, con respecto a las estadísticas, dado que casi todas (con
la excepción de root mean squared error, mean absolute error y mean abs, percent error) tienen valores
menores a uno, decimos que es buena estimación de la predicción.
El siguiente cuadro muestra los precios reales de las acciones de ARA para la observación 281 a 290, la
estimación y predicción realizada con nuestro modelo con el método dinámico para las mismas
observaciones, así como el error de predicción:
831
Cuadro 12.4.3.38.: Serie de datos reales.
Obs. Fecha Precio real (Pr) Precio estimado (Pe) Error (Pr-Pe)
281 13/Feb/2009 3.87 3.25 0.62
282 16/Feb/2009 3.86 3.23 0.63
283 17/Feb/2009 3.64 3.21 0.43
284 18/Feb/2009 3.76 3.20 0.56
285 19/Feb/2009 3.86 3.18 0.68
286 20/Feb/2009 3.71 3.16 0.55
287 23/Feb/2009 3.67 3.15 0.52
288 24/Feb/2009 3.75 3.13 0.62
289 25/Feb/2009 3.65 3.11 0.54
290 26/Feb/2009 3.83 3.09 0.74
Observese que el error de estimación (para el caso de las observaciones 281 a 285) y
el error de predicción (para el caso de las observaciones 286 a 290) es grande, en
promedio de 0.589 pesos por acción, con el método dinámico. Así, la predicción nos
proporciona una guía para determinar, en este caso, la compra o venta de acciones de
Consorcio ARA. Téngase presente, además, que los modelos ideales para predecir
series financieras son los ARCH y GARCH. Sin embargo, puede utilizarse la
metodología Box & Jenkins para este tipo de series recomendándose la predicción
para tres días posteriores y no más (Reyes, 2009).
Ahora bien, podemos realizar la predicción con el método estático con la restricción de
que tan sólo nos proporcionará la estimación para la siguiente observación, en nuestro
caso, la 286. Por lo que, si queremos estimar para la predicción 287 tenemos que
ingresar el precio real de las acciones de ARA para la observación 286, es decir,
necesitamos alimentar constantemente la serie. Sin embargo, este método es más
preciso en virtud de que utiliza el valor real anterior en lugar de utilizar el valor o los
valores estimados como el método dinámico.
832
Gráfica 12.4.3.13.: Gráfico de proyección.
Note usted en la gráfica el precio estimado de las acciones de ARA (araff) con el
método estático ésta más pegado a las bandas de confianza y ello se debe a que a
través de este método de estimación, estático, se utilizan los valores reales y no los
estimados. Por lo que la estimación con este método será más precisa. Asimismo, con
respecto a las estadísticas, dado que casi todas (con la excepción de mean abs,
percent error) tienen valores menores a uno, decimos que es buena estimación de la
predicción.
El siguiente cuadro muestra el precio real, estimado y de predicción con el método
estático para las observaciones 281 a la 286:
Obs. Fecha Precio real (Pr) Precio estimado (Pe) Error (Pr-Pe)
281 13/Feb/2009 3.87 3.98 -0.11
282 16/Feb/2009 3.86 3.83 0.03
283 17/Feb/2009 3.64 3.81 -0.17
833
284 18/Feb/2009 3.76 3.61 0.15
285 19/Feb/2009 3.86 3.77 0.09
Como se desprende del siguiente cuadro, el error de estimación (para el caso de las
observaciones 281 a 285) y el error de predicción (para el caso de la observación 286)
es muy pequeño. Por ejemplo, para el caso de la predicción del precio de las acciones
del 20 de febrero de 2009 el error entre el precio real y el de predicción es de -0.08
pesos por acción, es decir, 8 centavos de peso. Error muy inferior al error del precio de
predicción para la misma fecha con el método dinámico, a saber, 55 centavos de peso
por acción.
834
Como puede observarse la predicción con el método estático (ARAFF) es más exacta
que la predicción con el método dinámico (ARAF), ello debido a que, como se comento,
el primero utiliza los valores reales para la estimación posterior y el segundo utiliza los
valores estimados para las predicciones posteriores.
835
APENDICE A: HERRAMIENTAS MATEM ATICAS BASICAS
Un conjunto se especif ica listando sus m iem bros, en cualquier orden, dentro de
llaves. El conjunto anterior se pone así: {4,6,8,10,12, 14}, m ism o que podem os
identif icar con la let ra A. Así, decim os por ejem plo que un conjunto A es un
subconjunto de un conjunto B todos los elem entos de A tam bién son
elem entos de B. Si A= { 6,8,10} y B = {4,6,8, 10,12,14}, entonces A es un
subconjunto de B.
Ahora bien, ciertos conjuntos de núm eros t ienen nom bres especiales. Los
núm eros 1,2,3,4,5, ....,etc. f orm an el conjunto de los ent eros positivos o
números natural es = {1,2,3,…}.
Los puntos suspensivos indican que la lista de elem entos no tiene f in, aun
cuando sabem os cuáles son los elem entos del conjunto. Por otra parte, los
enteros positivos junto con el cero y los enteros negat ivos –1,-2,-3,-4.... f orm an
el conjunto de los enteros ={…… -4,-3,-2, 1,0,1,2,3,4,….}.
Igualm ente, el conjunto de los númer os racionales, consiste en núm eros com o
1/2 y 1/ 8, que se pueden escribir com o una razón (cociente ) de dos enteros, es
decir, un núm ero racional es aquel que puede escr ibirse com o p/q, donde p y q
son enteros y q 0 ya que no se puede dividir entre cero. Los núm eros 17/19, -
3/8 y –5/-3 son r acionales; el enter o 3 es racional ya que 3 = 3/1. Todos los
enteros son racionales.
Los núm eros racionales se pueden representar m ediant e núm eros decimales
conmensurables (con un núm ero def inido de cif ras), tales com o 3/4= 0.75 y 3/2
836
= 1.5 o m ediante decimales inconmensurables periódicos (con un grupo de
dígitos que se repit en indef inidam ente), tales com o 2/3= 0.66666...., -4/11 =
0.3636....., y digam os 2/15 = 0.13333.....
Los dos, tanto los números racional es como los núm eros i rracionales
forman el conjunt o de los números reales. Estos núm eros pueden
represent arse m ediante puntos en una recta y se les llaman coordenadas .
Ejem plo:
-3 -2 -1 0 1 2 3
II.2 Ecuaciones.
Ejemplos de ecuaciones:
Vem os que cada ecuación contiene cuando m enos una vari able, donde ésta se
represent a generalm ente (pero no necesariam ente) por las letras f inales del
837
alf abeto latino y se define com o aquella literal que p uede t om ar cualquier valor
dentro de un dom inio o rango que se específ ica previam ente.
Es im portante decir que una ecuación siempre debe estar definida; es decir,
nunca se perm ite que una variable tenga un valor para el cual cualquier
expresión de la ecuación resulta indef inida. Así, en el caso de la ecuación y/( y -
5)=7, la y no puede ser 5 por que provocar ía que el denom inador f uera 0.
Por otra parte, se entiende por resolver una ecuaci ón, el encontrar todos los
valores de sus var iables para los cuales la ecuación se ver if ica; a estos valores
los llam am os soluciones de la ecuación y decim os que la satisf acen.
Cuando una letra represent a un núm ero o cant idad desconocida en una
ecuación se le denom ina incógnita. Así, en las ecuaciones a) x+2=3, la
var iable x es la incógnita; sólo el valor 1 para x satisf ace la ecuación. A esta
solución se le llam a raíz y cóm o es una sola solución escribim os 1 . En c) w=7-
z es una ecuación con dos incógnitas: w y z. Una solución es el par de valor es:
w=4 y z= 3; no obstante, ex iste una cantidad inf inita de soluciones; igualm ente,
en d) X 2 +3x+2=0, la raíz o solución es –2 porque al sustit uir x por -2 se verif ica
la ecuación: ( -2) 2 +3( -2)+2 =0.
Derivado de lo ant erior (con base en las soluciones encontradas) tam bién
podem os decir que una ecuación es un conjunto de restr icciones im puestas a
cualquiera de las variables que la integr an.
Finalm ente, es conveniente decir que una ecuación debe resolverse para las
incógnitas; dichas soluciones son los valor es encontrados para las varia bles
que, al sust ituir los en lugar de la incógnita, satisf acen la ecuación.
Ecuación lineal.
838
Una ecuación lineal en la variable x puede escribirse así:
Ax+b=0
También se le denomina de primer grado por que el exponente o mayor potencia de la variable
x es uno.
Ecuación cuadrática.
ax 2 + bx + c=0.
839
X 3 – X = 0, es una ecuación cúbica de tercer grado; y
Dado que por definición todas las ecuaciones expresan una igualdad del lado izquierdo con el
lado derecho, todas las operaciones en uno de los lados, también deben realizarse del otro lado
para que se mantenga la igualdad. Cualquier número puede sumarse o sustraerse de un lado
de la ecuación, siempre y cuando el mismo número sea agregado o restado del otro lado.
Simultáneamente ambos lados pueden multiplicarse o dividirse por el mismo número, ser
elevados a la misma potencia o sacarles la raíz cuadrada a ambos lados. Cuando se resuelven
las ecuaciones se debe tener cuidado con la remoción de los paréntesis y de las fracciones.
25X = 25
X = 1
2X – 6 = 0
X = 3
2p + 8 = 7p + 2
840
2p = 7p + 2 – 8
-7p + 2p = -6
-5p = - 6
p = -6/-5
p = 6/5
S = P + Prt
S = P (1 + rt)
P = S / (1 + rt)
y Vértice
y
x
841 x
a>0 a<0
Vértice
El punto en que la pará bola Y = ax 2 + bx +c intercepta el eje Y, es el de la
ordenada en el origen y se obtiene cuando damos a x el valor de 0. O sea
que las coordenadas de la intercepción con el eje Y, son (0, c).
Así, si la ecuación cuadrática es Y = f (x) =ax2 + bx + c sustituyendo en, -x2 – 4x +12, vemos
que a = -1, b = -4 y c = 12. Puesto que a es menor que 0, la parábola abre hacia abajo. La
coordenada X del vértice es –b / 2a = -(-4) / 2 (- 1) = -2. La coordenada Y es f(-2) = - (-2)2 – 4
(-2) + 12 = 16. Así, el vértice o punto más alto de la parábola es (-2, 16). Como c = 12, la
ordenada en el origen (x= 0) es 12.
Para determinar las abscisas en el origen, se iguala Y a 0, es decir Y = -x2 -4x +12 y con ello
determinamos el valor de x:
0 = -x2 - 4x + 12
0 = - (x2 + 4x – 12)
0 = - (x + 6) (x – 2)
842
Luego entonces X1 = -6; también, X2 = 2
Así tenemos el vértice en (-2, 16), las intercepciones en (-6, 0) y (2, 0). Como el punto de
intercepción al eje Y es (0, 12) denominado ordenada en el origen, está a dos unidades a la
derecha del vértice, (-2, 16), existe un punto a la izquierda del mismo con igual ordenada (-4,
12), con el que se obtiene la simetría con respecto al vértice.
Vértice (-2,16) y
15
(-4,12) (0,12)
12
simetría
(-6,0) (2,0) x
0
-7 -6 -5 -4 -3 -2 -1 0 1 2 3
843
Solución de ecuaciones cuadráticas usando la fórmula cuad rática.
X = -b b 2 4ac / 2a;
b) 3x2 - 5x = 2
3x2 - 5x – 2 = 0 a = 3, b = -5 y c = -2
i) Inconsistente:
844
ii) Dependiente:
2x + 3y = 6...... (1)
6x + 9y = 18..... (2)
Hay una relación o dependencia de 1 a 3 de la ecuación uno a la
dos, o
viceversa.
x + y = 5................ (1)
x – y = 1............... (2)
Solo tienen solución los sistemas de ecuaciones que son ambas independientes y
consistentes, cuya solución puede ser por los métodos de: 1. Eliminación; 2.
Sustitución y 3. Determinantes.
5x + 2y = -5........... (1)
-3x +4 y = 29................ (2)
Solución 13 x + 0 = - 39
x = -3
Comprobación:
5 (-3) + 2y = - 5
-15 + 2y = -5
y=5
Respuesta X = -3 ; Y = 5
845
De la segunda ecuación x = 10 – 7y, luego sustituyendo (10 – 7y) por x en (1)
tenemos:
3x – 4(1) = 5
x=3
Respuesta x = 3 ; y = 1
3. Por determinantes:
a11 a12
A = = a11a22 – a12a21
a 21 a 22
Vemos que el valor de A está dado por la diferencia de dos productos cruzados. Con
números:
4 5
= 4(3) – 5(1) = 7
1 3
846
a 22 a 23 a 21 a 23 a 21 a 22
A = a11 - a12 + a13
a32 a33 a31 a33 a31 a32
Ejemplo:
1 5 3
0 5 2 5 2 0
A = 2 0 5 = 1 -5 + 3
1 2 4 2 4 1
4 1 2
A = - 79
3x –4y = 5
x +7y = 10
5 4 3 4
X= entre = 35 – (-40)/ 21 – (-4) = 75 / 25 = 3
10 7 1 7
X=3
35 3 14
Para Y = entre = 30 – 5 / 21- (-4) = 25/ 25
1 10 1 7
Y=1
Regla de Cramer.
847
La solución es X1 = A1 entre A
Ejemplo: Encuentre los valores de las tres incógnitas (X, Y, Z) de las siguientes
ecuaciones usando la Regla de Cramer:
x + y +z = 6
5x –y +27 = 9
3z +6y –5z = 0
1 1 1 x 6
51 2 y = 9
3 6 5 z 0
6 1 1 1 1 1
X = 9 1 2 entre 5 1 2 = 57/57 = 1
0 6 5 3 6 5
1 6 1 1 1 1
Y = 5 9 2 entre 5 1 2 = 114/57 = 2
3 0 5 3 6 5
1 1 6 1 1 1
Z = 5 1 9 entre 5 1 2 = 171/57 = 3
3 6 0 3 6 5
848
Sistema no lineal, también llamado solución de ecuaciones simultáneas cuando al
menos una de las ecuaciones es cuadrática.
X2 + 4y = 20............... (1)
2x = 8............. (2)
X2 + 32 + 8x = 20
X2 + 8x +12 = 0
(X + 6) (X + 2) = 0
Obtenemos ya sea x = -6 o x= -2
Y +12 = 8
Y = -4
Y +4 = 8
Y =4
3x –y + 1 = 0............ (2)
849
y = 3x + 1......................... (3)
X2 - 2x + (3x +1) - 7 = 0
X2 + x - 6 = 0
(x + 3) (x – 2) = 0
Se obtiene X = -3 o bien X = 2
Como señalan E. Haeussler y R.S. Paul, el matemático G.W. Leibniz en el siglo XVII introdujo
el concepto de Función dentro del vocabulario matemático; una función es un tipo especial de
relación de entrada y salida, o dicho en otras palabras: insumo y producto.
Definición: una función es una regla que asigna a cada número de entrada exactamente un
número de salida. El conjunto de todos los números de entrada a los cuales se aplica la regla
se le llama dominio de la función. Al conjunto de todos los números de salida se le llama ámbito
o contradominio.
Ejemplo: Al invertir dinero a una tasa de interés, el interés I, (salida), depende del tiempo t
(entrada) en que se invierte el dinero. Para expresar esta dependencia decimos: “I es función
de t”. Así, supongamos que $100.00 producen interés simple a una tasa anual del 6%;
escribimos:
I=100(i) t
850
En este caso, en (2) se asigna a la entrada t el valor ½ y a la salida 3. En (1) se define la regla:
el multiplicar t por 100(0.06). Dicha en otra forma t I , también: t 100 (0.06)t.
De lo anterior observamos que el número de entrada t no puede ser negativo porque (-) no tiene
sentido. Luego entonces el dominio consiste en todos los números no negativos, t ≥ 0. En la
ecuación (2), cuando la entrada es ½, la salida es 3, es decir, es la parte del ámbito o contra
dominio.
A la variable t que representa números de entrada para una función se le llama variable
independiente y a la variable I que representa números de salida se le denomina dependiente,
pues su valor depende del valor de la variable independiente; decimos que la segunda es
función de la primera, en otras palabras, la salida es función de la entrada.
Debe comentarse que f(t) no significa f multiplicado por t, sino que f(t) significa la salida
que corresponde a t.
1 f 1=f(1)
2 4=f(2)
x x 2 =f(x)
851
II.3:1. Funciones especiales.
Función constante:
F(x) =C n X n + C n - 1 X n - 1 +........+C 1 X 1 + C 0
Donde n es un núm ero entero no negat ivo y Cn, C n - 1 ,......, C 0 son constantes
con Cn 0 se llam an f unción polinom ial en (x). A n se le llam a grado de la
función y a cada Ci, coef icient e. Luego f (x) = 4X 2 – 6X + 3 es una f unción
polinom ial de segundo grado con coef iciente inicial 4;
Tam bién: H( x) = 2-3X es una f unción de prim er grado. En est e caso se dice que
la pr im era es una función cuadrática y la segunda, función lineal.
852
Y=f(X).
Y = f(x, z, h).
En este caso el valor de Y depende del valor que tom en las variables ( x, z, h).
Estas se caracter izan por contener una constant e (b) elevada a un exponente
var iable (x), es decir, f (x) = b x , donde “b” es m ayor que 0 y tam bién “b” es 1 ,
“x” es cualquier núm ero real; tam bién decim os que cuando es m ayor que 1, la
cur va Y=b x asciende de izquier da a derecha, en otras palabr as, al aum entar “ x”
tam bién lo hace “ y”. Cuando 0 b 1 , entonces, en ese caso la curva de Y=b x
desciende de izquier da a der echa, se obser va un com port amiento dist into de la
var iable “ y” al del caso anterior, es decir, al aum entar “x”, el valor de la
var iable “ y” dism inuye y tom a valores cer canos a 0.
Un ejem plo t ípico del uso de una f unción exponencial es su aplicación a los
intereses que gana un capit al invertido durante cierto núm ero de años a una
tasa de interés det erm inada. Hablam os de interés compuesto ( 3 ) cuando: “el
interés que per cibe una sum a de diner o invertida (capital o m onto especial) se
reinvierte, de m anera que este inter és tam bién gana i nterés”. Es decir, el
853
interés se compone o convierte en capital y, por ello, “ hay interés sobre
interés”.
Por ejem plo supóngase que se invierten $100 dólares ( o cualquier otra unidad
m onetaria) a la tasa del 5% com puesto anualm ente. Al f inal del pr im er año , el
valor de la inversión es el capital or iginal ($100) m ás el interés generado por
este:
Esta es la cantidad sobre la que se genera interés para el segundo año. Al f inal
del segundo per iodo anual, el v alor de la inversión es el capital que se t enía al
f inal del pr im er año, $105 m ás el interés producido por esa cantidad:
Así, el capital se increm enta en 5% cada año. Los $110. 25 repr esentan el
capital original, m ás todo el i nterés acumulado; se le denomina monto
acumulado o mont o compuest o. La dif erencia entre el m onto com puesto y el
capital or iginal se denom ina interés com puesto . Así, el inter és com puesto aquí
es:
En térm inos m ás generales, si se inviert e un capit al “P” a una tasa de 100r por
ciento com puesto anualm ente (por ejem plo, al 5%, r es 0.05), el m onto
com puesto después de un año será:
P + Pr o bien P (1 + r).
854
P (1+r) +P (1 r ) = P (1+r) + 1 r = P (1+r) 2
Esta operación continúa. Después de tres años, el m onto com puesto es:
P (1+r) 3 .
Por considerar im portante dist inguir las ecuaciones de interés com puesto de las
de interés simple, direm os que ( 2 ) calculam os éste últ im o, cuando “ el dinero es
invertido a int erés sim ple, los pagos de interés son hechos cada año sobre la
inversión original ”. Por consiguiente si “P” pesos son invertidos a una tasa de
“r” por “t” años, el valor de la inversión, “ A”, al f inal del per iodo, será:
A= P+ Prt
Ejem plo: Calcule el valor de una inver sión de $5 00. 00 después 3 años si el
interés sim ple se paga anualm ente a una tasa anual del 5%.
A = P + Prt
A = 500 + (500*5/100*3)
A = 575 pesos
855
II.4 Funciones Explícitas e Implícitas.
8 2X2 3Y
Y X 4
3 y 2
Y = 3x
Y = 2x 2 - 5
Y = x 3 - 3x 2 + 3x – 1
En otros casos deseam os lim ita r el rango de la var iable independiente. Por
ejem plo la f unción Y X .
856
Si Y es un núm ero real X debe tener un valor posit ivo. En este caso X se lim ita
al rango de núm eros positivos. El rango o dom inio está determ inado cuando
X>0.
Así, si nos interesan todos los valores de x entre x=a, y x=b, el rango es a< x b
o hablando m ás estrictam ente a xb donde x puede ser igual a cualquiera de
los lím ites o éstos contener a ellos.
En f unciones algebr aicas se supone que la var iable es continua cuando puede
dividirse o f raccionarse, y es discreta cuando no se puede dividir o f raccionar.
II. 6 Simetría 3 .
La sim etría f orm a parte del análisis sobre el com portam iento gráf ico de las
ecuaciones.
857
y
y x2 y x2
9
1
x
-3 -2 -1 -1 0 1 2 3
Definición: Una cur va es sim étrica con respecto al eje “ y” (-X 0 ,Y 0 ) queda en
la cur va cuando (X 0 , Y 0 ) tam bién queda.
858
x y2
0 x
0 1 2 3 4
-1
-2
Luego entonces decim os que una cur va es sim étrica con respe cto al eje
de las “x” (X 0 , - Y 0 ) está en la cur va cuando (X 0 , Y 0 ) tam bién lo está.
2 (1,1)
0 x
-2 (-1,-1) -1 0 1 2
-2
859
-4
-6
En este caso se dice que la cur v a es sim étrica con respect o al “or igen” porque
si el punto (X, Y) está en la cur va, vem os que el punto con coordenadas ( -X, -Y)
tam bién lo está; en consecuencia, el segm ento de recta que une los puntos (X,
Y) y (-X,-Y) es bisecado por el or igen.
Definición: una cur va es sim étrica con respecto al “or igen” el punto (-X,-Y)
está en la cur va cuando el punto (X, Y) tam bién lo está.
II.7.1 Rectas.
860
y 300
L1
250
200
150
100
50 L2
0
0 1 2 3 4
X
10
Y
9
8
7
6
5
4
3
2
1
0
X
0 2 4 6 8
861
Ello indica que para cada aumento unitario en X se tiene un aumento de 2 unidades en Y. Por ello la
Y2 Y1 cambio vertical
m …………. (1)
X 2 X1 cambio horizontal
Y 150
(x2, y2)
100
50 (x1, y1)
0 X
0 0,5 1 1,5 2
Donde X 1 = X 2
Para una recta hor izontal, dos puntos cualquiera tiene Y 1 = Y 2 , por lo que el
num erador en (1) es cero; y decim os que m = 0
862
Y
150 (x1,y1) (x 2,Y2)
100
50
0 X
0 1 2 3 4
Y1 = Y2
II.7.1.1 Ejercicios.
1. Encontrar la ecuación de la recta que tiene pendiente 2 y pasa por (1, -3).
863
Y+3=2X -2
2. Hallar la ecuación de la recta que pasa por los puntos ( -3,8) y (4, -2).
Y-8=-10/7(X+3)
7Y-56=-10X-30
O bien:
10X+7Y+26=0
Ahora, si escogem os las coordenadas del segundo punto (4, -2) com o (X 1 ,
Y 1 ) tam bién llegam os al m ism o resultado.
y = mx+b
864
pendiente m
(0,b)
Si conocem os la pendiente (m ) y la ordenada en el origen ( b) de un a recta, la
ecuación es: Y -b=m (X-0).
Ejemplo económico:
Y = p = precio (6, 1) = (q 2 , p 2 )
1 4 3 3
Tenem os que m
62 4 4
865
p
10
5 (2, 4)
(6, 1)
0 q
-5 0 5 10 15
-5
Ello signif ica que por cada aum ento unit ario en q, ocasiona una dism inución de
¾ en P.
Y = mx + b
Y = 3x + ( -4)
Y = 3x - 4
Aplicaciones:
Un f abricante dispone de 100 kilos de m aterial con el que puede producir dos
productos, A y B, que requieren de 4 y 2 kilos de m aterial por unidad,
866
respect ivam ente. Si X y Y deno tan A y B, entonces todos los niveles de
producción están dados por los cam bios de X y Y que sat isf acen la ecuación:
p
50
(0, 50)
40
30 (10, 30)
20
10
q
0
0 5 10 15
Uso de la sumatori a
n
Com o se usará m ucho, sabem os que c on propiedad se escribe
i 1
donde
867
APENDICE B: FUNDAMENTOS DE PROBABILIDAD
Contexto e importancia
Porque nos permite predecir (Richmond et al, 1964: 101) con cierto grado de confianza los
resultados posibles de un experimento; también porque nos ayuda en la toma de decisiones
inteligentes en la economía y en los negocios, cuando existen el riesgo y la incertidumbre
(Salvatore, 1990). En este contexto, al seleccionar probabilísticamente una muestra (n) de una
población (N), con sus datos podemos estimar las características de esta última con un error
de muestreo determinado a priori. Esto significa predecir de antemano y de acuerdo con el
método de muestreo usado para seleccionarla ( Sánchez, 2005).
Por consiguiente, continuando con este razonamiento, Lind et al (2005:140) indica que la
probabilidad es el cálculo de que un evento (resultado posible) ocurra en el futuro, cálculo que
se hace a partir de una muestra (n) proveniente de una población (N), y que por eso al
procedimiento utilizado se le denomina estadística inferencial. Conjugándolos, podemos decir
que es conveniente usar esta última en situaciones en que hay incertidumbre, dado que se
mide con los métodos de la teoría probabilística.
868
Definición de probabilidad: en opinión de Lind et al (2005) es el valor entre 0 y 1
inclusive, que describe la posibilidad (factibilidad o probabilidad) de que ocurra un
evento de interés para el investigador dentro de un total de eventos, todos igualmente
factibles o con la misma probabilidad de ocurrir.
Método de Cálculo: Dicho valor se calcula con los métodos objetivo (clásico o a priori y/o el de
frecuencias relativas o a posteriori) y subjetivo (posibilidad de que ocurra un evento en
particular, la cual asigna una persona con la información actual disponible a su alcance.).
Reiterando lo anterior pero en forma ampliada, señala el Profesor L. Kazmier (1967) que
la teoría de la probabilidad se ha convertido en la base del desarrollo de los métodos que
utilizamos en la inferencia estadística, misma que tiene su origen en el método inductivo, el cual
indica que a partir del análisis de una porción de eventos o información particular podemos
generalizar, es decir, se pasa de lo particular ( muestra ) a lo general ( población o universo );
en otras palabras, seleccionamos una muestra (porción) del universo, detectamos sus
características y decimos que esas mismas características las tiene la población, o sea que la
Inferencia Estadística es aquella disciplina que basada en el análisis de la muestra por
medio de métodos y técnicas científicas, hace posible el conocimiento de las características de
la población.
Así, en lugar de garantizar que la muestra es representativa, lo mejor que puede hacer el
procedimiento de selección es darnos certeza de que no son introducidas fuentes
distorsionadoras conocidas durante la selección de la muestra, que en este caso llamamos
869
muestra probabilística, que, debe quedar claro, no es necesariamente representativa de la
población.
Al respecto, es conveniente decir que uno de los requisitos de una muestra probabilística
es que cada elemento de la población estadística tenga una oportunidad conocida,
generalmente igual, de ser incluido en la muestra.
1 Significado de probabilidad.
870
Este evento es único, no puede ser repetido muchas veces, sencillamente el 0.95
refleja la confianza que hay sobre la firma del contrato-laboral. De manera general diremos
que cuando existe un evento con un sólo resultado posible, el concepto de probabilidad
subjetiva es aplicable.
Por otra parte, en lo que respecta a la probabilidad objetiva, su cálculo por cualquiera
de los dos métodos antes mencionados no difiere sustancialmente; su diferencia radica en el
tiempo en que se calcula determinado valor probabilístico. Esto es, el procedimiento clásico se
caracteriza por la determinación apriorística de los valores antes de haber observado los
eventos; en otras palabras, no es necesario hacer el experimento para observar y registrar su
resultado, es decir, la probabilidad se calcula teóricamente.
EJEMPLO:
1
Cuando se dice que un medio ( ) es la probabilidad de obtener águilas en el lanzamiento de
2
una moneda, esto se dice sin haber lanzado la moneda al aire (el experimento es el
lanzamiento de la moneda). Por eso se dice que la probabilidad así calculada es un valor
esperado con el método clásico o teórico, el cual supone en el ejemplo que utilizamos de la
moneda, una simetría básica en los posibles resultados de un evento, por ello la moneda o el
dado que se utilizarán, no deben estar deformada o en el caso del dado, no debe estar
“cargado”, para poder calcular la probabilidad a priori.
También debemos decir que el cálculo anterior se basa en el supuesto de que los
resultados posibles son mutuamente excluyentes e igualmente probables de ocurrir. Al
respecto, es conveniente decir que en el mundo de la economía y los negocios los resultados
posibles no son igualmente probables y no conocemos de antemano su probabilidad de
ocurrencia, situación que limita el uso del método clásico para calcular las probabilidades. La
mayor crítica es que el término “igualmente probable” presupone el conocimiento previo de la
teoría de la probabilidad, situación que no siempre es cierta, además de que en el mundo real
no siempre podemos suponer que los resultados serán “igualmente probables”, de ahí que sea
interesante, muchas veces, recurrir al método de las frecuencias relativas.
871
Es importante señalar que con este método para calcular la probabilidad, que a medida
que aumenta el número de observaciones de los eventos y de sus resultados, aumenta la
exactitud en el cálculo de la probabilidad, inclusive tiende a estabilizarse en cierto valor, por
ejemplo, si realizamos el experimento de lanzar al aire, digamos 500 veces una moneda y
registramos el número de veces que cae “águila”, la frecuencia relativa, es decir la probabilidad,
tiende a estabilizarse alrededor del valor 0.5. Derivado de lo anterior, decimos que la
probabilidad así calculada es un valor estimado, cuya exactitud será mayor a medida que
aumentemos el experimento.
Una vez establecida la diferencia entre uno y otro de los dos métodos del enfoque
objetivo, a continuación podemos profundizar señalando lo siguiente:
Laplace definió la probabilidad como una razón matemática entre un grupo de eventos con
características especiales y la totalidad de eventos posibles. Explícitamente diremos: "si un
experimento da lugar a (n) eventos mutuamente excluyentes, todos igualmente probables y
(r) se consideran favorables, entonces la probabilidad de un evento favorable es r/n ".
Un evento será una muestra cuyos puntos o elementos son resultados posibles de un
experimento. Lo anterior, en el caso de una baraja americana, gráficamente se verá así:
)))))))))) ))))))))))
Como se observa, un evento puede estar representado por un punto o un agregado de puntos.
872
Gráficamente:
Evento A Evento C
Evento B Evento D
Serán eventos o resultados verificables A, B, C, D; donde cada uno de ellos está formado por
un punto como D, o agregado de puntos como A,B,C.
AXIOMAS DE LA PROBABILIDAD
Al respecto el espacio muestral puede definirse como la suma de todos los puntos de
una muestra, o de resultados posibles que produce un experimento. En opinión de Yu Lun
Chou(21) realmente debería llamarse “espacio de resultados”, porque eso son.
873
EJEMPLO.- El experimento "lanzamiento de dos monedas" genera un espacio muestral,
conteniendo cuatro puntos o resultados posibles (AA, AS, SA, SS):
donde A = ÁGUILA
S = SOL
El evento "caras iguales", está compuesto de dos puntos (AA y SS). Si queremos saber
cuál es la probabilidad de que caigan caras iguales (águilas o soles) en un lanzamiento de dos
monedas, con el método clásico, ésta será:
Nº de casos favorables
2 1
4 2
Aplicaciones:
2.- Econometría:
Modelos Econométricos
Teorema de Bayes
874
puesto que sólo así se puede cuantificar la probabilidad de éxito o fracaso en la obtención de
un resultado de interés particular.
Gráficamente :
D 6 O o O o o o Marco
muestral
A 5 O o O o o o constituído
por
D 4 O o O o o o 36 resultados
O 3 O o O o o o Posibles
# 2 O o O o o o
1 1 O o O o o o
1 2 3 4 5 6
D A D O # 2
En el caso de una baraja española, el marco muestral está constituido por 40 cartas o
resultados posibles.
875
En el caso de una baraja americana está constituida por 52 cartas o resultados
posibles. Estos resultados se clasifican en 4 grandes grupos: Diamantes, Corazones, Tréboles,
Picas, que a su vez se agrupan en dos colores, negro (26 resultados) y rojo (26 resultados).
1 1 1 1
2 2 2 2
3 3 3 3
4 4 4 4
5 5 5 5
6 6 6 6
7 7 7 7
8 8 8 8
9 9 9 9
10 10 10 10
J J J J
Q Q Q Q
K K K K
Una vez que se conoce el marco de referencia se puede decir qué es posible calcular la
probabilidad de ocurrencia de cualquiera de los resultados comprendidos en el marco de
referencia. En otras palabras, la probabilidad representa la cuantificación de éxito o fracaso de
un resultado posible.
876
2. RESULTADOS POSIBLES DE UN EXPERIMENTO.
Pueden ser:
A B
Cuando hay intersección entre ellos, es decir, que tienen puntos en común, decimos que no son
eventos mutuamente excluyentes. Gráficamente se ven así:
A A,B B
877
En ese caso el cálculo de su probabilidad es:
noA
A
P ( 8 ò 9 ò 10 ) = 0.12+.013+0.12 = 0.37
878
2.2 EVENTOS INDEPENDIENTES: A y B son independientes cuando ocurren separadamente
en el tiempo o en el espacio; cuando la ocurrencia de uno no afecta la del otro. La probabilidad
de que ambos ocurran es:
P (A y B) = P (A) * P (B)
Aquí también es conveniente advertir que a diferencia de los resultados posibles que pueden
surgir en los juegos de azar, en el mundo de los negocios, los eventos y sus resultados raras
veces son independientes, sin embargo, con ese señalamiento, no deja de ser útil para la toma
de decisiones.
Ejemplo:
La revisión de un segundo motor, dado que ya se revisó uno antes puede generar:
1).- P(ND\ND) = 8/9 *9/10 = 72/90= 4/5 =8
2).- P( D\ND) =1/9* 9/10= 9/10=9/90=1/9 =.1
ND
3.- (ND\D)= 9/9*1/10 = 9/90= 1/9= .1
4.- (D\D)= 0
suma = 1.0
879
Con estas referencias, a continuación recordemos algunos conceptos que necesitaremos para
9
relacionarlos con lo que hemos visto hasta el momento y en su oportunidad dar continuidad al
análisis de la relación que tiene la probabilidad con la inferencia estadística.
/
1
2.4 FUNCIÓN.- Es una relación de dependencia unívoca de una variable “y” de otra “x”.
Si y = f(x), decimos que los valores de y, variable dependiente, están en función de los valores
0
que tome x, variable independiente.
0
2.5 VARIABLE.- Es aquella literal (x,y,z, etc.) que toma los valores dados en un espacio
0
muestral dado.
2.7 VARIABLE ALEATORIA, X,.- Se origina en un experimento aleatorio. Es una función real
valorada y definida en un espacio muestral, con su probabilidad de ocurrencia asociada. Así, en
el caso de un dado toma los valores: 1,2,3,4,5,6, con su probabilidad asociada de ocurrencia y
permite calcular sus valores esperados: E(Xi)
880
Ejemplo 1:
Sabemos que :
Ejemplo 2.
Ahora bien, si el experimento se repite varias veces, no es necesario que el valor esperado sea
el un valor posible de la variable aleatoria, como lo muestra el ejemplo anterior de E(Xi)= 3.5.
Como concepto, como medida de tendencia central, es un concepto básico que se usa mucho
en la economía y los negocios, cuya aplicación en estos campos se ilustra de la manera
siguiente:
La probabilidad de que se incendie una casa en la colonia Juárez del Distrito Federal en
cualquier día del año 2008, es 0.005. La Compañía de Seguros Monterrey le ofrece al dueño de
la casa un seguro contra incendios con una póliza por $ 20,000 por un año; cuyo costo es $
150.00 .En este caso ¿cuál es la utilidad esperada de Seguros Monterrey?
La utilidad definida por U, es una variable aleatoria que puede tomar los valores de $150.00 si
no se incendia la casa y, de $ 19,850.00 si es que se incendia durante el año 2008, periodo que
cubre la póliza contratada. Así, la función de probabilidad de U es:
881
+ $ 150.00 - $ 19,850.00
Valor de U: ui
Probabilidad: P(ui) 0.995 0.005
La esperanza matemática o utilidad esperada por la póliza vendida siempre debe ser positiva,
como es el caso, para permitir a Seguros Monterrey el pago de gastos de administración y
acumular reservas para pagar los siniestros a los beneficiarios y tenedores de pólizas.
Ejemplo 3.
Lo anterior, desde el punto de vista del comprador, el seguro como cualquier juego de azar que
se hace para obtener una utilidad, tiene un valor esperado negativo.
La cantidad de menos $50.00 es lo que espera ganar en promedio, en caso de que se incendie
la casa y cobre el seguro por $ 20,000.00.
2.8 VARIABLE ALEATORIA DISCRETA: Es la que toma valores finitos o infinitos numerables,
que se pueden contar y que son números enteros.
2.9 VARIABLE ALATORIA CONTINUA: Es la que toma valores infinitos dentro de un intervalo:
que son medibles, fraccionables o divisibles.
882
La varianza de la variable aleatoria se define como = Var(Xi)= E(Xi- x )2
2
tanto para
variables discretas como continuas. Así, Var(Xi)= 17.50/6=2.91 y la desviación estándar,
2 = 1.70.
Con esos antecedentes, como se indicó, "Laplace" pudo cuantificar la probabilidad al decir
que "es una razón" matemática que surge de relacionar un resultado de interés con el total
de resultados posibles.
Con literales podemos decir que: (Cr) representa uno o varios resultados de interés y
(Cn) representa el total de resultados posibles, entonces si (P) denota probabilidad, por
consiguiente la P(Cr) = r/n.
Lo anterior significa que una vez conocido el marco muestral, la probabilidad de cada
uno de los resultados posibles tiene la misma probabilidad de ocurrencia, ergo, en el
experimento que consiste en lanzar un dado una vez, observamos que la probabilidad de
obtener 1, es 1/6, también que la probabilidad de obtener dos es 1/6, y en general la
probabilidad de cualesquiera de los 6 resultados posibles es 1/6.
883
de multiplicación, el cual establece: “ si una operación puede efectuarse en n1 formas y
enseguida, después de realizarse en cualquiera de esas formas, se puede efectuar una
segunda operación en n2 formas, y después de ser ejecutada en cualquiera de estas formas,
se puede realizar una tercera operación en n3 formas, y así sucesivamente hasta k
operaciones, entonces las k operaciones pueden ejecutarse en las siguientes formas:
Ahora vamos a utilizar los conceptos anteriores en el contexto del análisis combinatorio, que a
su vez nos permitirá profundizar en la demostración de la relación que tiene la probabilidad con
la inferencia estadística, ahora, en el contexto de analizar de cuántas maneras diferentes
podemos clasificar o arreglar dichos resultados posibles que, dicho en otras palabras,
podremos saber cuántas muestras podemos obtener y de cuántas maneras distintas podemos
constituirlas u ordenarlas con las unidades de muestreo que las componen.
En general podemos decir que sirve para generar distribuciones probabilísticas y para
introducir al lector al muestreo estadístico, en particular al muestreo con reemplazo
(permutaciones) y al muestreo sin reemplazo (combinaciones). Su exposición se hace a
continuación;
3.1 Permutaciones.
Así, empezaremos diciendo que una permutación es un arreglo de todos o parte de los objetos
dentro de un conjunto de objetos en un orden definido. El número total de permutaciones de
un conjunto de objetos depende del número de objetos tomados a la vez para cada
permutación. El número de objetos tomados a la vez para cada permutación puede ser:
884
a) Todos los objetos.
b) Parte de los objetos.
Uso del diagrama de árbol: el diagrama de árbol es una gráfica que se usa para mostrar los
resultados posibles (permutaciones) cuando éstos se organizan u ordenan por etapas.
PERMUTACIONES
b c abc
c b acb
r a c bac
i b
g c a bca
n a b cab
b a cba
885
A B C
Cálculo numérico: * * 6 permutaciones
3 2 1
Hay 6 permutaciones. Nótese que el arreglo A,B,C, es diferente de B,A,C aun cuando
cada uno de los 2 arreglos consiste de las mismas letras, luego en este caso decimos que el
orden en que aparece cada letra es muy importante. El número de permutaciones también
se puede obtener con la formula:
nPr= el número total de permutaciones de n objetos, tomados r a la vez. Con n=4 y tomando r a
la vez, calculemos:
4 P 3 = 4 * 3 * 2 = 24
n! 4 * 3 * 2 * 1 24
También se puede obtener con 12
(n r )! 2 *1 2
886
d
Origen
3.2 COMBINACIONES.
Ejemplo: Encontrar el número total de combinaciones tomando dos a la vez del conjunto (a, b,
c).
3C2 3* 2 6
3 combinaciones tomando 2 letras a la vez.
2! 2 *1 2
887
b
a Permutaciones Combinaciones
ac, bc, cb
Origen b
3.3 EJERCICIOS
Para afianzar el conocimiento, ahora diremos que se utilizan las fórmulas anteriores
para obtener numéricamente el número de arreglos diferentes que se pueden obtener cuando
ya no es visible el espacio muestral. Supongamos que se tiene (n) objetos diferentes y se
quiera conocer el número de maneras de ordenar estos objetos. Se puede pensar que hay (n)
espacios ó lugares donde se puede colocar los (n) objetos a fin de dar forma a cada uno
de los ordenamientos.
Así habrá (n) posibilidades para el primer objeto, n-1 para el segundo, n-2 para el
tercero y así sucesivamente hasta llenar el último lugar con el último objeto.
888
Este desarrollo no es otra cosa que el producto de nPn :
nPr= n (n-1)(n-2)...1 = n!; que sería la fórmula para obtener el número total de ordenaciones
que también se llaman permutaciones para (n) objetos.
En un esfuerzo adicional por consolidar la familiaridad con el manejo de los conceptos que
integran el conocimiento del análisis combinatorio, dada la importancia que tiene para la
inferencia estadística, decidí complementar mi exposición con la del Profesor S Shao, quien
dice:
Encontrar el número total de permutaciones del conjunto de letras {a, b, c,} tomadas
todas a la vez.
PERMUTACIONES
b c abc
c b acb
a c bac
Origen b
c a bca
889
a b cab
b a cba
A B c
Gráficamente será 6 permutaciones.
3* 2 * 1
Otro ejemplo: encontrar el número total de permutaciones del conjunto de dígitos (1,
3, 5, 7,) tomados todos a la vez.
1357
Aquí n = 4 luego 4 P4 = 4 ! 24 permutaciones, que usando el diagrama de árbol se
432 1
observa que están ordenadas o integradas de la siguiente forma:
890
5 ---- 7 -------- 1, 3, 5, 7.
1, 3
7 ---- 5 -------- 1, 3, 7, 5.
3 ---- 7 -------- 1, 5, 3, 7.
1, 5
7 ---- 3 -------- 1, 5, 7, 3.
3 ---- 5 -------- 1, 7, 3, 5.
1, 7
5 ---- 3 -------- 1, 7, 5, 3.
5 ---- 7 -------- 3, 1, 5, 7.
3, 1
7 ---- 5 -------- 3, 1, 7, 5.
1 ---- 7 -------- 3, 5, 1, 7.
3, 5
7 ---- 1 -------- 3, 5, 7, 1.
1 ---- 5 -------- 3, 7, 1, 5.
3, 7
5 ---- 1 -------- 3, 7, 5, 1.
3 ---- 7 -------- 5, 1, 3, 7.
5, 1
1 ---- 7 -------- 5, 3, 1, 7.
5, 3
7 ---- 1 -------- 5, 3, 7, 1.
1 ---- 3 -------- 5, 7, 1, 3.
891
5, 7
3 ---- 1 -------- 5, 7, 3, 1.
3 ---- 5 -------- 7, 1, 3, 5.
7, 1
5 ---- 3 -------- 7, 1, 5, 3.
1 ---- 5 -------- 7, 3, 1, 5.
7, 3
5 ---- 1 -------- 7, 3, 5, 1.
1 ---- 3 -------- 7, 5, 1, 3.
7, 5
3 ---- 1 -------- 7, 5, 3, 1.
También se puede obtener por medio del diagrama de árbol o con las siguientes fórmulas. El
diagrama de árbol es similar a los dos casos anteriores excepto que el número de columnas en
este caso es igual al número de objetos tomados para cada permutación. En general sea:
Entonces:
Fórmula Nº 2
892
nPr= n(n-1)(n-2)(n-3)...(n-r+1) para r factores. Nótese que el último factor (n-r+1) es simplificado
de [n-r (-1), También cuando r = n, el último factor se vuelve (n-n+1) = 1. Luego cuando r = n,
está última fórmula es idéntica a la del número 1.
n!
Fórmula Nº 3: nPr =
(n r )!
Esta fórmula es conveniente para cálculos cuando se tiene disponibles tablas de n! y (n-
r)!
n! 4 * 3 * 2 *1
También: nPr= 24 permutaciones
(n r )! 1
Resultados posibles
893
b ab
a c ac
d ad
a ba
b c bc
d bd
Origen
a ca
c b cb
d cd
a da
d b db
c dc
894
b c a b c 1
a c d a c d 2
d b a d b 3
a c b a c 4
b c d b c d 5
d a b d a 6
Origen
a b c a b 19
c b d c b d 20
d a c d a 21
a c d a c 22
d b a d b a 23
c b d c b 24
Otro ejemplo: Tres oficiales: Presidente, Vicepresidente y Secretario, van a ser elegidos de 20
miembros de un club. ¿De cuántas maneras pueden ser elegidos los tres oficiales?.
n! 20 * 19 * 18 * 17*...3 * 2 * 1
ó nPr= 6840maneras
(n r )! 17 * 16 * 15*...3 * 2 * 1
895
COMBINACIONES.- Es un subconjunto o un arreglo de todos o parte de los objetos de un
conjunto sin considerar el orden de los objetos.
Ejemplo:
Los arreglos posibles del conjunto de letras (A, B) son AB y BA. Puesto que el orden del
arreglo no es considerado, el arreglo AB es el mismo que BA. Por lo tanto hay solamente una
combinación (A y B) posible para el conjunto. Gráficamente:
a ________ b ab
dos
ORIGEN permutaciones y una combinación
b ________ a ba
Ejemplo: Encontrar el número total de combinaciones del conjunto de letras (A, B, C) tomados
dos a la vez.
El número total de permutaciones de tres letras, tomadas dos letras a la vez es:
Las seis permutaciones consistentes en las mismas letras son consideradas como tres
combinaciones. Por lo tanto el número total de combinaciones es:
896
3 P2 6
3
2! 2
Permutaciones Combinaciones
b …………ab …………………………….a y b
a …………ba
Origen b
a …………………. ca
b …………………………….cb
En general, sea:
n! P n!
n Cr
nPr
como nPr= entonces nCr= n r
r! ( n r)! r! r !( n r)!
Así el ejemplo anterior también puede ser calculado con estas fórmulas:
3*2 n! 3 * 2 *1
nCr =3C2 = 3 3 combinaciones.
2 *1 r !( n r)! 2!(3 2)!
897
Con ello se puede plantear el siguiente problema: Tres de 20 miembros van a ser
seleccionados para formar un comité ¿de cuántas maneras puede ser formado el comité?.
Respuesta: El comité formado por los miembros A, B, C, es el mismo que el comité formado por
B, C, A u otro arreglo consistente de los tres miembros, por lo tanto este es un tipo de problema
de combinación, puesto que no consideramos el orden del arreglo.
Aquí: n =20; r = 3
20 P3 20 * 19 * 18
n Cr 20 C 3 1,140
3! 3* 2 *1
COMBINACIONES.
Pr n!
Cr n
r!( n r )!
n
r!
52 n! 52 !
P 2 ,598.960 maneras o combinaciones.
r !( n r )! 5!(52 5)!
5
4 48
3 4 casos favorables y 2 1,128 casos favorables, luego
898
Casos posibles 2,598,960
Hemos dicho que dos o más eventos son mutuamente excluyentes si no puede ocurrir
en un cierto experimento más de uno de ellos. La probabilidad de que ocurra uno o el otro
dentro de un conjunto de eventos mutuamente excluyentes, es igual a la suma de sus
probabilidades de ocurrencia.
Si A = AS ; B = REY
4 1 4 1
P ( B) ; también P ( A) ;
52 13 52 13
P (A o B) = P (A) + P (B)
El conjunto de todos los resultados posibles se llama espacio muestral y cada resultado
se identifica como un punto en el espacio.
899
A
P (A) + P ( ~ A) =1
Esto es:
A: P (AS) =1/6
B: P (~ AS) = 5/6
Esto es, la suma de las probabilidades de todos los resultados posibles de eventos
mutuamente excluyentes es.
1/6+5/6=1
A B
900
Ejemplos adicionales de eventos mutuamente excluyentes.
2º.- El lanzamiento de una moneda dos veces genera eventos mutuamente excluyentes en
cada lanzamiento.
3º.- Al sacar una carta de una baraja americana ¿puede salir un as y un rey?
No, luego entonces estos dos resultados posibles son mutuamente excluyentes.
4º.- Al sacar una carta de una baraja americana ¿puede salir un as y una espada?
Ejemplo:
¿Cuál es la probabilidad de que una familia escogida aleatoriamente dentro de un grupo tenga
5 o más hijos?.
A: P (3 hijos) = 0.25
901
B: P (4 hijos) = 0.20
C: P (5 o más) = 0.15
A B A A,B B
902
3.3.4 EJERCICIOS SOBRE EVENTOS INDEPENDIENTES.
Ejemplo 1:
Ejemplo:
¿Cuál es la probabilidad de obtener dos ases en dos dados en una sola tirada? digamos
que A: P (de as en el primer dado = 1/6) y que B: sea la P (de as en el segundo dado) = 1/6)
Ejemplo 2:
Dos lanzamientos de una moneda son eventos independientes, luego la probabilidad de dos
águilas en dos lanzamientos sucesivos de una moneda es 1/4; porque la probabilidad P (A y
B) = 1/2 * 1/2 = 1/4; ya que como se recordará P (A y B) = P (A) * P (B).
Por otra parte, es interesante recordar que así como el diagrama de Venn sirve para ilustrar los
eventos posibles de un experimento, los diagramas de árbol sirven para ilustrar los resultados
posibles de eventos sucesivos o múltiples.
En el caso del lanzamiento de una moneda dos veces el diagrama de árbol será:
a = ÁGUILA b = SOL
903
½ a ………………..a a
½ a
Origen ½ b ………………..a b
½ a ………………..b a
½ b
½ b ……………….b b
En la vida real la mayoría de los eventos no son independientes, sino que existen interacciones
entre ellos. Si son dependientes, el concepto de probabilidad condicionada se usa para
determinar la probabilidad de una secuencia particular de eventos, el símbolo P (B\A)
significa la probabilidad de B dado que A ocurrió previamente, esto es:
P (A y B) = P (A) * P (B\A)
Ejemplo:
Una caja tiene 3 bolas rojas (R) y 2 negras (N) luego la probabilidad de R = 3/5; P (N) =
2/5 porque son cinco bolas en total.
Resultados
2/4 R ………………..R, R
3/5 R
904
Origen 2/4 N ………………..R, N
3/4 R ………………..N, R
2/5 N
1/4 N ………………..N, N
P (N\R) = 2/4
3 2 6
P (R y N) = P(R) P(N\R) = *
5 4 20
Por lo tanto
6 3
P(RyN)=
20 10
Ejemplo 4:
Ejemplo:
4 1
A : P (As en la primera selección es) =
52 13
3
B : P (As en la segunda selección es) =
51
905
4 3 12
P (A y B) = * 0.0045
52 51 2652
Así, suponga que la probabilidad de que nuestro principal competidor decida diversificar
su producto es 0.60, y si lo hace hay una probabilidad de 0.80 que construirá una nueva
planta.
Si D = Probabilidad de diversificarse
Si ~D = Probabilidad de no diversificarse
0.80
906
0.60 D
0.20
0.40
0.40 ~D
0.60
SIMILARMENTE
¿Esto indica que ha decidido diversificarse?. No, porque la decisión de construir también pudo
haberse tomado con la decisión de no diversificarse.
907
usa en eventos dependientes y de probabilidad condicional, para calcular la probabilidad
condicional que permiten hacer inferencias hacia atrás.
P(B)
P ( D) P ( B \ D) (0.6)(0.8) 0.48
Luego P ( D \ B) 0.75
P ( D) P ( B \ D) P ( ~ D) P ( B\ ~ D) (0.64) 0.64
Demostración:
P ( D) P ( B \ D) (0.6)(0.2) 012
.
P ( D\ ~ B) 0.33
P ( D) P ( ~ B\ ~ D) P ( ~ D) P ( ~ B\ ~ D) (0.6)(0.2) (0.4)(0.6) 0.36
Igualmente
P ( ~ D) P ( B\ ~ D) (016
. )
P ( ~ D \ B) 025
P ( ~ D) P ( B\ ~ D) P ( D) P ( B \ D) (0.64)
0.16+0.48=0.64
908
P( ~ D) P( ~ B \ ~ D) (0.24)
P( ~ D \ ~ B) 067
P( D) P( ~ B \ D) P( ~ D) P( ~ B \ ~ D) (0.36)
0.24+0.12=0.36
1.- ¿Por qué estudiar la probabilidad en economía y en los negocios? ¿Cuál es su importancia
?
5.- ¿Podemos decir que la probabilidad mide la expectativa de que se presente uno o más de
los resultados posibles (suceso o evento) contenidos en el espacio muestral? Explique.
9.- ¿Cuántos procedimientos existen para calcular la probabilidad? ¿el subjetivo es uno de
ellos?
10.- Dentro del procedimiento objetivo ¿cuántos métodos existen para calcular la probabilidad y
cuáles son?
11.- ¿Qué es una variable aleatoria (estocástica), qué es el espacio muestral y qué relación
existe entre ellos?
13:- ¿Qué es la esperanza matemática y qué relación tiene con la variable aleatoria o
estocástica?
909
16.- ¿Qué es una población y qué es una muestra en sentido estadístico?
19.- ¿Cuáles son las fórmulas con que se calcula la probabilidad de ocurrencia de cada uno de
ellos?
20.- ¿Para qué sirven las técnicas de permutar y combinar objetos (también llamados eventos,
sucesos o resultados posibles de un experimento?
22.- ¿Con cuál de los dos diagramas anteriores puede demostrarse fácilmente que los
resultados de un experimento pueden ser mutuamente excluyentes e independientes a la vez?
24.-¿Por qué las permutaciones y las combinaciones sirven para indicar cómo se selecciona
una muestra con y sin reemplazo, respectivamente?
nA
P( A) ; donde P (A) = probabilidad de que ocurra A
N
910
N = Número total de casos igualmente posibles.
El círculo representa el evento A y el área total del rectángulo representa todos los casos
posibles.
Cuando P (A) = 0 el evento A no puede ocurrir. Si P (A) = 1 el evento A ocurre con certeza.
2. Si con el lanzamiento de una moneda sin deformaciones se generan dos resultados posibles:
(A) ,águila y (S) sol, entonces:
911
nA
P( A) =1/2
N
ns 1
P( A)
N 2
P (1) = 16 ; P (2) = 1
6 ; P (3) = 1
6 ; P (4) = 16 ; P (5) = 1
6 y P (6) = 1
6 .
4. De los dos últimos ejemplos deducimos que el enfoque clásico para calcular probabilidades
parte del supuesto de simetría en la ocurrencia de resultados posibles de un experimento
(Kazmier, 1967: 83)
912
b) Si aumentamos el número de lanzamientos de la moneda al aire, observamos que cuando
alcanza el infinito en el límite, la frecuencia relativa o probabilidad empírica se acerca a la
probabilidad a priori o clásica. Es decir con cualquier método P (A) = 0.5
P (A ó B) = P (A) + P (B)
P (A o B) = P (A) + P (B) – P (A y B)
A
y
A B B
913
C. Eventos independientes.
Así como el diagrama de Venn, ilustra la ocurrencia de un evento, el diagrama de árbol ilustra la
ocurrencia de varios eventos o eventos sucesivos.
Con base en la definición previa, decimos que la probabilidad del conjunto P (A y B) = P (A) * P
(B).
Se dice que la probabilidad de que ocurran A y B es igual a la probabilidad del evento A por la
probabilidad del evento B dado que el evento A ya ha ocurrido, dado que
También P (A y B) = P (B y A).
Ejemplos:
= .
914
P (1 o 2 o 3 o 4 o 5 o 6) = 1 + 1 + 1 + 1 + 1 + 1 = 6 =1
6 6 6 6 6 6 6
La probabilidad de obtener un as o una espada al sacar una carta de una baraja americana, y
sabiendo que P (as) = 452 y que P (espada) = 1352 , será P (as o espada) = 452 + 1352 - 152 = 16 52
= 4
13
3. ¿Cuáles son las ventajas y desventajas de calcular la probabilidad con: a) el método clásico
o apriorístico; b) las frecuencias relativas o probabilidad empírica; c)subjetivamente?
Ventajas:
b) de las frecuencias relativas: ellas son las probabilidades de ocurrencia de eventos que
sucedieron en el pasado, y
c) subjetivamente se fundamenta en el grado de confianza que una persona tiene de que ocurra
un evento.
Desventajas:
a) del método clásico: aún cuando es adecuado en los juegos de azar, en la vida real no es
posible, sobre todo en la economía y en los negocios, i.e, es difícil fijar probabilidades a priori
de ocurrencia de los eventos de interés y, mucho menos decir que tienen la misma
probabilidad de ocurrencia los eventos de interés;
915
c) subjetivo o personalista: diversas personas pueden observar la misma realidad con
información diferente y por ello, calcular o manejar probabilidades de ocurrencia diferentes para
el mismo evento.
a) ¿Cuál es la probabilidad de que ICA llegase a necesitar 400 o más ingenieros adecuados
en los próximos 2 años?
P (≥ 500) = 0.05
b) ¿Cuál es la probabilidad de que ICA llegue a necesitar al menos 200 pero no más que 399
ingenieros adicionales?
916
P (T o E) = P (T) + P(E) - P(T, E) = 0.30 + 0.70 - 0.20 = 0.80.
T
E
0.20
0.70
0.30
7. Durante el año 2009 dos terceras partes de las acciones preferentes aumentaron sus precios
o los mantuvieron estables, en tanto que una tercera parte disminuyó su precio; suponga que
analiza la evolución en el mercado de los precios de tres acciones preferentes, seleccionadas al
azar: a) Usando A para significar que aumentó o se mantuvo constante el precio de las
acciones y B para denotar que su precio disminuyó, construya un diagrama de árbol
ilustrándolas probabilidades del aumento o disminución en el precio de las tres acciones
seleccionadas al azar (tip, debe de ser un árbol de 3 etapas de izquierda a derecha).
917
2/3
A
1/3
A B
2/3
2/3
A A
2/3
B B
0 A
1/3
A B
B A
B B
b) Con los datos del diagrama de árbol anterior, ¿cuál es la probabilidad de que hayan
disminuido los precios de las 3 acciones?
1 1 1 1
P (B, B, B,) = x x
3 3 3 27
c) ¿Cuál es la probabilidad de que al menos una de las tres acciones haya disminuido en su
precio (tip, sólo una rama en el diagrama de árbol no satisface esta condición, y por ende la
probabilidad de que los 3 productos secuenciados en este árbol pueda sustraerse de 1.0):
918
2 2 2 8
P (al menos una B) = 1- P (A, A, A) = 1 x x 1
3 3 3 27
1 8 27 8 19
1 27 27 27
a) Construya el diagrama de árbol ilustrando todos los posibles productos con su probabilidad
de ocurrencia asociada usando A y NA para denotar aumento y no aumento en la demanda de
pan Bimbo, y V y NV para expresar el incremento y el no incremento en sus ventas,
respectivamente.
.80 V
A NV
.70
919
V
.50
0
.30
NA NV
9. Los empleados de la empresa Coca Cola Drink van a ser incluidos en el SAR inscribiéndolos
en una AFORE. Para ello se toma una muestra de ellos para ser encuestados o entrevistados,
mismos que se observa se clasifican de la manera siguiente:
Supervisores A 120
Mantenimiento B 50
Producción C 1460
Administración D 302
Secretarias E 68
TOTAL 2000
920
Vemos que son mutuamente excluyentes (ocurre uno u otro) y colectivamente exhaustivos
(por lo menos uno de los eventos puede ocurrir al realizar el experimento). Con estas
referencias:
50 68 118
P (mantenimiento o secretaria) = 0.059
2000 2000 2000
302
P(X) = 1 0.849
2000
a:1 a:2
B E
D
921
10. En el examen médico anual practicado a los empleados de la empresa “Tequila Jaltotongo”
se halló que 8% de ellos necesitan zapatos ortopédicos , 15% requieren de atención dental y
3% necesitan ambos: zapatos ortopédicos y atención dental.
B Y A
B
922
11. Por su experiencia la fábrica de llantas sabe que la probabilidad de que su marca
“Duracero” dure 60,000 km. es 0.80. Si para verificarlo toma una muestra de 4 llantas al azar,
¿cuál es la probabilidad de que las 4 llantas duren 60,000 km.?
a) ¿Cuál es la probabilidad de que los 4 miembros del comité de búsqueda sean mujeres?
4 3 2 1 24
0.002
12 11 10 9 11880
8 7 6 5 1680
0.1414
12 11 10 9 11880
13. Sobre el uso de una tabla de contingencia. Sabiendo que es una tabla que se utiliza para
clasificar las observaciones de las muestras de acuerdo en dos o más características que se
pueden identificar, como la vigente; que es una tabulación realizada que resume al mismo
tiempo dos variables de interés y su relación.
Lealtad de los ejecutivos y tiempo de servicio en la empresa “Jugos Naturales del Sureste”,
denotada con A1.
923
Tiempo de servicio en años
B1 B2 B3 B4
Permanencia en 10 30 5 75 120
A1
No permanencia 25 15 10 30 80
en A1: ~A
80 105 30 155
P (A2 ó B4) = 0.775
200 200 200 200
120
P (A1)= 0.60
200
924
e) La probabilidad de que un empleado haya trabajado en la empresa menos de un año es
35
P (B)= 0.175
200
75
P (B4\A1)= 0.625
120
15. El método para calcular la probabilidad como una razón matemática, también conocido
como clásico o a priori, se aplica cuando hay n resultados igualmente posibles en un
experimento.
925
16. Teorema de Bayes. Es un método para revisar una probabilidad (a priori) cuando se obtuvo
información adicional (a posteriori). Para su exposición antes diremos que un teorema es una
suposición científica que demostrarse y que un axioma es una proposición primero o evidencia
no susceptible de demostración (Larousse, 2005:973 y 126), y que un axioma es una
proposición primera evidencia no susceptible de demostración, que es lógica y se interpreta
como un principio enunciado hipotéticamente como base de una teoría deductiva.
Con estas definiciones diremos que este teorema fue desarrollado en el siglo XVIII por el
Presbítero Thomas Bayes, quien se preguntó ¿en verdad existe Dios? Y para contestar esta
pregunta elaboró una fórmula para llegar a la probabilidad de que Dios existe (Lind et al, 2005:
160), a partir de las evidencias o información a su alcance en la tierra. Luego Laplace detalló la
investigación de Bayes y él fue quien la denominó “Teorema de Bayes”. Así, para dos eventos
mutuamente excluyentes y colectivamente exhaustivos, dicha fórmula es:
P ( A1 ) P ( B \ A 1 )
P(A1\B) =
P ( A1 ) P ( B \ A 1 ) P ( A2 ) P ( B \ A 2 )
Para ilustrar su aplicación supongamos que los eventos A1 y A2 son mutuamente excluyentes y
colectivamente exhaustivos (por lo menos uno de los eventos debe ocurrir al realizar el
experimento); además, que Ai se refiere al evento A1 ó A2.
Por otra parte suponga que 5% de la población de Sonora tiene una enfermedad que es
peculiar en esa entidad federativa. También suponga que A1 indica el evento “tiene la
enfermedad” y que A2 se refiere al evento “no tiene la enfermedad”. Luego entonces si
seleccionamos al azar una persona de Sonora, la probabilidad de que esa persona tenga la
enfermedad es 0.05 o P (A1) = 0.05. Se conoce como probabilidad a priori (Lind et al,
2005:161). Así se le llama porque se origina antes de obtener cualquier dato empírico (Idem),
ya que esta probabilidad inicial se basa en la información actual disponible.
Ahora bien, sabemos que existe una técnica de diagnóstico para detectar la enfermedad (la
cual no es del todo precisa) . Así suponga que B se refiere al evento “las pruebas demuestran
que la enfermedad está presente”. Suponga también que las evidencias históricas revelan que
si una persona tiene la enfermedad, la probabilidad de que la prueba indique su presencia es de
926
0.90. Así, si utilizamos las definiciones de la probabilidad condicional expuestas previamente,
esta afirmación se expresa como: P (B\A1) = 0.90
Ahora suponga que 0.15 es la probabilidad de que una persona que en realidad no tiene la
enfermedad la prueba indicará la presencia de ésta. P (B\A2) = 0.15
Con estas referencias ahora suponga que seleccionamos al azar a una persona de Sonora,
realizamos la prueba y ésta indica que la enfermedad está presente. Por consiguiente, ¿qué
probabilidad hay de que la persona realmente padezca la enfermedad? En forma simbólica,
queremos saber P (A1 dado B) que se lee: P (tiene la enfermedad dados los resultados de la
prueba son positivos). La probabilidad P (A1 dado B) se conoce como probabilidad a posteriori
(probabilidad revisada con base en datos adicionales).
P ( A1 ) P ( B \ A 1 )
P (A1\B) =
P ( A1 ) P ( B \ A 1 ) P ( A2 ) P ( B \ A 2 )
(0.05)(0.90) 0.0450
= 0.24
(0.05)(0.90) (0.95)(0.15) 0.1875
Interpretación: 0.24 es la probabilidad de que una persona tenga la enfermedad debido a que la
prueba dio positivo. Entonces, si se selecciona una persona de Sonora al azar, la probabilidad
de que padezca la enfermedad es 0.05. Si esa persona se somete a la prueba y el resultado es
positivo, decimos de que la probabilidad de que realmente esté enferma aumenta de 0.05 a
0.29, es decir, aumenta casi cinco veces. Con estos cambios los cálculos se resumen en:
927
Evento Ai Probabilidad Probabilidad Probabilidad Probabilidad
anterior condicional conjunta posterior
3.6.- PRÁCTICA
NOMBRE__________________________________________ GRUPO_____
PROBLEMA 1.- Al mercado concurren tres empresas con los productos A, B, C,. El número de
unidades de A es de 20, el de B es de 35 y el de C es de 45. Una unidad será elegida al azar
entre todas ellas.
PROBLEMA II.- En una localidad de 10,000 compradores las opiniones respecto a dos
productos X y Z se manifiestan de la siguiente manera:
928
4,000 a favor de X y no tienen opinión sobre Z.
1. Opinen a favor de X.
2. Opinen en contra de X.
3. No tiene opinión respecto a X.
PROBLEMA III.- Dentro de una rama industrial se encuentran 15 empresas divididas en tres
grupos: grupo México con 6, grupo Puebla con 4 y grupo Querétaro con cinco. Si denotamos
por M, P, y Q como los eventos de exportar una misma mercancía, determinar las
probabilidades siguientes:
PROBLEMA IV.- En una Facultad de Ciudad Universitaria asisten 2,500 estudiantes con las
siguientes características:
929
1.- ¿Qué es la probabilidad? _______________________________________
_______________________________________________________________;
_______________________________________________________________
_______________________________________________________________
________________________________________________________________
5.- ¿En que difiere el método de las frecuencias relativas del método teórico?__
____________________________________________________________________________
____________________________________________________
6.- ¿Para qué sirven las técnicas del análisis combinatorio? _______________
________________________________________________________________
7.- ¿Un evento sólo puede estar constituido por un punto? SI_____; NO______
8.- ¿Por qué las permutaciones sirven de referencia para el muestreo con
reemplazo?___________________________________________________________________
____________________________________________________
9.- ¿Por qué las combinaciones sirven de referencia para el muestreo sin
reemplazo?___________________________________________________________________
____________________________________________________
10.- Las permutaciones, ¿son más o menos que las combinaciones, porqué?____
________________________________________________________________
930
PROBLEMA 1:
________________________________________________________________.
PROBLEMA 2:
Si una muestra de empleados de TELMEX participa en una encuesta sobre un nuevo plan de
pensiones y si estos empleados se clasifican como se indica en el siguiente cuadro:
Supervisores A 120
Mantenimiento B 50
931
Producción C 1460
Administración D 302
Secretarias E 68
a)- ¿Cuál es la probabilidad de que una persona seleccionada al azar sea un empleado de
Mantenimiento o una Secretaria?__________________________
PROBLEMA 3:
Si usted sabe que cada año a los empleados de la Facultad de Economía les es practicado un
examen físico para conocer su estado de salud y que el año pasado se detectó que 8% de
ellos necesitaban zapatos ortopédicos, que 15% requieren de un tratamiento dental y que 3%
de ellos requieren tanto de zapatos ortopédicos como de servicio dental, así:
Observaciones: el problema uno cuenta 2 puntos; el dos, 1.5 puntos y el tres, 1.5 puntos.
932
Referencias para lo siguiente: El Centro de Diversiones Six Flags hace poco incorporó un nuevo
juego de video en sus instalaciones. Para probar su aceptación en el mercado se ha invitado a
80 jugadores veteranos para que lo usen y den su opinión sobre su mercado potencial.
4.- Si 65 de los jugadores probaron y dijeron que les gustaba el nuevo juego, ¿65 es una
probabilidad?
5.- La probabilidad de que el nuevo juego sea un éxito se calcula en –1. Haga los comentarios
pertinentes.
7.- En una baraja americana que consta de 52 cartas, ¿Cuál es la probabilidad de que al sacar
una carta, ésta sea una reina?
8.- El Instituto de Protección a la Niñez comenta que el estado civil de los padres de familia de
los 539 niños inscritos la semana pasada es el siguiente: 333 son parejas casadas; 182
divorciados y 24 son padres viudos, ¿Cuál es la probabilidad de que un niño en particular
elegido al azar tenga un padre divorciado?
9.- Con base en sus fuentes de información disponibles ¿Cuál es la probabilidad de que el
barril de petróleo tenga un precio mayor a 100 dólares en los próximos seis meses?
Hablando de las reglas para calcular la probabilidad de ocurrencia de dos o más eventos, si una
muestra de empleados de SORIANA participa en una encuesta sobre un nuevo plan de
pensiones y sí estos empleados se clasifican como se indica en el siguiente cuadro:
Supervisores A 20
Mantenimiento B 40
Ventas C 1460
Administración D 152
Secretarias E 28
933
10.- ¿Cuál es la probabilidad de que una persona seleccionada al azar sea un empleado de
Mantenimiento o una Secretaria?
12.- Ilustre con un diagrama de Venn las dos respuestas que dio en 10 y 11.
Si usted sabe que cada año a los empleados de la Facultad de Ingeniería les es aplicado un
examen físico para conocer su estado de salud y, que el año pasado, se detectó que 18% de
ellos necesitaban lentes pata leer, que 25% requieren de un tratamiento físico para bajar de
peso y que 3% de ellos requieren tanto de lentes como de ejercicio, así:
14.- ¿Cuál es la probabilidad de que un empleado seleccionado al azar necesite lentes para
leer o hacer ejercicio para bajar de peso?
16.- La empresa “Llantas para siempre” dice que la probabilidad de que su llanta QR-902 dure
en operación 60,000 kilómetros en uso, es 0.80 antes de que se haga lisa. Si usted compra
cuatro llantas QR-902, ¿Cuál es la probabilidad de que las 4 llantas duren 60,000 kilómetros en
uso?
17.- Por otra parte, sabemos que la Junta de Gobierno de la UNAM consta de 8 hombres y 4
mujeres. Si seleccionamos al azar un Comité de 4 personas para evaluar la educación, ¿Cuál
es la probabilidad de que los cuatro miembros del Comité sean mujeres?
18.- ¿Cuál es la probabilidad de que los 4 miembros del Comité sean hombres?
20.- Si tengo las letras a, b, c, y d y deseo clasificarlas con cierto orden, Si tomo dos a la vez,
¿De cuántas maneras puedo clasificarlas?
21.- Ilustre con el diagrama de árbol cada uno de los resultados anteriores.
22.- Si una población (N) consta de los elementos 1,2, y 3 determine su media aritmética ( ).
23.- Si de 22, tomo muestras (n) de tamaño 2 en un muestreo sin reemplazo, ¿Cuántas y
cuáles son las muestras a mi disposición para hacer una investigación?
24.- De 23, obtenga la Esperanza matemática de todas las medias muestrales y demuestre
que es igual a .
934
25.- De 22, si tomo muestras de tamaño 2 en un muestreo con reemplazo, ¿Cuántas y cuáles
sin las muestras que se obtienen?
27.- De 23, ¿Cuáles son las medias aritméticas muestrales cuyo valor no es igual al valor de la
media aritmética de la población? ¿En esos casos cuál es el error de muestreo?
28.- De 23, si las medias aritméticas de las muestras constituyen una distribución de medias,
¿Qué valores puede tomar la variable aleatoria?
935
II.- DISTRIBUCIONES PROBABILÍSTICAS
Este tipo de distribuciones son muy importantes porque una vez conocidas sus
características estadísticas y el alcance de cada una de ellas, ampliamos nuestra capacidad de
análisis, ya que a partir del conocimiento de sus supuestos teóricos, de su conformación, de su
distribución y de la destreza que desarrollemos para saber aplicarlas o adaptarlas a fenómenos
económicos específicos, podemos hacer estimaciones de riesgo o incertidumbre, de
parámetros, de verificación de hipótesis de trabajo, calcular y utilizar tamaños de muestras para
inferir las características de la población de donde las sacamos, etc. Todo ello a partir de
muestras sin tener que estudiar toda la población, como sería a través de un censo.
Para saber cómo se generan, empezaremos haciendo el símil con una distribución o arreglo de
datos en lo que hemos dado en llamar una distribución de frecuencias, que es una lista de
todos los resultados posibles con la asociación de una frecuencia observada por cada
resultado.
Similarmente, una distribución probabilística también es una lista de todos los resultados
posibles, pero en lugar de la frecuencia observada, se indica la probabilidad asociada con cada
uno de los resultados.
Así, si tres monedas se lanzan al aire y se registran los resultados, el número posible de
águilas en un lanzamiento puede ser: 0, 1, 2, 3.
Aún cuando hay cuatro resultados posibles sólo uno ocurre en el lanzamiento de tres
monedas.
Suponiendo que realizamos o repetimos el experimento de lanzar diez veces las tres
monedas y se registra el número de veces que cae 0, 1, 2, 3. la tabla que resulta es una
distribución de frecuencias.
No de águilas Frecuencia
Observada
0 2
1 4
2 4
3 0
936
Si el experimento se repite, una y otra vez, en cada ocasión se obtienen resultados
diferentes. Para evitar lo anterior y no conducirnos casuísticamente, es decir, estar tabulando
las frecuencias de ocurrencia de cada resultado posible, en forma aislada para luego llegar a
conclusiones circunstanciales o coyunturales en el estudio de un fenómeno económico, es
preferible tratar de generalizar aplicando procedimientos estándar de aceptación general en el
análisis de los mismos, cuyos resultados sean creíbles puesto que se maneja una metodología
aceptada por la mayoría. Para ello qué mejor referencia que el enfoque clásico o teórico, con el
que podemos determinar e indicar la probabilidad de cada producto: 0.1.2.3, ya que en su lugar
determinamos o indicamos la probabilidad de cada producto, situación que nos evita que
cambie la distribución, es decir, en el caso del experimento de lanzar tres monedas al aire y
registrar sus resultados, teóricamente éstos siempre serán: 1/8 para cero águilas o tres soles;
3/8 para un águila y dos soles; 3/8 para dos águilas y un sol y 1/8 para tres águilas.
Reiterando, mientras que una distribución de frecuencias lista todos los resultados
posibles con su frecuencia asociada indicando el número de veces que ocurre cada resultado,
la distribución probabilística también lista todos los resultados posibles con su probabilidad
asociada de ocurrencia, así: partiendo de la definición clásica la cual establece que p = 1/2 = q;
donde p = Probabilidad que caiga "águila" y q = Probabilidad de que no sea "águila"; si
lanzamos tres monedas a la vez y registramos el número de águilas, generamos una
distribución probabilística con ocho resultados posibles, que agrupados dan:
No de Probabilidad
águilas
0 1 8
1 3 8
2 3 8
3 1 8
Uno de los primeros beneficios de estos cálculos es que dada una distribución
probabilística, se puede desarrollar una distribución de frecuencias esperadas multiplicando
el valor de cada una de las probabilidades por el número total de veces que se repita el
experimento. Si lo hacemos 24 veces:
937
Frecuencia esperada en el
No de lanzamiento de 3 monedas
águilas
24 veces
0 24 * 1 8 = 3
1 24 * 3 8 = 9
2 24 * 3 8 = 9
3 24 * 1 8 = 3
Pueden ser discretas y continuas. Dentro de las primeras destacan por su uso en la economía
la distribución binomial, la hipergeométrica y la de Poisson. Dentro de las continuas, la principal
y de mayor uso es la distribución normal. Aún cuando existen diferentes maneras de generar
una distribución de frecuencias esperadas discreta, dos son usadas extensamente en la
inferencia estadística partiendo de la definición clásica de probabilidad: el diagrama de árbol y
la expansión del binomio, como se ilustra a continuación.
a) Diagrama de árbol.
b) La expansión binomial q + p.
938
Partiendo del Diagrama de árbol, en el caso del experimento consistente en el
lanzamiento una vez de tres monedas al aire, estableciendo que p es A (águila) y q es S (sol)
la distribución binomial gráficamente se generará así :
½ A 1/8
½ A
½ A ½ S 1/8
½ A 1/8
½ S
Origen ½ S 1/8
½ A 1/8
½ A
½ S 1/8
½ A 1/8
½ S
½ S
½ S 1/8
No de Probabilidad
águilas
0 1 8
1 3 8
2 3 8
939
3 1 8
Para construir el diagrama de árbol se supone que los eventos son mutuamente
excluyentes e independientes, lo cual quedó demostrado en la introducción a la probabilidad.
Ahora bien, para ilustrar la creación de la distribución binomial mediante la expansión del
binomio, (q + p). Para ello supongamos que una moneda ahora se lanza al aire dos veces y nos
interesa obtener la probabilidad de que caigan "águilas". Los resultados posibles son 0, 1, 2
"águilas"; así mismo en el caso de una moneda no deforme, en cada lanzamiento la
probabilidad de obtener águila (p) es 0.5 y la de sol es también 0.5 = q ; tal que q + p = 0.5 +
0.5 = 1. Luego la distribución binomial se obtiene de (q + p)n donde n = 2 lanzamientos de la
moneda. Así, con x representando águilas.
X P(X)
0 0.25
1 0.50
2 0.25
1.00
P (0) = 0.25
P (1) = 0.50
P (2) = 0.25
Gráficamente.
A ¼
½
940
A
½
P(x)
1.00
0.75
0.50
0.25
0 1 2 x
De esta manera una distribución de probabilidad es una lista de todos los eventos (o
valores de la variable aleatoria) que resulta de un proceso estocástico, y la probabilidad
asociada de ocurrencia de cada uno de ellos.
941
Ahora bien, usando otras literales para evitar la rutina, si p: probabilidad de éxito de x y
q: probabilidad de fracaso de x, los valores de p y q pueden variar pero su suma será q + p =
1.
Observaciones:
(q + p)3 =q3+3pq2+3p2q+p3
= 1/8+3/8+3/8+1/8
Estos resultados son iguales a los obtenidos con el diagrama de árbol y corresponden
a la probabilidad de obtener 0, 1, 2 ó 3 águilas en el lanzamiento de 3 monedas.
2.- Por otro lado, los coeficientes de cada término indican el número de formas en que
se pueden obtener los resultados.
942
Se calculan con el procedimiento usual, solo que se usan probabilidades en lugar de
frecuencias. En el caso de la media:
Xp( X ) en lugar de X
xf
p( X ) f
(x ) p(x ) en lugar de
2
(x x ) 2
f
p(x ) f
xp(x )
(x ) 2
p(x )
Gráficamente:
943
0 1 2 3 x 0 1 2 3 x
Ejemplo 1
Si el 50% de los hombres empleados en la Cía. Nestle son casados y si tomamos una
muestra aleatoria de dos hombres, ¿Cuál es la probabilidad de que la muestra contenga 2,
1 ó 0 hombres casados?
p = 1/2 = q
c = casado.
s = soltero.
Resultados Probabilidad
½ c ………………..c c ¼ = 0.25
½ c
½ c ………………..s c ¼ = 0.25
½ s
½ s ………………..s s ¼ = 0.25
944
1.00
X P(X)
0 0.25
1 0.50
2 0.25
1.00
(q + p)2
(q + p)2 = q2+2pq+p2
= (1/2)2+2(1/2)(1/2)+(1/2)2
= 1/4+2(1/4)+1/4
= .25+.50+.25=1
945
CÁLCULO DE LA MEDIA ARITMÉTICA Y DESVIACIÓN ESTÁNDAR DE LA
DISTRIBUCIÓN BINOMIAL.
xp(x ) en lugar de X
xf
p(x ) f
=1
(x ) p(x )
2
0.50 0.71 en lugar de
(x x ) 2
f
p(x ) f
Estos resultados y se obtiene más fácilmente con:
= n p ; y npq
Si p = 1/2 y n = 2 ; = 2(1/2) = 1
946
II.1.1.1. GENERACIÓN DE LA DISTRIBUCIÓN BINOMIAL CON EXCEL.
Con las referencias anteriores ahora suponga que n=5; p=0.60 y que x=2
PASOS:
947
Esta será la probabilidad de que p(x sea menor o igual a 2)=0.31744, que es la probabilidad
acumulada de x=0+x=1+x=2.
Luego entonces con este último procedimiento obtenemos la probabilidad de cada uno
de los n+1 resultados posibles cuando el ensayo o experimento se hace 5 veces.
948
II.1.1.2 LA DISTRIBUCIÓN NORMAL COMO LÍMITE DE LA BINOMIAL
Hemos visto que la distribución binomial es discreta porque sus términos son
enteros. El polígono de frecuencias no tiene otro significado que el de ilustrar su simetría o
asimetría por lo que no se pueden interpolar sus puntos al no ser fraccionables sus valores.
Sin embargo cuando n crece también lo hace el número de resultados posibles, tal que
el polígono de frecuencias se aproxima a una curva suave y acampanada que corresponde a
la distribución normal. La distribución normal fue derivada de la estandarización de la
binomial usando:
(x ) ( x np )
la variable Z que es igual a Z y con n creciendo sin límite.
npq
Si usamos el ejemplo anterior para ilustrar esta transformación y usando las nuevas literales,
tendremos:
= n p = 1; = 0.71
0.40
(Y)
0.15
-1.40 -1 1 1.40 z
949
La normal es simétrica aún cuando p es diferente de q tal que la binomial con p
diferente de q pero con n creciendo tiende a ser normal o simétrica.
Ejemplo :
n=2 n=20
0 1 2 x x
P(X)
n=200
950
A la distribución de probabilidad determinada a partir de una distribución finita de datos
discretos se le llama distribución hipergeométrica‚ En otras palabras, cuando la población
estadística es pequeña se conoce su tamaño y por consiguiente es finita. Si de ella
seleccionamos una muestra, n, que sea mayor a 5% de la población, N, y si se usa un muestreo
con reemplazo, en ese caso se aconseja utilizar la distribución hipergeométrica en lugar de la
binomial para calcular la probabilidad de un número específico de éxitos (x), cuya probabilidad
de cada uno de ellos no es la misma debido al reemplazo de los elementos en la selección de la
muestra de la población que es pequeña y por ende es finita.
Para su cálculo se parte de las fórmulas de la binomial obtenida con la formula de las
combinaciones:
n n!
r n Cr
r !( n r )!
Nn
npq *
N 1
Nn
Conociéndose con el nombre del multiplicador ó corrector finito, el cual es útil
N 1
porque ayuda a mejorar el valor de r.
Ejemplo 1.-
n2 = Automóviles europeos = 80
r = Tamaño de la muestra = 20
n
¿Cuál es la probabilidad de que x = 8 sean americanos?. Recordando que habrá 1
x
maneras diferentes de obtener 8 automóviles americanos, entonces
951
n
r - x: será el número de automóviles europeos tal que 2 maneras diferentes de obtener 12
r x
automóviles europeos.
n1 n2 120 80
x r x 8 12
N 200
r 20
952
X P(X)
Autos Americanos
120 80
0 20
P ( x 0)
0 .
200
20
1 .
2 .
3 .
. .
. .
. .
120 80
8 12
P ( x 8)
8 .
200
20
. .
. .
120 80
20 0
P ( x 20)
20 .
200
20
Suma 1.00
953
Ejemplo 2
N = 10 personas
n1 = 6 hombres
n2 = 4 mujeres
r=5
(X)
954
6 4
0 4
1
0 0.0000
10 252
5
6 4
1 4
6(1)
6
1 0.0238
10 252 252
5
6 4
2 3
15( 4 ) 60
2 0.2380
10 252 252
5
6 4
3 2
20( 6) 120
3 0.4761
10 252 252
5
6 4
4 1
15( 4 ) 60
4 0.2380
10 252 252
5
6 4
5 0
6(1)
6
5 0.0238
10 252 252
5
.9757 1.000
955
II.2.1 SU MEDIA ARITMÉTICA Y DESVIACIÓN ESTÁNDAR
Nn
npq *
N 1
(x ) 2
p(x )
3.000 0.668
= X P(X)
=3
=np
= 5(0.6) = 3
(x ) 2
p(x ) 0.668 0.81
956
Nn
npq *
N 1
10 5
5( 0.6)( 0.4 ) * 1.20 * 0.55 0.81
10 1
El profesor Lind (et al 2005) comenta que esta distribución debe usarse cuando: a) la
probabilidad de ocurrencia de cada evento (1/n) ya no sea la misma, como sucede en
poblaciones pequeñas finitas de las que se extrae la muestra (n) usando el muestreo si
reemplazo, dado que al no ser reemplazado el resultado posible que apareció en la primera
selección de la muestra, en la segunda selección se dispone de menos resultados en el
espacio muestral para ser incluidos en la muestra, y por ende la probabilidad de ser incluido
cada resultado posible en la muestra ahora es 1/n-1; en una tercera selección, al quedar menos
datos para ser incluidos en la muestra, la probabilidad de cada uno de ellos de ser incluidos en
la muestra ahora es 1/n-2, etc, ; b) cuando n sea mayor al 5% de N ( población estadística).
Por lo ilustrativo, juzgué conveniente mostrar su ejemplo, cuyo planteamiento es : Una empresa
tiene 50 empleados (N) de los cuales 4 son sindicalizados y 10 no lo son. Con esas referencias,
se tomará una muestra de 5 empleados para que participen en las negociaciones del nuevo
contrato de trabajo que regirá sus relaciones de trabajo durante el año próximo. Lind se
pregunta, ¿Cuál es la probabilidad de que 4 de los trabajadores sean sindicalizados?
Para contestar usa la fórmula de las combinaciones arriba descrita estableciendo que X
representa a los trabajadores sindicalizados y desarrolla las probabilidades de que ocurra cada
una de las X, es decir P(X), arribando a la siguiente tabla que representa la distribución
hipergeométrica:
X P(X)
0 0.0000
1 0.004
2 0.044
3 0.220
4 0.431
5 0.311
957
Total 1.0000
(np) x
P ( X ) e np *
X!
( m) x
Si np=m entonces P ( X ) e m *
X!
2 = n p q y si q 1, entonces 2, = n p = m
Ejemplo:
El gimnasio Gumesindo Brown del D.F. pide un aparato de ejercicios a Monterrey; este
es enviado con 200 tuercas para ser armado aún cuando sólo requiere 198. Las dos tuercas
adicionales son incluidas como reserva para que en caso de que salieran defectuosas
algunas se pudieran substituir con las dos de repuesto. Las tuercas son hechas por una
máquina automática que produce tuercas defectuosas con una probabilidad de 0.01.
958
p = 0.01
m = n p = 200 (0.01) = 2
( m) x
P ( X ) em *
X!
1
e 2 0.13534 por lo tanto e-m = 0.13534
(2.71828) 2
X P(X)
0.6767
X e
Fórmula: P( x)
x!
959
Colocamos el cursor en fx/ click / insertar una función/ estadísticas / clic/ BINOMIAL/
click/ aceptar/argumentos de función: x=4; media (lamda)= 2; en y en acumulado:
verdadero/ aceptar
P ( x 4 ) P ( x 0) P ( x 1) P ( x 2 ) P ( x 3) P ( x 4 )
2 0 e 2 21 e 2 2 2 e 2 2 3 e 2 2 4 e 2
P( x 4) 0,947346
0! 1! 2! 3! 4!
Tal como lo podemos observar, en la parte inferior de la figura, donde dice resultado de la
fórmula, aparece: 0,947346987
960
X e 2 4 e 2
P( x 4 ) 0,090225522
x! 4!
La ecuación para obtener sus ordenadas, dados ciertos valores de X expresados en las
abscisas en unidades de desviación estándar, es:
1 / 2 2 x 2
F(x)= 1/ 2 2 * e
donde:
x = cualquier valor de la variable aleatoria continua;
= media de la variable aleatoria normal
= desviación estándar de la variable aleatoria normal;
961
e 2.71828 ...base del logaritmo natural
3.1416 ,
dándole valores podemos construir la curva normal
Características:
Tiene forma de campana; es simétrica respecto a su media; es asíntota al eje de las x o sea
que nunca atraviesa el eje de las x.
El área bajo la curva normal es igual a 1 dado que representa la suma de las
probabilidades de todos los resultados posibles de un experimento.
En la vida real hay distribuciones de datos con medias iguales y desviaciones estándar
diferentes o con medias diferentes y desviaciones estándar iguales.
Para uniformarlas o reducirlas a un patrón único ( Hayashi et al, 1974), hacemos un cambio de
x
variable , que designamos con Z y llamamos variable normal estándar, misma que al
ser una desviación de los términos x con respecto a su media en forma estandarizada otros
autores la llaman Desviación normal estandarizada , la cual que tiene 0 y 1 ,
demostración:
x
su promedio será Z , como es una constante la podemos
N
1 x
sacar de la sumatoria Z
N
la suma de la diferencia x 0 , luego
10
Z
0
así tenemos Z 0 , lo que queda demostrado
N N
962
x x
2 2
z 0
z
N N
x x 2
2
2 x
1
2
2
z
N N N
Al ser
2
una constante la podemos sacar de la sumatoria
1 x x
2 2
1
z 2
N N
x
2
Sabemos que
N
1
Luego z * 1
Al contar con la variable Z, que expresas los valores originales expresados en términos de su
desviación estándar, ahora ya podemos utilizar los valores de Z que están en el apéndice A
para analizar e interpretar cualquier fenómeno económico en términos de sus valores
estandarizados. Esta situación aumenta la capacidad de estudio o caracterización del citado
fenómeno económico al poder ahora el investigador calcular valores esperados, determinar
limites de confianza dentro de los cuales pueda ocurrir un cierto valor del mismo, hacer
estimaciones e inclusive probar ciertas hipótesis de interés para el investigador, como se
muestra a continuación sabiendo que la normal es una distribución teórica como la binomial,
poisson e hipergeométrica, pero con datos continuos que nos ayuda a hacer análisis. Su figura
o forma es:
963
-2 -1 1 2 Z
Pero ¿cómo se obtiene, cómo se gráfica? ¿de dónde provienen los valores estandarizados de
Z?
Supongamos que el salario promedio de 15 000 obreros es de 900 pesos con una
desviación estándar de 150 pesos. Construya usted la curva normal con intervalos de 1/2 , a
partir de hasta tres veces sigma.
N = 15,000
=$ 900.00
=$ 150.00
964
a) Construya la curva normal.
Comentarios: Los valores de las coordenadas para trazarla vienen en la primera ( valores de Z )
y tercera columna ( valores de las ordenadas para una población infinita, que fueron
calculadas con la ecuación descrita al inicio del tema)del Apéndice A; basta darle valores
a z y encontrar sus ordenadas correspondientes para graficar en los cuadrantes I y II ( ya que
la curva es simétrica ) del sistema de ejes cartesianos, un número suficiente de puntos, que al
unirlos verificaremos que obtenemos una figura idéntica a una campana.
Sin embargo, cuando la población es finita, como es el caso de este ejemplo, porque
conocemos N, y sabiendo que Z es la abscisa de cada uno de los puntos que nos van a permitir
construir la curva, se debe calcular o acotar, su ordenada correspondiente a partir de los
valores presentados en la tercera columna del Apéndice A, con la siguiente fórmula:
Yx = N / * f(Z)
Xi
Donde Z del Apéndice A.
Xi Xi-µ Xi f(Z) Yx
Z
965
1125 225 1.50 0.12952 12.95
Tabulaciones:
Yx = 100 ( f(Z) )
Ejemplo 2
El tiempo de duración de 5 000 pilas para tomar fotografías producidas por una
compañía están normalmente distribuidas con media igual a 800 minutos y = 40 minutos.
N = 5 000; = 800; = 40
a)
966
Xi Xi-µ Xi f(Z) Yx
Z
Yx = N / * f(Z)
Yx = 5000 / 40 = 125
Yx = 125 * f(Z)
Z = Xi - /
Luego entonces,
Aprovechamos para reiterar que la Esperanza matemática E(X) = n p = 100 (0.383) = 38.3%
Xi
c) Partiendo de Z
967
Sabemos que Z = Xi - /
de 0.39435.
750 800
En una distribución binomial cuando n es grande, es difícil calcular los resultados; en este caso
se aplica la aproximación normal a la binomial, digamos cuando n > 25. Ejemplo:
Problema I. La compañía de seguros GNP realizó un estudio entre los dueños de bienes
asegurados, con objeto de conocer cuántos recuperaban del total que reclamaban por robo.
Halló que no se recuperaba el 80% de los hurtos reportados a GNP. Con ese referente:
968
µ = np = 200(0.8) = 160; y
σ2 = npq = 200(0.8)(0.2) = 32
luego σ = 32 = 5.66
170 160
Así, Z 1.68 Cuya área es 0.4535 por tanto
5.66
150 160
Z 1.68 por tanto su área es 0.4535, luego
5.66
Problema II. Suponga que “x” tiene una distribución probabilística binomial, con n = 50 y p =
0.25 calcule:
969
25 12.5
P(x > 25) = 0.2119 porque Z 4.08 , su área es 0.2881, por lo que
3.0619
10 12.5
P(x < 10) = 0.2119 dado que Z 0.81 cuya área es 0.2881, por tanto P(x < 10) =
3.0619
0.5000 – 0.2881 = 0.2119
Problema III. La SHCP en 2007 al hacer la devolución de impuestos federales, detectó que se
cometió un error en el 10% de las devoluciones. Suponga que en 2008 se mantiene en ese
porcentaje y se elaboraron 60 devoluciones de impuestos, ¿Cuál es la probabilidad de que
cometa:
1. Más de 7 errores.
76 1
Z 0.43 cuya área es 0.1664, por consiguiente:
2.32 2.32
970
96 3
Decimos que Z 1.29 que tiene un área de 0.4015, de manera que la P(x ≥ 9) =
2.32 2.32
0.5000 – 0.4015 = 0.0985
Problema IV. Un estudio realizado por el Gimnasio “γ” indica que 30% de sus socios tienen un
sobrepeso significativo. Hizo una promoción y logró inscribir 500 nuevos socios. ¿Cuál es la
probabilidad de que:
Sabemos que µ = np = 500(0.3) = 150 y que σ2 = npq = (500)(0.3)(0.7) = 105.0, por lo que σ =
175 150 15
105 10.24 ; así Z 1.47 cuya área es 0.4292, tal que P(x > 175) =
10.24 10.24
0.5000 – 0.4292 = 0.0708
140 150 10
Calculamos Z 0.97 y si su área es 0.3340, tenemos que
10.24 10.24
971
II.5.- PRÁCTICA
Ejercicio Nº 1.
Nombre _______________________________________________________ No de
Cta.______________________ Grupo____________
2.- Interprete los coeficientes y los exponentes de cada uno de sus términos;
3.- su media aritmética y desviación estándar, con cualesquiera de los métodos conocidos;
1.- Construya gráficamente la curva normal correspondiente con intervalos de una desviación
estándar hasta tres desviaciones estándar.
4.- ¿Cuál es la probabilidad de que un estudiante tenga entre 6.4 y 6.2 de calificación?
972
5.- ¿Cuál es la probabilidad de que un estudiante tenga entre 6.2 y 7.8 de calificación?
Problema 1 Solución.
(0.6)4+4(0.6)3(0.4)+6(0.6)2(0.4)2+4(0.6)(0.4)3+(0.4)4
0.1296+0.3456+0.3456+0.153+0.0256=1.0000
*Primera propiedad de
973
4.Su gráfica
P(X)
0.35
0.3
0.25
0.2
0.15
0.1
0.05
X
0 1 2 3 4
Es decir p q
X
X X- Z
0 -1.6 -1.67
1 -0.6 -0.63
2 0.4 0.41
3 1.4 1.45
4 2.4 2.50
6. P(X=0)=0.1296
7. P(X 2)=0.3456+0.1536+0.0256=0.5246
8. P(X=4)=0.0256
9. P(X=1)0.3456
10. E ( X ) 1.6
974
1.- Construya la curva normal
X Ordenada población
Z Ordenada finita N
X X- F(Z) Yx (Z )
7.0 0.0 0.0 0.398 398
7.2 0.2 1.0 0.241 241
7.4 0.4 2.0 0.054 54
7.6 0.6 3.0 0.0004 4
400
300
200
0 1 2 3 Valores de Z
6 .5 7 0 .5
Z1 2.5 ; su área es 0.494
0 .2 0 .2
7 .5 7 0 .5
Z2 2.5 , su área es 0.494
0 .2 0 .2
P(6.5 7 7.5)=0.988
975
Luego 200(0.988) 200estudiantes
1.- En una fábrica el 50% de los trabajadores son casados, con una muestra de tres
empleados, ¿cuál es la probabilidad de que:
2.- En una localidad el porcentaje de votantes por el candidato A es de 60% se toma una
muestra al azar de 5 personas, ¿cuáles son las probabilidades de que en dicha muestra,
voten por el candidato mencionado?
a) Ninguna persona
b) Más de 3 personas
c) Cuando menos 3 personas
3.- El 3% de los tornillos que produce una máquina son defectuosos, ¿cuál es la probabilidad
que de 100 tornillos escogidos al azar cuando mucho haya dos defectuosos?
4.- Se ha comprobado que el 2% de una caja que contiene 200 pilas, son defectuosas ¿cuál es
la probabilidad que exactamente 3 de ellas sean defectuosas?
5.- La media de los diámetros interiores de una muestra de 200 rondanas, producidas por una
máquina es de 0.502 pulgadas y su desviación estándar de 0.008 pulgadas, el propósito
976
para que se destinan estas rondanas permite una tolerancia máxima en el diámetro de 0.496
a 0.508 pulgadas.
c) ¿Cuál es la probabilidad de que al seleccionar una pila esta dure cuando menos 750
minutos?
DISTRIBUCIÓN NORMAL
x
Fórmula: z
977
Colocamos el cursor en fx/ click / insertar una función/ estadísticas / clic/
NORMALIZACIÓN/ click/ aceptar/argumentos de función: x=64.8; media=62.3; en y en
desv_estándar=2.4./ aceptar.
62,3 64,8
Z
0 1,04
978
C. La forma DIST.NORM, nos permite agilizar las operaciones realizadas cuando utilizamos
el procedimiento (B), para hallar el área bajo la curva normal, así:
Colocamos el cursor en fx/ click / insertar una función/ estadísticas / clic/ DIST.NORM./
click/ aceptar/argumentos de función: x=64.8; media= 62.3; desv_estándar=2.4; acum=
verdadero/ click/ aceptar
979
Esta es la probabilidad correspondiente a la función distributiva acumulativa:
980
D. Ahora, otro procedimiento que podemos realizar, conociendo la probabilidad
correspondiente al área bajo la curva normal, además de la MEDIA y DESVIACIÓN
TIPICA, podemos determinar el valor x, utilizando para ello la función DIST.NORM.INV.
Veamos:
Observamos que el valor de x = 64,8, tal como lo habíamos considerado con el ejercicio
D
981
Observemos, que el resultado obtenido en este procedimiento es de 1,041889846, para el valor
de z; (z = 1,04)
982
APÉNDICE C: INFERENCIA ESTADÍSTICA.
Conceptos básicos:
Muestreo
Continuando con su aplicación, ahora veremos cómo se usa para la obtención de muestras
probabilísticas, que obtendremos de poblaciones finitas e infinitas. Motivo por el cual es
conveniente introducir de manera formal la definición de los siguientes conceptos:
983
Si el número de unidades elementales es igual al número de observaciones; se dice que la
población es la suma de las observaciones.
Por ejemplo: Si hay 600 personas e interesa la variable “x”, el peso en kilogramos de las
personas, cada persona es una unidad elemental y por lo tanto la población son las 600
personas.
* ** * * *
* ** * * *
* * * * * *
(R, Q, P)
MUESTRA: se define como una porción de la población estadística que es seleccionada para
estudiarla y de ella inducir (inferir) las características que puede tener la población estadística.
984
El tipo de muestra y representatividad que se obtiene con ella depende de la forma en que
haya sido extraída la muestra de la población. Se habla de procedimientos “dirigidos” (también
conocidos como piloto) y de métodos de selección probabilística como el muestreo simple
aleatorio, de muestreo sistemático, de muestreo estratificado, por conglomerados, etcétera.
Dentro de los primeros se habla de una muestra no aleatoria, que es la parte de la población
que el investigador selecciona arbitrariamente para estudiar a partir de ella a la población.
Cuando se utilizan los segundos métodos se habla de una muestra aleatoria y se dice que
tienen en común el hecho de que seleccionan la muestra al azar, además de que cada
elemento de la población tiene la misma probabilidad de ser incluido en la muestra, que se
conoce como muestra probabilística y tiene características importantes que más adelante
describiremos.
985
Se recomienda el uso del muestreo científico, también llamado aleatorio o probabilístico, es
que por lo regular el investigador tiene a su disposición muchas muestras con composiciones
diferentes, de manera que según la muestra utilizada puede haber errores o diferencias entre
los valores de los parámetros y de sus estimadores correspondientes. Dichos errores no se
pueden evitar en una selección aleatoria pero si cuantificar a priori cuando se determina
986
matemáticamente el tamaño de la muestra, es decir, en la planeación de la investigación por
muestreo se conoce el error de muestreo (que debe ser igual o menor al error permitido), así
como el nivel de confiabilidad de los “estadísticos” muestrales.
La exactitud o confiabilidad de una muestra, depende de dos tipos básicos de errores: errores
de muestreo, que se reflejan en estimaciones matemáticas de la precisión de
estimadores provenientes de muestras particulares, y se manifiestan en diferentes formas
clasificadas bajo la notación de sesgos o distorsiones.
Los errores de muestreo se miden a través de las llamadas fórmulas de error estándar. De
acuerdo con estas fórmulas, se hacen estimaciones de la precisión de estimadores
muéstrales particulares y siguiendo el procedimiento apropiado; estas mismas fórmulas sirven
de base para determinar el tamaño de la muestra requerida, de acuerdo con una
precisión especificada previamente. Las fórmulas del error estándar han sido desarrolladas
para una gran variedad de diseños muéstrales y en la actualidad es una cuestión rutinaria su
aplicación a cada uno de los casos.
987
SELECCIÓN DE LA UNIDAD DE MUESTREO.
La aplicación de los métodos de muestreo estadístico tiene por objeto, seleccionar algunos
elementos del universo que se trata de estudiar, para poder hacer inferencias sobre sus
características. La selección de estas unidades se hace a partir de una lista, mapas, croquis,
directorios, o una combinación de estos elementos informativos, los que deben contener
todas las unidades de interés y permitir determinar la probabilidad de su inclusión; así
mismo, que en el momento de levantar la encuesta, la identificación de cada unidad en la
muestra sea hecha sin ninguna ambigüedad.
Al conjunto de todos los elementos se le llama: MARCO MUESTRAL.
De acuerdo a la forma de seleccionar estas unidades se pueden dar las siguientes maneras
de hacerla:
Con Reemplazo:
Se aplica cuando una unidad de muestreo previamente seleccionada para ser incluida en la
muestra, se regresa a la población para concursar y poder ser nuevamente seleccionada para
volver a ser parte de la muestra definitiva.
Sin Reemplazo:
En este caso la unidad de muestreo, una vez extraída para ser parte de la muestra, ya no
es regresada a la población para concursar y ser seleccionada nuevamente para formar
parte de la muestra definitiva.
Etapas:
A las unidades contenidas en el universo muestral posiblemente convenga agruparlas, a estos
grupos a su vez, se volverlos a agrupar y así sucesivamente. Dependiendo del número de
agrupamientos de las unidades de interés (o últimas unidades de muestreo), es el nombre
que se les da. Por ello, si el marco muestral no presentó agrupamientos, el muestreo se
llamará monoetápico, que es la selección directa de las unidades de interés. Si el marco
muestral presenta agrupamientos de un sólo orden se llamará bietápico, o lo que es lo mismo
se seleccionarán primero los grupos de unidades (de primera etapa) y finalmente se
seleccionarán los de interés o de segunda etapa, y así sucesivamente se tendrá el muestreo
trietápico, tetraetápico, etc.
Probabilidad:
Si las unidades de muestreo en cada etapa son seleccionadas con la misma probabilidad, el
muestreo se llamará equiprobable; en el caso contrario se dice que es de probabilidades
variables de selección en la ó las etapas que correspondan.
Estratos:
La precisión al hacerse las estimaciones básicamente depende de dos factores:
988
a) Del tamaño de la muestra; y
b) De la variabilidad o heterogeneidad de la población.
Es evidente que mientras más grande sea la muestra, representará más fielmente a la
población, tal que se pueden mejorar las estimaciones aumentando el tamaño de la muestra.
En cuanto al segundo factor para aumentar la precisión, puede dividirse el marco muestral, (si
es que se dispone de los medios necesarios) en clases homogéneas llamados estratos y
seleccionar separadamente en cada estrato una muestra, garantizando con esta forma
cualquier representación deseada de todos los estratos de la población. La denominación de
un método de muestreo se forma indicando estos conceptos: etapa, probabilidad y con ó
sin reemplazo. Al constituir los estratos con elementos cuyos valores son cercanos entre sí, se
garantiza que la variabilidad entre ellos sea reducida y por consiguiente, que el error de
muestreo que se obtiene con este método sea el menor con respecto a otros métodos de
muestreo utilizados; esto se demuestra en las siguientes secciones.
La selección de las unidades de muestreo debe hacerse basándose en las leyes del azar;
esto es, debe asignarse a cada unidad del marco muestral una probabilidad de inclusión
en la muestra. Con este método la muestra se obtiene en selecciones sucesivas de una
unidad, cada una con una probabilidad asignada de antemano, según sea el modelo de
muestreo que se utilice, hasta completar el número de unidades que deben incluirse en la
muestra para cada etapa. Un procedimiento práctico para seleccionar las unidades, es
utilizando una tabla de números aleatorios como la que aparece en el apéndice N de la
sección de tablas estadísticas.
Conviene destacar que estas tablas sirven para asegurar que todos los elementos del universo
tienen la misma probabilidad de ser seleccionados aleatoriamente como parte de la muestra
que se extraiga de la población.
Estas tablas están constituidas por arreglos de dígitos ordenados de manera tal que cada uno
de ellos represente a un elemento de la población e indica que dicho elemento tiene la misma
probabilidad que el resto de ser seleccionado aleatoriamente como integrantes de la muestra.
El uso de las tablas de números aleatorios puede ilustrarse con el siguiente ejemplo, relativo a
la selección aleatoria de la muestra.
989
Supóngase que se van a seleccionar tres Escuelas de Medicina Veterinaria y Zootecnia para
ser consideradas como muestra de las 18 escuelas de Medicina Veterinaria y Zootecnia
existentes en el país:
Si n = 3 y N = 18. Decimos que el universo está constituido por dos dígitos; si N fuera 4327,
diríamos que está formado por cuatro dígitos; el número de dígitos del universo es el límite
máximo para trabajar dichas tablas. Así, en nuestro ejemplo, se hace la relación o numeración
de las escuelas que integran el universo: a cada uno de las 18 Escuelas se le asigna un
número de dos dígitos: 01, 02, 03, ..., 18.
En seguida se seleccionan pares de números de la tabla de manera consistente.
Por ejemplo: la selección podría empezar en la parte superior de la tabla, - primera columna
-, la siguiente columna, etc. Esto produce los siguientes pares de dígitos: 01, 04, 06.
Estos dígitos identifican la escuela en la población que será considerada como elemento de la
muestra.
Si el número par al azar excede el número de unidades posibles de muestreo (N = 18) como el
número 31, el número es ignorado y se selecciona el siguiente número, 16 -por ejemplo- y
al seguir seleccionando para completar el tamaño de la muestra y ésta vuelve a aparecer, en
este caso también se ignora y se continúa buscando un número distinto a 16 y no mayor que
18.
De esta manera se obtienen las tres escuelas que formarán la muestra. Esta no es la única
manera para seleccionar pares de dígitos en la tabla de manera horizontal, diagonal, en zig-
zag, etc. Lo importante es que el procedimiento sea consistente.
METODOS DE MUESTREO
Los métodos de muestreo tienen por objeto indicar la forma como se seleccionará el número
de unidades que deben incluirse en la muestra. Dependiendo de la forma en que estas se
seleccionan, de la confianza estadísticamente hablando que se requiera al hacer las inferencias
de los resultados muestrales como estimadores de los valores poblacionales y del error de
990
muestreo que se determine en relación al error permitido, es como se denomina el método de
muestreo a utilizar en la realización del estudio.
Ejemplo: Si una caja contiene seis pedacitos de papel numerados del 1 al 6; si se desea elegir
una muestra de la caja de tamaño 3, sin reemplazo, el muestreo simple aleatorio indica que
la probabilidad de cada uno de los 6 papelitos es 1/6. Al extraer el segundo, la probabilidad de
cada uno es 1/5 y así sucesivamente. En este caso cada número dentro de la caja tiene la
misma probabilidad de ser seleccionado.
Esto es, la probabilidad del número 4 es igual a:
P (A o B o C) = 1/6 + 5/6 x 1/5 + 5/5 x 4/5 x 1/4 = 3/6.
Respuesta: Cuando se adopta el muestreo aleatorio simple cada muestra tiene igual
probabilidad de ser seleccionada y es de 1/20.
En general, se dice que cuando se selecciona una muestra de tamaño n, a partir de una
población de tamaño N por muestreo simple aleatorio la probabilidad de que se seleccione
N 1
una cualquiera de las muestras posibles será:
n N
n
Lo anterior se refiere a los casos en que el muestreo se realizo sin reemplazo. Lo mismo
sucede cuando se realiza con reemplazo, aunque en la práctica se utiliza generalmente el
muestreo sin reemplazo.
991
MUESTREO ESTRATIFICADO (11)
El error de muestreo de una muestra estratificada puede considerase menor que el de una
muestra simple aleatoria del mismo tamaño. Lo anterior se debe a que el diseño de
estratificaciones hace uso de información adicional, considerando la división de la
población de acuerdo con las características relevantes y sirve para reducir el margen de error
de muestreo.
El problema con este método, es que aún cuando se conocen las características
relevantes y en base a ellas se estratifica, el tamaño relativo de los estratos en la población no
siempre se conoce con gran exactitud.
992
de los estratos en la población, elemento que desafortunadamente se subestima
frecuentemente.
Los diseños de estratificación se pueden combinar con otras como por ejemplo:
- Muestreo por área; y
- Los esquemas de muestreo por conglomerados o racimos.
Ejemplo de la situación anterior podría ser el siguiente: digamos que México podría subdividirse
en estratos regionales, tales como:
Norte;
Sur;
Este: y
Oeste.
Con áreas seleccionadas dentro de cada uno de estos estratos o regiones y con
miembros de la muestra seleccionados al interior de cada una de estas áreas, en grupos
o “racimos”. Similarmente, la selección de los miembros de una muestra estratificada
podría realizarse, ya sea usando procedimientos aleatorios o arbitrarios.
MUESTREO POLIETAPICO
Este método requiere la selección de las unidades de muestreo en diferentes etapas,
existiendo unidades de primera, segunda, etc.., etapa en un diseño muestral.
Por ejemplo: si el interés es conocer la opinión de los médicos veterinarios zootecnistas
sobre los programas de estudio de las diferentes escuelas y facultades de Medicina
Veterinaria y Zootecnia y si para ello se decide realizar la investigación en la ciudad de México,
entonces la clasificación de la ciudad en distritos permite obtener la unidad de primera etapa;
la clasificación en colonias es la unidad de la segunda etapa; la selección de las manzanas a
muestrear es la unidad de tercera etapa; y la selección aleatoria de los médicos residentes en
las manzanas previamente seleccionadas, constituyen la unidad de cuarta etapa.
Cuando la población se distribuye sobre un área muy grande, la selección de los elementos
de la muestra de toda el área puede resultar un procedimiento ineficiente y costoso. Esto es
particularmente cierto, si a las personas que entrevistan se les paga por hora y la mayor parte
del tiempo se va en viajar. El muestreo por áreas fue diseñado para resolver este
problema. Se basa en una subdivisión apriori de la población en áreas; la selección de
algunas de estas áreas con la ayuda de los métodos de muestreo aleatorio y la restricción a la
selección de las unidades que integrarán la muestra, solamente en esas áreas.
993
La restricción geográfica sirve para concentrar los esfuerzos de trabajo en ciertas regiones,
provocando reducciones sustanciales en el costo del trabajo de campo en comparación a
una muestra del mismo tamaño proveniente de un diseño distinto al de áreas.
Esta técnica de muestreo puede usarse para trabajar con muestras irrestrictas y
estratificadas. De hecho en investigaciones de gran escala la técnica de estratificar áreas es
generalmente la regla, porque asegura la representatividad de todos los segmentos relevantes
de la población a costos bajos.
En cada investigación el diseño de áreas se realiza en varias etapas; cada etapa sirve para
restringir el área geográfica de la cual se seleccionarán las unidades de la muestra.
3.- APLICACIONES
Sabiendo que una encuesta es una investigación que realiza el experto para obtener datos de
interés específico sobre un tema determinado, a continuación se expone cómo se realiza dicha
investigación ilustrando la manera cómo obtener los datos utilizando algunos métodos de
muestreo, como los siguientes:
Aún cuando este método es el más simple de los clasificados como probabilísticos, su sencillez
no deja de ser útil para ilustrar las ventajas que se derivan de la aplicación de esta
metodología al análisis de fenómenos económicos, al igual que los demás métodos de
muestreo estadístico, se caracteriza por proporcionar estimación de los caracteres de la
población.
Se asigna igual probabilidad de selección a cada unidad perteneciente a la población. Si N es
el número de unidades, la probabilidad de selección de cualesquiera de ellas es: 1/N.
994
N N!
n
n!( N n)!
Los estimadores obtenidos con la muestra que se use serán insesgados cuando su esperanza
matemática sea igual al parámetro poblacional:
E( y ) Y
y
1
Demostración: y i
n
E( y )
(y1 y2 ... yn )
E ( y1 ) E ( y2 )... E ( yn )
E( y )
nY
por lo tanto E ( y ) Y
n n n
Aplicaciones: Para ello se supone que se conoce el tamaño de la muestra requerida, el cual
se estudiará posteriormente en detalle.
Objetivo: Se desea estimar el total de familias en la localidad "y" con una muestra simple
aleatoria cuyo tamaño está dado por cuatro manzanas.
Notación:
F = n/N= Fracción de muestreo.
N = Número de manzanas en la localidad.
Y = Población total estimada
y = Promedio de familias por manzana en la muestra
m = Promedio de personas por familia.
995
Las manzanas se numeran siguiendo un orden determinado: ascendente o descendente en
este caso, resultaron ser 16 en total.
y
1 1 32
Y Ny ; si N=16 y y i ( 4 9 9 10) 8
n 4 4
Se puede estimar que el cálculo del total de las familias en la localidad tenga un 95% de
probabilidad de haber caído en el intervalo de confianza con la siguiente fórmula:
tNs tNs
Ny * 1 F Y Ny * 1 F
n n
Como se recordará:
S2
(y i y )2
y 2
i
( y )2
278
8 55
.
n n 4
Como S s 2 55
. 2.3 y t
= 1.96 tendremos que
16( 32 ) (1.96)(16)( 2.3) 4
Limites de confianza = * 1 125 a 131
4 4 16
996
El total estimado de familias (128) se halla entre 125 y 131 con una seguridad o confianza
del 95%.
El número total de habitantes se puede saber multiplicando el total estimado (Y ) por el
promedio de personas por familia (m)
Si m= 5.4; Y = 128
Ejemplo 2:
Si deseamos hacer un estudio de mercado sobre el interés que puedan tener los consumidores
sobre un producto o servicio determinado, hacemos lo siguiente:
Paso 1.- Se recaban datos para calcular la muestra probabilísticamente y con ella hacer la
encuesta entre los consumidores dado que es menos costoso y se lleva menos tiempo
realizarla que si entrevistáramos a todos los consumidores.
Paso 2.- La muestra debe de ser aleatoria, i.e., determinada matemáticamente para sustentar la
confiabilidad o representatividad de sus resultados (como estimadores del universo) con base
en criterios estadísticos y probabilísticos.
Paso 3.- Cuando no se tienen referencias estadísticas ( medias, varianzas, etc. ) se recurre a
fórmulas prácticas como las siguientes ( posteriormente se expondrán casos en que se dispone
de antecedentes estadísticos):
n= σ al cuadrado/ α*ε al cuadrado, donde
n= tamaño de la muestra;
σ= desviación estándar al cuadrado;
α= probabilidad de que no se obtenga el error permitido o diferencia máxima entre la media
muestral y µ.
ε= el error permitido o diferencia máxima entre la media muestral y µ.
Observaciones: Cuando no se conoce ningún dato que sirva de referencia para calcular
probabilísticamente la muestra se aplica la CONSIDERACION 2, descrita en el punto VI.5
DETERMINACION DEL TAMAÑO DE LA MUESTRA.
Con los datos anteriores n=10/(0.05)*9=10/0.45=22
997
Comentarios: En este caso se conoce la varianza poblacional; cuando no es así, se puede
utilizar en su lugar la varianza de la muestra obtenida en la encuesta anterior. También, si sólo
se conoce el rango de oscilación de los valores de los datos, dicho rango elevado al cuadrado
se divide entre 6. Ejemplo: si los datos extremos de la serie estadística son 30 y 90, entonces la
varianza es igual a (90-30) al cuadrado entre 6 es decir, 3,600/6= 600.
Como puede observarse, se intenta que el investigador disponga de datos en cualquier
circunstancia para calcular matemáticamente el tamaño de la muestra, dados los beneficios
estadísticos que reporta este procedimiento.
Paso 6.- Elaborar el Cuestionario, probarlo, llenarlo realizando la encuesta para obtener los
resultados muestrales deseados, con base en las sugerencias que se describen en la “Red de
actividades para realizar una encuesta” , mismas que se presentan en los puntos VI.6.4 y VI.
6.5.
Por ejemplo: Considérese el siguiente diseño muestral hecho para captar las características
del gasto familiar en consumo en 2002 y 2003.
Se diseñó una muestra probabilística multietápica del país que fue dividido en áreas. En un
muestreo multietápico, cada persona (y familia) en el universo bajo estudio, tiene una
probabilidad de ser incluida en la muestra, la cual está asociada con las probabilidades de
selección de la unidad de muestreo en la cual se localiza la persona, en cada una de las
etapas.
Lo primero que se hizo fue seleccionar con números aleatorios a las unidades de muestreo de
la primera etapa que eran de dos tipos; áreas urbanas y áreas rurales. En la segunda
etapa, con números aleatorios se seleccionaron áreas más pequeñas o manzanas dentro de
las unidades de la primera etapa, seleccionadas previamente. La tercera etapa consistió en
la división de las manzanas en áreas más pequeñas llamadas segmentos; con números
aleatorios se seleccionaron los segmentos donde el entrevistador debía tener la
información de cada una de las familias que lo integraban. Finalmente dentro de cada familia
todos los adultos más uno de cada tres adolescentes seleccionados aleatoriamente,
contestaron el cuestionario.
998
posible homogeneidad en las unidades de muestreo en la primera etapa de cada una de los
estratos, así como la integración de estos últimos con un número aproximadamente igual de
familias. Se seleccionaron automáticamente 14 áreas urbanas, porque contenían un número
de familias mayor que el establecido por estrato.
Del resto de las áreas urbanas, se seleccionó una de cada estrato, con probabilidad
proporcional a su tamaño. Similarmente en los estratos rurales, un pueblo o área fue
seleccionado con probabilidad proporcional a su tamaño.
Una vez que se han diseñado las áreas y agrupado en estratos, en cada estrato se seleccionan
ciertas áreas usando algún criterio, generalmente se aplica el llamado “probabilidad
proporcional al tamaño", con el cual cada área tiene una probabilidad ( proporcional ) de ser
seleccionada de acuerdo a su tamaño o significación dentro del estrato. Por ejemplo:
Supongamos que deseamos seleccionar con probabilidad proporcional a su tamaño una de
las siguientes cinco ciudades que integran un estrato:
Población Dígitos
(en miles)
A 100,000 100 01 - 10 10 ÷ 35
B 40,000 140 11 - 14 4 ÷ 35
C 60,000 200 15 - 20 6 ÷ 35
D 70,000 270 21 - 27 7 ÷ 35
E 80,000 350 28 - 35 8 ÷ 35
999
es uno de los siete dígito que representan la ciudad D: Si fuera 06, la muestra contendría
la ciudad A.
Este método, que es en esencia una extensión del muestreo por áreas, consiste en la
aplicación/uso de las últimas unidades del muestreo en localidades adyacentes en lugar de
permitir su dispersión en todas las áreas que comprenden la muestra.
Por ejemplo: Una muestra de 300 familias podría obtenerse seleccionando 60 grupos de 5
manzanas en lugar de seleccionar individualmente a 300 familias.
1000
MUESTREO REPLICADO
Hasta el momento, se han ilustrado métodos que requieren la selección de una sola muestra
de la población. Un procedimiento alternativo es dividir la muestra en un número igual de sub-
muestras y seleccionar cada una de las sub-muestras de la población como si cada una de
ellas fuera la única muestra a seleccionar.
Si se decide seleccionar 5 en lugar de una muestra cuyo tamaño total sea de 400 personas,
cada una de las cinco sub-muestras deberá contener 80 unidades de muestreo. Para ello
se puede dividir a la población en 125, (10 000 entre 80 = 125). Son así iguales cada una
conteniendo 80 unidades de muestreo; luego se seleccionan 5 números aleatorios entre 01 y
125 que se consideran, cada uno como punto de arranque o primer unidad de muestreo
que faltan en cada sub-muestra, se seleccionan progresivamente cada 125 familias. El
resultado, son 5 sub-muestras replicadas o interpenetrantes con 80 unidades cada una,
que agregadas suman una muestra con 400 unidades de muestreo.
decimos x - x |
LÍMITES DE CONFIANZA:
Lo antes dicho se basa en el hecho de que cuando no se conocen los parámetros y )
de la población se pueden estimar recurriendo a muestras que permiten calcular intervalos
dentro de los cuales puede estar contenido el valor de los parámetros. Estos intervalos se
llaman intervalos de confianza y sus extremos se llaman límites de confianza.
El grado de confianza de que el parámetro está contenido en el intervalo se determina por
el número de errores estándar a los cuales les corresponde un área bajo la curva que se
denomina "coeficiente de confianza" (épsilon ). Al riesgo de que el valor estimado de no
se encuentre dentro del intervalo de confianza construido alrededor de la media de la
1001
muestra, se le llama nivel de significación ( ) y es el área o probabilidad complementaria del
coeficiente de confianza.
Así = 1 - ó = 1 = área bajo la curva.
DISTRIBUCIÓN DE MUESTREO(10)
Distribución de Muestras (de medias y de proporciones )
Por analogía, la distribución de muestreo que se deriva del universo, con determinado
tamaño de muestra n y x , tendrá
2 2 N n
X E ( X ) y una varianza (X) para una población infinita y Var ( X ) para
n n N 1
una población finita donde
2 = Varianza del universo. La varianza de X se representa con 2X , cuya raíz cuadrada
x se denomina ERROR ESTÁNDAR para distinguirla de = Desviación estándar del
universo o raíz cuadrada de 2. Luego en una distribución de muestreo
X E ( X ) y x
n
(xi) : 1, 2 y 3.
Su;
1 2 3
x i
2
3 N
Su;
(1 2) 2 (2 2) 2 (3 2) 2
( xi ) 2
2
0.81
3 N 3
1002
reemplazo, habrá
N N! 3* 2 *1 3* 2 *1 6
n 3
( N n)! n! ( 3 2)! 2! 1!( 2 * 1) 2
Interpretación: Hay tres muestras de tamaño 2, cuya composición de cada una es: 1, 2; 1, 3;
y 3,2.
0 0
N n 0.81 3 2 0.81 1
X
n N 1 2 3 1 1.41 2
que nos sirve para graficar los valores estandarizados de las tres X : 1.5, 2.0 y 2.5,
obteniéndose:
Obsérvese que aún cuando N = 3, es demasiado pequeña, esta distribución tiende a la normal
por el teorema del límite central. Donde:
Xi : valores originales.
Zi : valores originales ahora expresados en unidades de desviación estándar
: Media del universo.
E ( X ) : Esperanza matemática de las X
Luego usando la distribución de muestreo vemos que hay tres medias muéstrales (1.5, 2.0 y
2.5) llamadas "ESTADÍSTICAS", que cada una de ellas puede estimar el valor verdadero del
parámetro x que generalmente se desconoce su valor en la vida real, el cual podemos
estimar que está en el rango X = error de muestreo, con cierto grado de confianza.
1003
El error de muestreo o precisión en la estimación se mide y se calcula con las fórmulas del
error estándar (en términos de probabilidad) de la media o de la proporción según sea el
caso.
Así supongamos que deseamos estimar el valor de x , para ello supongamos que
seleccionamos aleatoriamente la muestra A, que está compuesta por las unidades de muestreo
1 y 2 y por consiguiente tiene una media aritmética ( x ) = 1.5 y una desviación estándar de
(s) = 0.5.
A 1,2 1.5 (1 15
. )2 (2 15
. )2 05
.
05
.
2 2
B 1,3 2.0 (1 2 ) 2 ( 3 2 ) 2 2
1.0
2 2
La media ( X ) y desviación estándar (S) de las muestras difieren según la muestra elegida,
pero;
E ( Xi )
6
2 x x
X i
3 N
Se pueden generar distintas distribuciones a partir del cálculo de la muestra con o sin
reemplazo.
A 1,1 1.0 1
B 1,2 1.5 1
1004
÷
C 1,3 2.0 1
D 2,1 1.5 1
E 2,2 2.0 1
F 2,3 2.5 1
G 3,1 2.0 1
H 3,2 2.5 1
I 3,3 3.0 1
18.0 9
1005
9
x
x i
18
2 E (x )
N 9
1 / 9 1.5 / 9 ... 2.5 / 9 3 / 9 18
x E ( x ) P ( x ) 2
9 9
El teorema del Límite Central, establece que si una población es normal, con media y
desviación estándar, x y x, entonces si tomamos muestras de tamaño n y a estas les
calculamos sus medias aritméticas, la nueva distribución constituida por las medias de las
muestras, es una distribución muestral, normal con:
x
x E ( x ) y x para una población infinita
n
1006
Para demostrar lo anterior y trabajando con los datos conocidos:
1.5
2.0
2.5
1 .5 2 .0 2 .5 6
( x ) 2 x
3 3 3 3
. 2 ) 2 ( 2 2 ) 2 ( 2.5 2 ) 2
(15 0.50
x 017. 0.4
3 3
x
También x se obtiene con x cuando n es muy grande
n
x N n 0.81 3 2 0.81 1 0.81
x ( 0.7 ) ( 0.57 )( 0.7 ) 0.4
n N 1 2 3 1 1.41 2 1.41
x 0.4
1/3
1007
con = 95% probabilidad (área bajo la curva) de que x se halle en el intervalo X Zx ;
donde = 5% = probabilidad de que no sea así, se denomina nivel de significación.
Derivado de lo anterior diremos que a un = 95% le corresponden 1.96 errores
estándar = 1.96 x Zx .
s 0.5 0.5
Así X Zx y como; x 0.35
n 2 1.41
Interpretación: Hay una probabilidad del 95% que el valor x se halle en el intervalo de 0.80 a
2.20.
Generalizando, si la muestra seleccionada hubiera sido la B o la C, tendríamos:
B C
X =2 X = 2.5
s = 1.0 s = 0.5
n=2 n=2
s 1 1 s 0.5 0.5
Para B x 0.70; para C, x 0.35
n 2 1.41 n 2 1.41
X ZX X ZX
2 1.96( 0.70) 2.5 1.96( 0.35)
2 1.37 2.5 0.70
1008
Conclusión: En los tres casos el valor de x = 2 se halla contenido con una seguridad,
probabilidad o confianza del 95% y con un riesgo de = 5% de que no sea así, en los
intervalos antes calculados.
Gráficamente.:
x x x
x x
en los tres casos es satisfactorio ver que el error de muestreo es inferior al error permitido.
Nuevo ejemplo; ahora supongamos que = 50% y Z = 0.68.
luego = 50%
Limites Contiene a
1009
X
La muestra A y C no contienen a x porque el grado de confianza es muy bajo; es decir hay
menos área sobre la curva que ocasiona una Zmuy baja que al ser combinada en Z X
originan un intervalo más pequeño en torno a X , en la fórmula X ± Z X , con lo que
aumentan la probabilidad , de que X no represente a x. Estos resultados se corroboran con
el siguiente análisis:
Con la muestra 1: e=0.238 1.5 2.0 , por eso el intervalo de confianza no contiene a la media
poblacional;
Con la muestra 2: e= 0.476 2.0 2.0 , por eso contiene a la media poblacional y con la
Idealmente siempre queremos que e x x x . Observe que ambos requieren del error
estándar (x ) para su cálculo.
Por otra parte mostrando los valores de mayor uso de Zy de la ecuación (1) tenemos:
(x ) para su cálculo.
X - Z x ; límite inferior del intervalo
X + Z x ; límite superior del intervalo
1010
Contrato Colectivo de Trabajo. Para ello seleccionamos una muestra aleatoria de 49
trabajadores cuyo ingreso medio es de $ 5,500 /mes.
n = 49 X ± Z X
sustituyendo
= 700/mes 5500 ± 1.96(100)
X = 5500/mes 5500 ± 196
=5%
Z = ± 1.96
x 700
x ; por lo tanto x = 100
n 49
0.95
0.025
0.025
1011
Ello significa que el error en la estimación del valor de x en valores absolutos es:
| error en la estimación de x | = Zx x , por lo que
error máximo permitido = error en la estimación de e x
Derivado de lo anterior se puede escribir e = Z x
x E (x )
x 1 x x 1 x
x 2 x x 2 x
x 3 x x 3 x
donde x para una población infinita
n
N n
x para una población finita
n N 1
Para que sus resultados sean representativos estadísticamente y conozcamos a priori el “ error
de muestreo” es necesario determinar arbitrariamente o con conocimiento de causa: 1.- el error
permitido (ε) cuyo valor es la diferencia máxima que el investigador acepta que exist a entre el
estimador muestral (la media aritmética de la muestra y el parámetro poblacional
correspondiente, la media de la población: µ y 2.- el nivel de confianza (ξ) o probabilidad con
que se asegura lo anterior, tal que ξ= 1-α, donde α es la probabilidad de que no se cumpla lo
esperado (diferencia máxima entre el valor muestral y el poblacional) ; así si por ejemplo si
conocemos la desviación estándar de la población (σ) podemos determinar el tamaño de la
muestra (n) así:
1012
n= σ al cuadrado/α*ε al cuadrado
Sabemos que:
x
e Zx como x para una población infinita
n
x
e Z
n
x
n Z
e
x Z 2 2 x
2
n Z para una población infinita.
e e2
Z 2 x2 N
n 2 para una población finita.
e N e 2 Z 2 x2
Ejemplo: En una población infinita ¿qué‚ tamaño de muestra será necesario para producir un
intervalo de confianza del 90% en que está la media de la población verdadera, con un error
permitido máximo de diferencia entre la media muestral y la poblacional de 1.0 en cualquier
sentido si la desviación estándar de la población es 10.00?
1013
Así, con 1.65 y 10
x
272.25
16.5
e 1.65(10 / 272.25) 1 error permitido errordemue streo , lo cual es muy aceptable.
16.5
También, si sabemos que el error estándar = 10/16.5= 0.606
Luego aplicándolo al error permitido (e) en términos probabilísticos tendremos que e=
1.65 (0.606)= 1, se comprueba que el error de muestreo se mide con el error estándar en
términos probabilísticos.
CONSIDERACIONES:
N
1. Hay ocasiones en que conocemos N, en ese caso n
Ne2 1
Ejemplo: Con N= 603 y e= 5%
603 603
Tenemos n 240.47
1 603( 0.05) 2
2.5075
1
2. Cuando no conocemos nada n 2 digamos si e = 5 %
e
1 1
n 2
400
( 0.05) 0.0025
3. Trabajando con proporciones o atributos diremos que en el muestreo simple aleatorio: cada
elemento tiene la misma probabilidad de ser seleccionado y, por ejemplo con n = 300 y =
5%, = 95% Z = 1.96, el error permitido (e) o margen de error permitido para p = 0.5 = q
será igual a:
pq ( 0.5)( 0.5)
e * Z * 1.96
n 300
e p * Z 5%
1014
que la media estimada de la población con base en la muestra esté dentro del recorrido de la
verdadera media de la población $ 6 ó x $6, el valor de Z es 3.
Así, una vez que tenemos el tamaño de la muestra, el resultado de la muestra debe ser
evaluado. Esto puede ser hecho encontrando el ERROR ESTÁNDAR DE LA MEDIA Sx , de
acuerdo con la desviación estándar de la muestra s .
45
Puesto que Z Sx = 0.18 = error de muestreo es menor que el error permitido e = 0.20, se
acepta el tamaño de la muestra.
Sin embargo ahora supóngase que con; n = 144 s = $ 0.84, entonces
S 0.84
Sx 0.07 luego:
n 144
x ZSx 2.70 3(0.07 ) 2.70 0.21
Como el error de muestreo calculado 0.21 es mayor que el error permitido (e = 0.20), el tamaño
de la muestra se revisa como sigue, partiendo de una población infinita:
1015
ZSx
2 2
3(0.84)
n 158.76 159
e 0.20
Aún cuando la exposición y composición de estos temas no es fácil, yo espero que el esfuerzo
didáctico que adopte le permita al lector su fácil entendimiento y manejo continuo en la solución
de problemas de su empresa, principalmente, en las áreas de ventas, compras, producción,
organización y finanzas.
1016
PRECISIÓN - ERRORES DE MUESTREO
Como se indicó, la confiabilidad en las estimaciones se mide por medio de los errores de
muestreo, que a su vez, se determinan con las fórmulas de los errores estándar, en términos de
probabilidad, es decir: . Con ese propósito a continuación ilustramos las fórmulas de los
x
ERRORES ESTÁNDARES de los principales diseños muestrales, las cuales son muy
importantes ya que a partir de ellas se calculan:
a) Tamaño de la muestra,
b) Límites de confianza,
c) Errores de muestreo y
d) Se prueban hipótesis.
Muestreo estratificado.
N i ni
k k
Ni n
x w s
N i * ni
; con proporciones: p
2 2
i i w i 1
2
i pq
Ni * n
i 1
Si2 = pq
donde:
i: estratos: 1,2,3,4,5,.....,K.
Ni
Wi : Proporción del estrato en la población =
N i
ni
Pi = ; n= tamaño de la muestra; ni= muestra en el estrato i-ésimo, Ni = estrato i-ésimo.
n
Muestreo replicado
Xmax Xmin K (Z K )
x
K Z ( K 1)
donde:
X max: La media mayor en la muestra replicada.
X min: La media menor en la muestra replicada.
Z : Tamaño de cada zona
K : Número de replicaciones.
1017
Se desea estimar con un 95 % de confianza, la proporción verdadera de familias que tienen
encendida su T.V. entre las 7 y 10 de la noche. En otras palabras, se busca el intervalo
alrededor de la proporción muestral.
Con N = 10,000 familias
Con n = 400 familias con televisión.
Nn
p p*q =
N *n
10,000 400
p 0.70( 0.30) 2.3%
10,000( 400)
Por motivos prácticos decimos que en una muestra grande, dos errores estándar proporcionan
el intervalo de confianza del 95.45 %, para la proporción verdadera de TV encendidas entre los
7 y 10 de la noche; la estimación del intervalo será:
70 % 2 ( 2.3 ) ó entre 65.4 % y 74.6 %.
6.3.- ESTRATIFICADO:
Nº de T.V.
encendidas
n ni
2 1,000 100 40 40 10 = 4 %
0 0
3 2,000 100 60 60 10 = 6 %
0 0
1018
10,000 400 260
Muestreo replicado:
Aquí suponga que se usaron los 5 diseños replicado: 5 muestras de 80 personas fueron
seleccionadas de la población; de cada una de las 125 zonas registradas
Replica Nº T.V. P
entrevistas encendidas
1 80 59 74 %
2 80 57 71 %
3 80 61 76 %
1019
4 80 53 66 %
5 80 62 78 %
Se toma una muestra para estimar entre otras cosas, la proporción de familias
viendo T.V. en la tarde entre semana.
Se desea que ese estimador esté entre el 5 % del porcentaje actual con
95% de seguridad.
N = 10,000
1020
p debe ser tal que 2 p incluyan el 95% de los estimadores de p, luego 2 p = 0.05
de aquí que p =0.025
Npq
n entonces
pq N 2p
( 0.25)(10,000)
n 385 familias
( 0.25) 10,000( 0.025) 2
Vemos que el tamaño apropiado seria de 385 familias y no 400 para hacer la
investigación.
De manera similar, se puede obtener los tamaños de muestra para cada uno de
los modelos muestrales bajo estudio.
1021
Para afianzar el conocimiento decidí explicar algunas de las actividades,
como son las siguientes:
El formato del cuestionario puede tener entradas múltiples o una sola; puede ser
de preguntas cerradas o abiertas; las respuestas pueden estar precodificadas o no;
1022
cuando las preguntas son abiertas, las respuestas se codificarán con base en un
INSTRUCTIVO DE CODIFICACIÓN.
TRABAJO DE CAMPO
d) Entrevistas personales: dentro de las formas directa de obtener los datos, este
método es sin lugar a dudas el más popular, por referirse a una conversación
directa " frente a frente " entre un miembro de la muestra y el entrevistador. Como
resultado, se puede obtener una gran variedad de información con este método,
el cual es flexible en varios sentidos. Por ejemplo, los datos pueden ser
registrados en grabadora o en cuestionarios.
1023
Desde el punto de vista de la obtención de los datos, puede decirse que existen
dos formas de entrevistar: En un extremo se haya la entrevista altamente
estructurada, en la cual se prepara un cuestionario formal y las preguntas se
hacen bajo instrucciones precisas y el entrevistador mantiene un orden estricto
para su contestación.
Parece que los mejores enumeradores son personas entre los 25 y 50 años,
que tienen una evidente disposición, son inteligentes, poseen cierta cultura, son
flexibles y precisos en sus hábitos de trabajo.
Por lo que se refiere a la organización y control del trabajo de campo, como las
demás etapas requiere una programación de tiempos y actividades para asignar al
personal correspondiente. Dentro de los aspectos básicos esta la fijación de las rutas
de trabajo, el plan de trabajo o forma de entrevistar y la supervisión -sobre todo-
cuando el grupo de trabajo es numeroso o la captación de los datos presentan
dificultades.
CRITICA DE CUESTIONARIOS
1024
Los cuestionarios, codificados o no previamente, llegan a la oficina con el orden
y presentación de las respuestas dadas por los enumeradores. En algunas
ocasiones el trabajo se realiza de acuerdo a las instrucciones establecidas y
enseguida pasa al departamento de captura, para ser procesado inmediatamente.
Sin embargo, en la mayoría de los casos se requiere una crítica o revisión cuidadosa ya
que:
Tal que en esta etapa la información debe quedar depurada y ordenada hasta
donde sea posible para su posterior transformación y vaciada en formatos previamente
diseñados. En algunos casos se acostumbra usar la computadora -filtrado electrónico-
para realizar esta etapa.
Una vez que los datos han sido obtenidos y revisados, deben ser procesados
para hacer posible un análisis del fenómeno estudiado. Es generalmente aceptado
que esta actividad es un tanto tediosa, pero también que es crítica para asegurar
exactitud en los resultados.
Una tabulación hecha sin cuidado puede viciar una buena planeación y el
método de obtención de los datos. Así mismo, los peligros de los sesgos a un se
presentan en los procesos de preparación, clasificación y tabulación.
1025
para captar los datos, su exactitud, si están completos o no, la inspección de trabajo
de campo, arreglos o eliminación de respuestas por su inconsistencia o
desconfianza la clasificación o estandarización de los datos en base comunes y sobre
todo su preparación para ser tabulados.
CLASIFICACIÓN.
TABULACIÓN.
1026
Dentro de los sesgos puede considerarse las "no respuestas", cobertura,
influencia de los enumeradores sobre la unidad de muestre entrevistado y lo que
anoten en el cuestionario, una codificación de respuestas inadecuada, etc.
1027
Un marco muestral es un conjunto de listas o de mapas, o una combinación
de estos elementos, de tal manera, que todas las unidades de interés estén contenidas
y que al seleccionar las muestra se pueda determinar la probabilidad de su inclusión,
asimismo en el momento de levantar la encuesta, la identificación de cada unidad en
la muestra sea posible hacerla sin ninguna ambigüedad.
LEVANTAMIENTO DE LA ENCUESTA
1028
El trabajo de los enumeradores debe hacerse exactamente con las unidades
de última etapa, determinadas en la selección de la muestra y si ello no fuera posible
por deficiencias en el marco muestral, resuélvase el problema con apego a las
instrucciones precisas que se hayan hecho para estos pasos. Al hacerse las
preguntas, téngase cuidado de que las respuestas sean correctas y veraces,
considerando los rangos aproximados para los valores que puedan tomar las variables
involucradas en el estudio.
1029
-Registro de aquéllos procedimientos -o personas- que no funcionaron para referencias
futuras y para obtener de ello una experiencia;
Esto es, hacer un filtrado de todos los errores que no hayan sido detectados
por los supervisores, así como también verificar y concentrar el número total de
cuestionarios encomendados a cada supervisor, para obtener el tamaño efectivo de la
muestra.
Redacción de formas para: para reportes del avance del trabajo, registro de
personal - con número de clave del registro federal de causantes -, credenciales de
identificación, contratos, etc.
1030
escolaridad, disponibilidad de tiempo, sexo, número de ello en las diversas plazas y
zonas de la encuesta, preferencia de contratar maestros, trabajadores sociales,
enfermeras, etc.
1) ENTRENAMIENTO DE SUPERVISORES:
1031
6 ARCHIVO DE DOCUMENTOS
Por otra parte y considerando que la economía y los negocios son diversos y
complejos, decidí incluir para los especialistas una relación adicional de 10 modelos
de muestreo, que complementan los anteriores y brindan al lector una gama de
alternativas para seleccionar el método apropiado para la investigación especifica
que pretenda hacer.
1032
RED GENERAL DE ACTIVIDADES EN UNA ENCUESTA DE MUESTREO
1033
1034
PRÁCTICA PARA REAFIRMAR EL CONOCIMIENTO
h) Relación entre x , e.
N N! 10
n ( N n)!n! (10 2)!2! 45 muestras de tamaño dos y que constituyen la nueva
distribución de muestreo, que son:
1035
xi x
2
Si
n
Muestra Composición P(muestra) Media
de
Muestral
la muestra
1 0 , 1 1 45 0.5 0.5
2 0 , 2 1 45 1.0 1.0
3 0 , 3 1 45 1.5 1.5
4 0 , 4 1 45 2.0 2.0
5 0 , 5 1 45 2.5 2.5
6 0 , 6 1 45 3.0 3.0
7 0 , 7 1 45 3.5 3.5
8 0 , 8 1 45 4.0 4.0
9 0 , 9 1 45 4.5 4.5
10 1 , 2 1 45 1.5 0.5
11 1 , 3 1 45 2.0 1.0
12 1 , 4 1 45 2.5 1.5
13 1 , 5 1 45 3.0 2.0
14 1 , 6 1 45 3.5 2.5
15 1 , 7 1 45 4.0 3.0
16 1 , 8 1 45 4.5 3.5
17 1 , 9 1 45 5.0 4.0
18 2 , 3 1 45 2.5 0.5
19 2 , 4 1 45 3.0 1.0
20 2 , 5 1 45 3.5 1.5
1036
21 2 , 6 1 45 4.0 2.0
22 2 , 7 1 45 2.5 2.5
23 2 , 8 1 45 5.0 .
24 2 , 9 1 45 5.5 .
25 3 , 4 1 45 3.5 .
26 3 , 5 1 45 4.0 .
27 3 , 6 1 45 4.5 .
28 3 , 7 1 45 5.0 .
29 3 , 8 1 45 5.5 .
30 3 , 9 1 45 6.0 .
31 4 , 5 1 45 4.5 .
32 4 , 6 1 45 5.0 .
33 4 , 7 1 45 5.5 .
34 4 , 8 1 45 6.0 .
35 4 , 9 1 45 6.5 .
36 5 , 6 1 45 5.5 .
37 5 , 7 1 45 6.0 .
38 5 , 8 1 45 6.5 .
39 5 , 9 1 45 7.0 .
40 6 , 7 1 45 6.5 .
41 6 , 8 1 45 7.0 .
42 6 , 9 1 45 7.5 .
43 7 , 8 1 45 7.5 .
1037
44 7 , 9 1 45 8.0 .
45 8 , 9 1 45 8.5 .
45 45 202.5
1 0 , 0 26 2 , 5 51 5 , 0 76 7 , 5
2 0 , 1 27 2 , 6 52 5 , 1 77 7 , 6
3 0 , 2 28 2 , 7 53 5 , 2 78 7 , 7
4 0 , 3 29 2 , 8 54 5 , 3 79 7 , 8
5 0 , 4 30 2 , 9 55 5 , 4 80 7 , 9
6 0 , 5 31 3 , 0 56 5 , 5 81 8 , 0
7 0 , 6 32 3 , 1 57 5 , 6 82 8 , 1
8 0 , 7 33 3 , 2 58 5 , 7 83 8 , 2
9 0 , 8 34 3 , 3 59 5 , 8 84 8 , 3
10 0 , 9 35 3 , 4 60 5 , 9 85 8 , 4
11 1 , 0 36 3 , 5 61 6 , 0 86 8 , 5
12 1 , 1 37 3 , 6 62 6 , 1 87 8 , 6
13 1 , 2 38 3 , 7 63 6 , 2 88 8 , 7
14 1 , 3 39 3 , 8 64 6 , 3 89 8 , 8
15 1 , 4 40 3 , 9 65 6 , 4 90 8 , 9
16 1 , 5 41 4 , 0 66 6 , 5 91 9 , 0
17 1 , 6 42 4 , 1 67 6 , 6 92 9 , 1
1038
18 1 , 7 43 4 , 2 68 6 , 7 93 9 , 2
19 1 , 8 44 4 , 3 69 6 , 8 94 9 , 3
20 1 , 9 45 4 , 4 70 6 , 9 95 9 , 4
21 2 , 0 46 4 , 5 71 7 , 0 96 9 , 5
22 2 , 1 47 4 , 6 72 7 , 1 97 9 , 6
23 2 , 2 48 4 , 7 73 7 , 2 98 9 , 7
24 2 , 3 49 4 , 8 74 7 , 3 99 9 , 8
25 2 , 4 50 4 , 9 75 7 , 4 100 9 , 9
Valores fijos.
= 45/10 = 4.5 .
(x )
i
2
82.50
2.87
N 10
Calculo de :
Xi Xi- (Xi-)2
0 -4.5 20.25
1 -3.5 12.25
2 -2.5 6.25
3 -1.5 2.25
4 -0.5 0.25
5 0.5 0.25
6 1.5 2.25
7 2.5 6.25
1039
8 3.5 12.25
9 4.5 20.25
0 82.5
Ahora, calculando.
x E ( X i )
X i
202.5
4.5 x
n 45
N n 2.87 10 2 2.87
x * * 0.89
n N 1 2 10 1 1.41
: Parámetro poblacional.
Sp diferente de p.
Solución:
i = 1, 2,...,44, 45.
1040
Calculando como ilustración S1 y S45, porque el método de calculo es el mismo,
tenemos:
S1
(x x )
i
2
(x x)2
S 45
i
n n
S1
(0 0.5) 2
(1 0.5) 2
S 45
(8 8.5) 2
(9 8.5) 2
2 2
S1
0.25 0.25 S 45
0.25 0.25
2 2
0.50 0.50
S1 S 45
2 2
S1 0.25 0.5 S 45 0.25 0.5
e) Al comparar los valores de , con X i , Si, vemos que el valor de los parámetros es
FIJO, mientras que el de las "estadísticas" es variable puesto que esta en función
de la composición de cada muestra.
MARCO MUESTRAL
Número de Composición de la
muestra muestra
1 0 , 1
2 0 , 2
3 0 , 3
4 0 , 4
5 0 , 5
1041
6 0 , 6
7 0 , 7
8 0 , 8
. .
. .
. .
. .
. .
45 8, 9
X =8+0/2=4
S=
(8 4) 2
(0 4)2 16 4 = 4
2
N n
X Z x donde x 1.92 del inciso B).
n N 1
1042
Interpretación: hay una probabilidad del 95% de que el valor de se halle en el
intervalo de 0.2368 a 7.7632, lo cual es cierto puesto que x = 4.5.
N 10 10
Ahora bien usando n
1 Ne 2
1 10( 0.05) 2
1 0.025
10
n 9.7 10
1.025
Observaciones:
Con las dos fórmulas se obtiene el mismos resultado. Ello indica que el tamaño
de la muestra debe ser el del universo. Esto es así, no debe sorprendernos porque el
universo es tan pequeño que la muestra debe ser igual a 10 para que sea
representativa.
h) La relación entre x y e.
N n 2.87 10 2
x * * 1.92
n N 1 2 10 1
1043
Comparación x = 1.92 y e = 3.7632, luego el error estándar, es menor que el error de
muestreo o error permitido.
Del inciso b), sabemos que x 4.5 y del inciso f) sabemos que x 4.0 luego
el error de muestreo = 4 4.5 0.5 3.7637 = error permitido. Es bueno el resultado.
PRÁCTICA DOS
Referencias:
1 2
1044
3 7
9 10
4 6
Con : n = 2
t = 2
Obtenga:
hay N = 10 manzanas.
d) Suponiendo que:
1045
Puesto que:
X = 40 + 36 / 2 = 76 /2 = 38 familias.
( 40 38) 2 ( 36 38) 2 ( 2 ) 2 ( 2 ) 2 8
S 2
2 2 2
Y NX ; Y 10( 38);
Y = 380 familias.
Sabemos que:
tNS tNS
Nx 1 F Y Nx 1 0.2
n n
Sustituyendo
2 (10) 2 2 (10) 2
380 1 0.2 Y 380 1 0.2
1.41 1.41
2 (10) 2 2 (10) 2
380 ( 0.89 ) Y 380 ( 0.89 )
1.41 1.41
1046
380 - 25.2 Y 380 + 25.2
354.8 Y 405.2
Interpretación:
1047
POBLACIÓN MUESTRA ESTRATO
HOGARES
N n
resultados:
30, 27, 40 4, 49 9, 20
34, 25, 41
43, 32, 31
a) X i , Si con i=1, 2, 3.
n1 = 15 n2 = 4 n3 = 5
1048
x1 = 34 x2 = 27 x3 = 20
S1 = 6 S2 = 16 S3 =9.1
N1 = 180 N2 = 70 N3 = 100
ESTRATO 1
30 27 40 45 26 35 33 29 37 34 25 41 43 32 31
X1
15
508
X1 3387
.
15
33.87 equivalente a 34
S1
(x i x )2
546
36.4 6
n 15
Xi Xi X1
( X i X1 ) 2
30 30 - 34 = -4 16
27 27 - 34 = -7 49
40 40 - 34 = 6 36
45 45 - 34 = 11 121
26 26 - 34 = -8 64
35 35 - 34 = 1 1
33 33 - 34 = -1 1
1049
29 29 - 34 = -5 25
37 37 - 34 = 3 9
34 34 - 34 = 0 0
25 25 - 34 = -9 81
41 41 - 34 = 7 49
43 43 - 34 = 9 81
32 32 - 34 = -2 4
31 31 - 34 = -3 9
546
ESTRATO 2
4 49 25 30 108
X2 27
4 4
S2
(x i x )2
1026
256.5 16.0
n 4
Xi Xi X1
( Xi X2 )2
4 4 - 27 = -23 529
49 49 - 27 = -22 484
25 25 - 27 = -2 4
30 30 - 27 = 3 9
1026
ESTRATO 3
9 20 11 34 24 98
X3 19.6 equivale a 20
5 5
1050
S3
(x i x )2
414
82.8 9.1
n 5
X1 X1 X 3 ( X1 X 3 ) 2
9 9 - 20 = - 121
11
20 20 - 20 = 0 0
11 11 - 20 = -9 81
34 34 - 20 = 14 196
24 24 - 20 = 4 16
414
N1 X1 N 2 X 2 N 3 X 3
1 1
X De todos los estratos
N
N
i 1
i Xi
N
1 1
X
350
180( 34 ) 70( 27 ) 100( 20); X
350
6120 1890 2000
10,010
X 28.6 equivalente a 29 horas
350
1051
c) Obtenga la varianza de X con la fórmula:
1 N 1 n1 S 2 N 2 n 2 S 22 N 3 n 3 S 33
V (X ) 1
N N N 3
N 1 n1 N 2 n2 N 3 n3
2
N2
1
V (X )
122500
402.41 4219.75 15.732
6195.36
V (X ) 0.0506
122500
X 2 V (X ) 29 2 0.0506
Interpretación:
1052
Calificación:
1
Respuesta: n , donde e es el error permitido, al cuadrado.
e2
2.- Al trabajar con estadística de atributos, usando el método del muestreo simple
aleatorio, sabemos que la fórmula del error permitido para p=0.5 es
pq
e * Z , dicho en otra forma:
n e p * Z
Respuesta:
Primero usted debe de observar que Zα está dentro del radical de la raíz cuadrada, lo
cual debe causarle extrañeza porque no es congruente con la otra fórmula, por lo que
debe hacerlo notar e indicar que ante la duda sacará Z α del radical. Así, los cálculos
son:
(0.5)(0.5)
e * 1.65
400
e 0.025(1.65) 0.04125
1053
3.- Si en la estadística de variables el error permitido e= = Z X y el error de
x x
muestreo es x x , tal que x , demuestre que son iguales.
x
x x x x x
Respuesta: e = Z x * x x x
x n x
1054
BIBLIOGRAFÍA.
1055
16.Johnston, J &Dinardo, J. Métodos de econometría, Vicens Vives, 2001
20.Mason, Robert, Lind, Douglas A., Marchal, William G., Estadística para
Administración y Economía, México, Alfaomega Editor, 10º Edición,
2001, p. 795.
21.Montero, Granados Roberto, Variables no estacionarias y
cointegración, Universidad de Granada, www.ugr.es, 2007.
1056
32.Salvatore, Dominick. Econometría, México, Mc Graw Hill, 1993, Cap. 6-8.
1057