Creamos un nuevo workfile con frecuencia mensual e introducimos las fechas desde el periodo 2010/01 hasta 2018/10. Comenzamos a editar nuestra serie con los datos a usar.
Estimamos nuestra ecuación:
Encontramos que la probabilidad de la prueba F es menor que 5%, entonces nuestro modelo es significativo Vemos que las pruebas t también son significativas
Ahora estimamos nuestra ecuación, pero logarítmicamente:
Generamos nuestra serie de logaritmos naturales con cada uno de nuestras variables
Ahora
estimamos nuestra ecuación, pero con los logaritmos naturales que generamos:
MULTICOLINEALIDAD
QD_TOMATE porque lo relacionamos con el precio del tomate Cuando relacionamos el P_TOMATE, P_ZANAHORIA y el IPDFM se debe llamar demanda del tomate
DEMANDA INICIAL DE TOMATE
PRUEBA DE R CUADRADO AUXILIAR O COEFICIENTE DE DETERMINACIÓN AUXILIAR R2 = 40.1034%
LA RELACIÓN ENTRE LAS VARIABLES EXPLICATIVAS
Relación auxiliar con respecto al precio del tomate
-
Precio del tomate es la variable dependiente 0.11239 x 100% = 11.239% R2 > Rauxiliar 40.1034% > 11.239% El Rauxiliar es menor, no existe multicolinealidad
Relación auxiliar con respecto al precio de la zanahoria
-
Precio de la zanahoria es la variable dependiente 0.208042 x 100% = 20.8042% R2 > Rauxiliar 40.1034% > 20.8042% El Rauxiliar es menor, no existe multicolinealidad
Relación auxiliar con respecto al IPDFM
-
IPDFM es la variable dependiente 0.220870 x 100% = 22.0870% R2 > Rauxiliar 40.1034% > 22.0870% El Rauxiliar es menor, no existe multicolinealidad
DEMANDA INICIAL DE TOMATE (GRÁFICO)
Las relaciones que se dan: C(1) QD_TOMATE C(2) P_TOMATE C(3) P_ZANAHORIA C(4) IPDFM
FACTOR DE INFLACIÓN DE VARIANZAS
Si el VIF es menor a 10 podemos afirmar que no existe multicolinealidad entre las variables explicativas (Centered VIF) Como es <10, ratifica que no existe la multicolinealidad
QUIEBRE ESTRUCTURAL (PUNTO DE QUIEBRE) Un modelo econometrico se plantea como una representaciòn analìtica de un determinado sistema de relaciones entre variables, que en su conjunto determinan y definen una estructura. ¿Por qué se produce un quiebre estructural? Podemos decir que en un cierto grado de cambio estructural es esencialmente inevitable, es decir que la hipotesis de permanencia estructural es, en la practica, una restricciòn. Ahora observamos si tenemos puntos de quiebre en nuestra ecuación, comprobándolo con una variedad de test. 1er Paso: View
Stability Diagnostics
1.-RECURSIVE RESIDUALS
Recursive Estimates (OLS only)
2. CUSUM TEST
3. CUSUM OF SQUARES TEST
4. ONE-STEP FORECAST TEST
5. N-STEP FORECAST TEST
6. RECURSIVE COEFFICIENTS
Muestra el cambio de la constante a través del tiempo entre el intervalo de confianza
MULTIPLE BREAPOINT TEST Ahora vamos a buscar los cambios estructurales para ello vamos a los resultados de demandaincialdetomate , vamos al menu y eleguimos la opcion “ View”, “Stability Diagnostics”, “multiple Breakpoint Test”
Determinamos los puntos de quiebre, para este caso encontramos tres puntos de quiebres, los cuales se reconocen por los asteriscos y son: 2015.08 2013.01 2017.06 El número de asteriscos señala el número de puntos de quiebre. Ahora comprobaremos a través de la siguiente prueba:
CHOW BREAKPOINT TEST
El Test de Chow los 3 caen en la zona de rechazo entonces se observa que hay quiebre estructural. Entonces aceptamos la hipótesis alternativa que nos dice que hay quiebre estructural.
Ahora hacemos lo mismo con el segundo punto de quiebre.
El Test de Chow los 3 caen en la zona de rechazo entonces se observa que hay quiebre estructural. Entonces aceptamos la hipótesis alternativa que nos dice que hay quiebre estructural.
Ahora hacemos lo mismo con el tercer punto de quiebre.
Creación de las variables artificiales o variables Dummy Creamos la variable d1, d2, d3, ya que hemos encontrado tres puntos de quiebre, para ello definimos la siguiente ecuación y le damos a “OK” Para la creación de D1:
Nos dirigimos al punto de quiebre el cual está en el periodo 2015M08, le damos a “EDIT” y pasamos a editar los valores antes del punto quiebre con 0 (ceros) y a partir del punto de quiebre con valores de 1 (uno).
Para la creación de D2:
En esta variable d2 no es necesario editar, ya que la fecha coindice con el inicio del año 2013
Para la creación de D3: Nos dirigimos al punto de quiebre el cual está en el periodo 2017M06, le damos a “EDIT” y pasamos a editar los valores antes del punto quiebre con 0 (ceros) y a partir del punto de quiebre con valores de 1 (uno).
NOTA: De haber más de un punto de quiebre se van creando más variables Dummy en igual cantidad y editando los valores bajo el mismo criterio anterior.
CAMBIOS MULTIPLICATIVOS Ahora vamos a suponer que cambia la constante d1, d2 y d3 en cada punto de quiebre, vienen a ser el cambio en la demanda inicial en los puntos de quiebre: Insertamos la siguiente ecuación: d_tomate c d1 d2 d3 p_tomate p_zanahoria ipdfm
Evaluamos el akaike a fin de encontrar el más bajo en las diferentes combinaciones en este caso el akaike es 20.069. Insertamos la siguiente ecuación: d_tomate c p_tomate p_tomate*d1 p_tomate*d2 p_tomate*d3 p_zanahoria ipdfm
Evaluamos el akaike a fin de encontrar el más bajo en las diferentes combinaciones en este caso el akaike es 20.230.
Insertamos la siguiente ecuación: d_tomate c p_tomate p_zanahoria*d1 p_zanahoria*d2 p_zanahoria*d3 p_zanahoria ipdfm
Evaluamos el akaike a fin de encontrar el más bajo en las diferentes combinaciones en este caso el akaike es 20.060. Insertamos la siguiente ecuación: d_tomate p_tomate p_zanahoria ipdfm*d1 ipdfm*d2 ipdfm*d3 ipdfm
Evaluamos el akaike a fin de encontrar el más bajo en las diferentes combinaciones en este caso el akaike es 20.080.
Insertamos la siguiente ecuación: d_tomate c d1 d2 d3 p_tomate*d1 p_tomate*d2 p_tomate*d3 p_zanahoria ipdfm
Evaluamos el akaike a fin de encontrar el más bajo en las diferentes combinaciones en este caso el akaike es 20.103.
Insertamos la siguiente ecuación: d_tomate c d1 d2 d3 p_tomate p_zanahoria*d1 p_zanahoria*d2 p_zanahoria*d3 ipdfm
Evaluamos el akaike a fin de encontrar el más bajo en las diferentes combinaciones en este caso el akaike es 19.843. Aquí se encuentra el akaike más bajo, de entre todas las combinaciones.
Insertamos la siguiente ecuación: d_tomate c d1 d2 d3 p_tomate p_zanahoria ipdfm*d1 ipdfm*d2 ipdfm*d3 ipdfm
Evaluamos el akaike a fin de encontrar el más bajo en las diferentes combinaciones en este caso el akaike es 20.044.
HETEROSCEDASTICIDAD Del menor akaike sacamos las pruebas de elasticidad pues, es el modelo más óptimo. Empezaremos con los test para ver si realmente nuestro modelo presenta Heteroscedasticidad. Primer test :Test de BREUSCH PAGAN
LA Prueba CHI nos sale 0.0334 lo que es un 3.34% <5% Es menor que el 5% es por eso que cae en zona de rechazo la HP y aceptamos la Ha que es la varianza de errores estocásticos en el periodo de regresión no es contante es eso que produce la HETEROSCEDASTICIDAD) Tenemos las hipótesis Hp: la varianza errores estocásticos en el periodo de regresión es constante (homocedasticidad) Ha: la varianza errores estocásticos en el periodo de regresión no es constante El supuesto de mínimo cuadrados ordinarios plantea que la varianza de los errores estocásticos en el periodo de regresión es única o constante y a ese fenómeno se le llama HOMOSEDASTICIDAD
TEST DE HARVEY Con este test obtenemos una probabilidad de 15.84% >5% siendo mayor al 5% eso nos indica que se acepta la HP, es decir, este modelo presenta HOMOCEDASTICIDAD
TEST DE GLEJSER En este test vemos que la probabilidad CHI es de 2.44 % < 5% entonces cae en la zona de rechazo , es decir , rechazamos la HP y aceptamos la HA la que ns dice que en este modelo se presenta heterocedasticidad
TEST DE ARCH Aquí obtenemos que nuestra prueba Chi es de 29.33% >5% siendo esta mayor al 5% lo que nos muestra una vez más que se acepta la hp, es decir, nuestro modelo presenta Homocedasticad
TEST DE WHITE En este test vemos que nuestra prueba chi es de 2.08%< 5%, siendo menor al 5% lo que nos dice que se rechaza la hp , es decir, se acepta la HA Presentando Heterocedasticidad
Hasta ahora hemos visto que la mayoría de los test nos dice que hay Heterocesdasticidad lo que tiene que ser corregida
Corrección Aquí no cambian los coeficientes solo cambian los errores estándar y al cambiar eso también cambia el t calculado haciendo cambiar el nivel de significación.
AUTOCORRELACION En el modelo ya corregido veremos el valor del Durbin-Watson stat en este caso es de 1.53872, pero que nos dice el DB (Durbin – Watson) sobre la correlación 𝑑 ≈ 2( 1 − 𝜌)
(a)
Esta sería la relación entre el coeficiente DB y el coeficiente de auto correlación de primer orden (p), pero como sabemos que p esta entre los valores: −1 ≤ 𝜌 ≤ 1 El valor -1 nos dice una correlación perfectamente negativa y en caso de 1 una correlación perfectamente positiva, ahora si la reemplazamos los valores máximos y mininos que puede tomar p en la relación de DB con p que sería la ecuación (a), los parámetros para el coeficiente d seria: 0≤𝑑≤4 Donde 0 nos indica una correlación perfectamente positiva y 4 una correlación negativa, es por eso que se necesita un valor lo más cercano a 2 para que se cumpla el supuesto de la no auto correlación. 𝜌 = 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖𝑜𝑛 𝑑𝑒 𝑝𝑟𝑖𝑚𝑒𝑟 𝑜𝑟𝑑𝑒𝑛 𝑑 = 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑒 𝐷𝑢𝑟𝑏𝑖𝑛 − 𝑊𝑎𝑡𝑠𝑜𝑛
Test de Breusch – Godfrey Ahora veremos el coeficiente DB en los resultados de la ecuación hasta el momento corregida de la heterocedasticidad, es 1.538724 lo que nos dice que existe una correlación positiva leve. Para corroborar si existe nos podemos ir a la prueba Breusch – Godfrey o también conocida como Lm test
Comenzaremos poniendo los lags desde 1 ya que esto nos indica el orden de correlación que se tiene, como los datos son anuales se tendrá que hacer hasta 12 para poder ver qué tipo de correlación tiene esta regresión
Con el lag 1 se ve que la HP de que no existe correlación cae en zona de aceptación ya que las prob son mayores que 0.5, entonces por el momento se dice que no hay correlación de primer orden, ahora con lag 2 cae en zona de rechazo entonces si existe correlación de segundo orden nos vamos a los valores a ver si son significativos así hasta el lag 12 donde vemos que, en el lag 12 vemos que si la Hplanteada cae en zona de rechazo es decir que si existe auto correlación, pero de qué orden? Si vemos en las prob de los lags = resid veremos que el único valor significativo sería el de lag 1 es decir correlación de primer orden, ya que es menor que 0.05, los demás valores son mayores.
Corrección como encontramos que la correlación existente es de primer orden, la manera de solucionarlo es poniendo un coeficiente auto regresivo -AR(1)- entonces en nuestra ecuación le agregamos el AR(1), el resultado nos muestra que el coeficiente de DB se acerca más a 2 es decir que la correlación existente es casi nula
Correlograma Ahora que solucionamos el problema de la correlación y vemos que el coeficiente DB nos indica que es muy leve la auto correlación la podemos corroborar con un correlograma; donde prob es menor que 0.5 lo que es que no existe auto correlación adicionando que las barritas no exceden su limite