Money Management segun Roboco
Money Management segun Roboco
Subo el PDF que me pasó Roboco en la kedada sobre Money Management. Se trata de un excelente artículo de M. Sewell en el que se da una visión histórica del Money Management recopilando los principales autores que han escrito sobre el tema.
Saludos,
X-Trader
Saludos,
X-Trader
- Adjuntos
-
- money-management.pdf
- (188.76 KiB) Descargado 390 veces
"Los sistemas de trading pueden funcionar en ciertas condiciones de mercado todo el tiempo, en todas las condiciones de mercado en algún momento del tiempo, pero nunca en todas las condiciones de mercado todo el tiempo."
Re: Money Management segun Roboco
Bueno, lo explico un poco. En este magnífico artículo de Martin Sewell se hace un resumen de lo que ha sido el Money Management hasta ahora. Fijaos que Ryan Jones ni aparece, aunque Vince si. Esto es debido a que , por así decirlo, el Fixed Ratio de Ryan Jones es "una técnica" más que un avance.
Lo que habría que hacer con esto es bajarse los artículos, algunos son públicos y otros hay que comprarlos. Ya os digo , que al ser académicos, se presupone cierto nivel de conocimientos matemáticos o esadísticos y por consiguiente muchos de ellos parecerán escritos en chino para el que no domine este aspecto.
Si no tenéis ese nivel, lo mejor es bajarse los de Thorp, que vienen a sintetizar los anteriores en un lenguaje más llano.
Por cierto, ¿leyendo (y entendiendo) estos artículos voy a saber aplicar algo práctico mejor que el Fixed Ratio o un Secure Fixed Fraction ?, la respuesta es NO. Pero lo que si se va a ocurrir es que se domine la materia del Money Management y se puedan investigar y desarrollar técnicas propias sabiendo lo que se hace.
Un saludo
Lo que habría que hacer con esto es bajarse los artículos, algunos son públicos y otros hay que comprarlos. Ya os digo , que al ser académicos, se presupone cierto nivel de conocimientos matemáticos o esadísticos y por consiguiente muchos de ellos parecerán escritos en chino para el que no domine este aspecto.
Si no tenéis ese nivel, lo mejor es bajarse los de Thorp, que vienen a sintetizar los anteriores en un lenguaje más llano.
Por cierto, ¿leyendo (y entendiendo) estos artículos voy a saber aplicar algo práctico mejor que el Fixed Ratio o un Secure Fixed Fraction ?, la respuesta es NO. Pero lo que si se va a ocurrir es que se domine la materia del Money Management y se puedan investigar y desarrollar técnicas propias sabiendo lo que se hace.
Un saludo
Re: Money Management segun Roboco
Antes de entender el MM como técnica aplicada a nuestro sistema/estrategias, nos tendríamos que preguntar ¿¿entiendes el orden probabilistico de tu sistema?? ¿¿Entiendes porque una menor exposición de tus operaciones inciden en mayor grado a una determinada disciplina de MM sobre otras??¿¿entiendes que la esperanza probabilistica tiene en el tiempo un factor correctivo hacia tu esperanza, donde el factor acotación tiempo será un algoritmo de esperanza positiva para tus técnicas de MM??¿¿entiendes que el criterio de kelly recoge una tendencia de resultados, pero no un desvío parcial que pueda tener un peso especifico en tu sistema??¿¿entiendes que el riesgo debe ser la constante que adapte tus estrategias de MM??ROBOCO escribió:Por cierto, ¿leyendo (y entendiendo) estos artículos voy a saber aplicar algo práctico mejor que el Fixed Ratio o un Secure Fixed Fraction ?, la respuesta es NO. Pero lo que si se va a ocurrir es que se domine la materia del Money Management y se puedan investigar y desarrollar técnicas propias sabiendo lo que se hace.
Si no entiendes estas cosas, el MM sólo serán matemáticas mal aplicadas sobre tus estrategias/sistemas...
Saludos.
La entrada te da la probabilidad y la salida la rentabilidad...
Re: Money Management segun Roboco
Vaya Agmageton, me gusta leer lo que pones aunque creo que tenemos enfoques opuestos en este asunto. Por lo que dices, creo entenderte que el MM que apliques depende del espacio probabilístico de la estrategia y por tanto dependiendo de éste utilizas uno u otro.
Yo NO los mezclo porque realmente son cosas independientes. El artículo de Breiman es particualarmente claro en esto. El criterio de Kelly es óptimo, independientemente de la estrategia. Esto es, mientras tengamos esperanza matemática positiva el criterio de Kelly (ojo, para juegos tipo Bernoulli, para sistemas de trading el equivalente es la F óptima) va a maximizar el Capital final, sea cual sea la estrategía y siga la distribución de trades que siga.
Por lo que te entiendo, además tu consideras que el Riesgo debe ser el parámetro que "module" el tipo de Money management y eso va en contra de técnicas como el Fixed Ratio, donde la relación Riesgo/Capital tiende asintóticamente a 0 con el tiempo o en palabras llanas, lo que crece el Riesgo es inferior a lo que cree el Capital conforme hacemos más jugadas (pasado un umbral). Por tanto no hace falta que modules nada, ya lo hace la técnica solita y para cualquier estrategia.
Lo que entiendo por "desvío parcial" es que no podemos operar con la F óptima dado que ésta no es estacionaria y eso es cierto. Dado que nuestro juego no es estacionario, trabajar con la F óptima es un suicidio, pequeñas variaciones en las estadísticas del juego pueden provocar que todo se vaya al garete a la velocidad del rayo. Por eso mucho operadores trabajan con media Kelly o una F igual a la mitad de la F óptima. Esto es arbitrario y quien lo hace lo realiza así porque no ha establecido el intervalo de confianza para F. En todo caso suele ser bastante seguro. Por cierto, leyendo los libros de Raplh Vince, ¿nadie se ha dado cuenta de que en uno de ellos hace referencia a que la F óptima sólo vale para juegos estacionarios y que "no es motivo de este libro el tratamiento de los juegos no estacionarios"? ¿Tampoco nadie ha leído en las conclusiones del artículo de Kelly éste afirma que su fracción (siendo constante) es óptima pero que está por ver si existe algún tipo de función dependiente de la secuencia de los outputs que sea mejor que su criterio?. Mucho para investigar....
Un saludo.
Yo NO los mezclo porque realmente son cosas independientes. El artículo de Breiman es particualarmente claro en esto. El criterio de Kelly es óptimo, independientemente de la estrategia. Esto es, mientras tengamos esperanza matemática positiva el criterio de Kelly (ojo, para juegos tipo Bernoulli, para sistemas de trading el equivalente es la F óptima) va a maximizar el Capital final, sea cual sea la estrategía y siga la distribución de trades que siga.
Por lo que te entiendo, además tu consideras que el Riesgo debe ser el parámetro que "module" el tipo de Money management y eso va en contra de técnicas como el Fixed Ratio, donde la relación Riesgo/Capital tiende asintóticamente a 0 con el tiempo o en palabras llanas, lo que crece el Riesgo es inferior a lo que cree el Capital conforme hacemos más jugadas (pasado un umbral). Por tanto no hace falta que modules nada, ya lo hace la técnica solita y para cualquier estrategia.
Lo que entiendo por "desvío parcial" es que no podemos operar con la F óptima dado que ésta no es estacionaria y eso es cierto. Dado que nuestro juego no es estacionario, trabajar con la F óptima es un suicidio, pequeñas variaciones en las estadísticas del juego pueden provocar que todo se vaya al garete a la velocidad del rayo. Por eso mucho operadores trabajan con media Kelly o una F igual a la mitad de la F óptima. Esto es arbitrario y quien lo hace lo realiza así porque no ha establecido el intervalo de confianza para F. En todo caso suele ser bastante seguro. Por cierto, leyendo los libros de Raplh Vince, ¿nadie se ha dado cuenta de que en uno de ellos hace referencia a que la F óptima sólo vale para juegos estacionarios y que "no es motivo de este libro el tratamiento de los juegos no estacionarios"? ¿Tampoco nadie ha leído en las conclusiones del artículo de Kelly éste afirma que su fracción (siendo constante) es óptima pero que está por ver si existe algún tipo de función dependiente de la secuencia de los outputs que sea mejor que su criterio?. Mucho para investigar....
Un saludo.
Re: Money Management segun Roboco
Yo opero con la F optima. No he leido todos esos articulos, aunque si otros...
Como mucha gente, diluyo la F optima al 10% aproximadamente. ¿Porqué al 10%? No tengo una respuesta matemática, sino "experimental": en mis backtest. es la que me da un beneficio alto con riesgo bajo.
Ahora bien, la F Optima yo la calculo con un histórico muy corto. O dicho de otra manera: la estoy re-calculando continuamente, ya que, como bien dices Roboco, cuando tus estadísticas cambian, la F optima te hace arriesgar mucho más de lo deseable, incluso aunque sea "diluida".
Ese re-cálculo permanente es lo que a mi me hace dormir tranquilo. Si mis resultados, y por tanto mis ilusiones, se van al garete en una epoca determinada, la F disminuye tan rápidamente que consigo evitar las pérdidas fuertes.. aunque en esos momentos uso tan poca pasta que me aburro..

Como mucha gente, diluyo la F optima al 10% aproximadamente. ¿Porqué al 10%? No tengo una respuesta matemática, sino "experimental": en mis backtest. es la que me da un beneficio alto con riesgo bajo.
Ahora bien, la F Optima yo la calculo con un histórico muy corto. O dicho de otra manera: la estoy re-calculando continuamente, ya que, como bien dices Roboco, cuando tus estadísticas cambian, la F optima te hace arriesgar mucho más de lo deseable, incluso aunque sea "diluida".
Ese re-cálculo permanente es lo que a mi me hace dormir tranquilo. Si mis resultados, y por tanto mis ilusiones, se van al garete en una epoca determinada, la F disminuye tan rápidamente que consigo evitar las pérdidas fuertes.. aunque en esos momentos uso tan poca pasta que me aburro..

Re: Money Management segun Roboco
Vaya Roboco pues si tenemos enfoques diferentes, auqne no por ello tengan su argumentación cada uno...
Intentaré argumentar mis creencias, sobre los puntos que tu argumentas en el caso contrario,
En el punto de utilizar una técnica de MM o otra sobre el espacio temporal, esto sólo vienen determinado sobre una lógica probabilistica de la estrategia(esto es algo que igual no transmito bien...). Aunque dos sistemas muy diferentes tengan las misma esperanza matemática en el largo plazo(y que F optima o Kelly en el largo plazo cumplan su papel de maximizar el capital FINAL), uno y otro pueden tener una posterior eficiencia muy distinta dependiendo la técnica de MM a utilizar por cada uno, para mi uno de los procedimientos de medición aplicativo es el riego y no el valor de retorno final.
Para mi esta consideración es clave, por varios motivos..... cuando hablo de una desviación parcial sobre el criterio de kelly a aplicar, es que justamente la aplicación de este criterio puede tener tras de sí un riesgo asociado mucho mayor en un momento de tu portafolios que no quede contemplado, que en algunos casos pueda tener una muy importante incidencia, como aniquiliar todo tu trabajo de meses en cuestión de pocos traders, por poner un ejemplo. Con lo que a al factor tiempo del criterio de kelly deber ir intimamente unido con procesos de protección temporales, porque una de las máximas en los juegos no estacionales es la dinámica de su esperanza matemática. Y justamente ese es un tema de debate apasionante y sobretodo de entendimiento.
Esta bien que enmarques sobre la estadistica pasada, el intervalo de confianza, pero no estarás más que optimizando un factor sobre el pasado de unas condiciones del juego, pero eso no excluye el problema. Lo miniza por tener unas horquillas en que moverte y me imagino unos procedimientos de protección.
Yo te pongo un ejemplo, tengo un sistema de tendencia con una fiabilidad muy baja y un poderoso W/L, esto incide en el marco temporal de las salidas(exposición en el mercado) que no en el de la entradas, con la que la busqueda de una correcta gestión del capital en técnicas de MM queda muy reducida. Y la hemos de buscar en el riesgo implicito de las entradas vs return, donde a la vez cada trader nos permitirá mantener un riesgo constante asi como el tamaño de la posición pero un dinámico W/L. Te imaginas un creterio de kelly o F optima con una fiabilidad del 15%-25%????
Por contra tengo otras tácticas anti tendencia, que estan enmarcadas en el mismo espacio temporal(exposición en el mercado) y estas si que indicen en mayor numero las técnicas de MM.
Para mi el factor riesgo implicito es la máxima y no el posible return por estadistica, me importa más lo que puedo perder que lo que puedo ganar en los sistemas, de la misma manera en las técnicas de MM que pueda implementar.
Pues bien, las estrategía contra tendencia en una de las técnicas que utlizo de MM, va subordinada por el fixed ratio a la hora del aumento de contratos con los que jugar, a la vez los contratos a jugar tienen en el criterio de kelly la distribución de los mismos. Estableciendo dos mecanismos de protección dinamicos, unos de mayor dinámica, como la distribución de los contratos por un criterio de kelly desarrollado por mi y por otro lado un limite máximo de contratos a utilizar por el capital disponible.
capital: 100.000 euros
contratos juego: 1
delta: 15.000 euros=suma 1 contrato
capital actual: 160.000 euros
contratos actual del juego:4
Distribución de los contratos por criterio de Kelly Agma
<25%=1
>25%<50%=2
>50%<75%=3
>75%=4
El criterio de kelly agma tiene tambien en la volatilidad de la exposición eficiente un exponente reductor o exponciador de contratos, con lo que no mireis el aumento de kelly de la forma que se mira normalmente, va relacionado tambien con el riesgo/return de la volatilidad del P/L.
Otra técnica de MM que uilizo es de marco temporal limitada por progresión y riesgo constante, esta es la que mejor resultados me esta dando risk/return, que la saque en mis constantes acercamiento en el juego de la ruleta.
El camino es largo, y sigo pensando que las técnicas de MM son muy beneficiosas para una estrategia, pero cuidado no todas valen para depende que sistema o operativa, y las que valen aún asi estan expuestas a una no correcta gestión de las mismas y eso es algo en lo que se tiene que hacer incapie.
Saludos.
Intentaré argumentar mis creencias, sobre los puntos que tu argumentas en el caso contrario,
En el punto de utilizar una técnica de MM o otra sobre el espacio temporal, esto sólo vienen determinado sobre una lógica probabilistica de la estrategia(esto es algo que igual no transmito bien...). Aunque dos sistemas muy diferentes tengan las misma esperanza matemática en el largo plazo(y que F optima o Kelly en el largo plazo cumplan su papel de maximizar el capital FINAL), uno y otro pueden tener una posterior eficiencia muy distinta dependiendo la técnica de MM a utilizar por cada uno, para mi uno de los procedimientos de medición aplicativo es el riego y no el valor de retorno final.
Para mi esta consideración es clave, por varios motivos..... cuando hablo de una desviación parcial sobre el criterio de kelly a aplicar, es que justamente la aplicación de este criterio puede tener tras de sí un riesgo asociado mucho mayor en un momento de tu portafolios que no quede contemplado, que en algunos casos pueda tener una muy importante incidencia, como aniquiliar todo tu trabajo de meses en cuestión de pocos traders, por poner un ejemplo. Con lo que a al factor tiempo del criterio de kelly deber ir intimamente unido con procesos de protección temporales, porque una de las máximas en los juegos no estacionales es la dinámica de su esperanza matemática. Y justamente ese es un tema de debate apasionante y sobretodo de entendimiento.
Esta bien que enmarques sobre la estadistica pasada, el intervalo de confianza, pero no estarás más que optimizando un factor sobre el pasado de unas condiciones del juego, pero eso no excluye el problema. Lo miniza por tener unas horquillas en que moverte y me imagino unos procedimientos de protección.
Yo te pongo un ejemplo, tengo un sistema de tendencia con una fiabilidad muy baja y un poderoso W/L, esto incide en el marco temporal de las salidas(exposición en el mercado) que no en el de la entradas, con la que la busqueda de una correcta gestión del capital en técnicas de MM queda muy reducida. Y la hemos de buscar en el riesgo implicito de las entradas vs return, donde a la vez cada trader nos permitirá mantener un riesgo constante asi como el tamaño de la posición pero un dinámico W/L. Te imaginas un creterio de kelly o F optima con una fiabilidad del 15%-25%????
Por contra tengo otras tácticas anti tendencia, que estan enmarcadas en el mismo espacio temporal(exposición en el mercado) y estas si que indicen en mayor numero las técnicas de MM.
Para mi el factor riesgo implicito es la máxima y no el posible return por estadistica, me importa más lo que puedo perder que lo que puedo ganar en los sistemas, de la misma manera en las técnicas de MM que pueda implementar.
Pues bien, las estrategía contra tendencia en una de las técnicas que utlizo de MM, va subordinada por el fixed ratio a la hora del aumento de contratos con los que jugar, a la vez los contratos a jugar tienen en el criterio de kelly la distribución de los mismos. Estableciendo dos mecanismos de protección dinamicos, unos de mayor dinámica, como la distribución de los contratos por un criterio de kelly desarrollado por mi y por otro lado un limite máximo de contratos a utilizar por el capital disponible.
capital: 100.000 euros
contratos juego: 1
delta: 15.000 euros=suma 1 contrato
capital actual: 160.000 euros
contratos actual del juego:4
Distribución de los contratos por criterio de Kelly Agma
<25%=1
>25%<50%=2
>50%<75%=3
>75%=4
El criterio de kelly agma tiene tambien en la volatilidad de la exposición eficiente un exponente reductor o exponciador de contratos, con lo que no mireis el aumento de kelly de la forma que se mira normalmente, va relacionado tambien con el riesgo/return de la volatilidad del P/L.
Otra técnica de MM que uilizo es de marco temporal limitada por progresión y riesgo constante, esta es la que mejor resultados me esta dando risk/return, que la saque en mis constantes acercamiento en el juego de la ruleta.
El camino es largo, y sigo pensando que las técnicas de MM son muy beneficiosas para una estrategia, pero cuidado no todas valen para depende que sistema o operativa, y las que valen aún asi estan expuestas a una no correcta gestión de las mismas y eso es algo en lo que se tiene que hacer incapie.
Saludos.
La entrada te da la probabilidad y la salida la rentabilidad...
Re: Money Management segun Roboco
Bueno, realmente lo tengo que dejar aquí porque Agmagetón va subiendo el nivel y terminaría teniendo que exponer cosas que ya interferirían con mi operativa o mi campo de desarrollo. Sólo remarcar unas cosas:
1.-Lo que ha hecho Agmagetón es crearse su propio MM referenciado al Riesgo. Esto es ha sustituido el Net Profit como criterio y le ha introducido el Riesgo.
2.- Con esto se crea una estructura de niveles que es distinta. Pero por lo que cuenta lo debe haber hecho en base a intuición o prueba/error (como Ryan Jones), no mediante demostración, rectifícame si me equivoco. Esto es perfectamente válido y útil para él.
3.- Además ha considerado aplicar distinto MM según el tipo de sistema para equilibrar el portfolio. Esto, si le funciona es perfectamente adecuado para su forma de operar, pero ya te digo que no es matemáticamente óptimo (no es lo mejor que se puede hacer).
4.- La diferencia con lo que yo expongo es que la aproximación debe ser la de obtener una estructura de niveles óptima, que no está sujeta a interepretaciones subjetivas, para distintas funciones a maximizar (por ejemplo Riesgo/Capital) y universal (válido para todas las estrategias).Como caso,esto es público para la F óptima. Esto es, no está sujeto a discusión, la F óptima es la mejor estrategia para maximizar el retorno neto en un juego estacionario con outputs distintos. Esto se demuestra matemáticamente.
Por último y de verdad que no voy a ir más allá. Aunque tengas un 15-20% de fiabilidad, aplicar una antimartingala tipo Fixed Ratio es probablemente mejor que otra estructura superado un número concreto de contratos, el cual estará determinado por la delta y el riesgo de la estrategia.
Un saludo
1.-Lo que ha hecho Agmagetón es crearse su propio MM referenciado al Riesgo. Esto es ha sustituido el Net Profit como criterio y le ha introducido el Riesgo.
2.- Con esto se crea una estructura de niveles que es distinta. Pero por lo que cuenta lo debe haber hecho en base a intuición o prueba/error (como Ryan Jones), no mediante demostración, rectifícame si me equivoco. Esto es perfectamente válido y útil para él.
3.- Además ha considerado aplicar distinto MM según el tipo de sistema para equilibrar el portfolio. Esto, si le funciona es perfectamente adecuado para su forma de operar, pero ya te digo que no es matemáticamente óptimo (no es lo mejor que se puede hacer).
4.- La diferencia con lo que yo expongo es que la aproximación debe ser la de obtener una estructura de niveles óptima, que no está sujeta a interepretaciones subjetivas, para distintas funciones a maximizar (por ejemplo Riesgo/Capital) y universal (válido para todas las estrategias).Como caso,esto es público para la F óptima. Esto es, no está sujeto a discusión, la F óptima es la mejor estrategia para maximizar el retorno neto en un juego estacionario con outputs distintos. Esto se demuestra matemáticamente.
Por último y de verdad que no voy a ir más allá. Aunque tengas un 15-20% de fiabilidad, aplicar una antimartingala tipo Fixed Ratio es probablemente mejor que otra estructura superado un número concreto de contratos, el cual estará determinado por la delta y el riesgo de la estrategia.
Un saludo
Re: Money Management segun Roboco
Vale lo dejamos aquí…y entiendo tu planteamiento matemático…
A mi entender Roboco busca en el MM unos niveles óptimos robustos y generales para su tamaño de posición y que pueda evaluar matemáticamente.
Una de las formas podría ser mediante simulaciones de Montecarlo, aplicar unos criterios con una expectativa razonable que sea un principio matemático óptimo y confiable en niveles para todos los sistemas, y eso si se puede probar matemáticamente…
Aunque podríamos seguir con del debate y el hecho que la propia dinámica de acontecimientos podría variar las horquillas confiable del criterio pudiendo representar la parte baja de las estimaciones, y aquí es donde entro yo y la necesidad de hacer dinámicos los planteamientos, dentro de la propia naturaleza del juego.(en el caso de la técnicas de MM sería el riesgo dinámico)
Si es cierto que la probabilidad de que pase teniendo en juego varios tipos de sistema y por ente una diversificación que incida de manera notable al portafolios, minimiza la probabilidad del suceso…
Pero como acabamos aquí el debate por propia petición de Roboco y con toda compresión hacia él, también doy por finalizado el debate. Sin exponer más cosas.
Te parece bien en quedar que tu ganarás más y yo perderé menos??
PD: si la mejor forma de utilizar el MM para un sistema de tendencia con muy baja fiabilidad, es el fixed ratio teniendo en cuenta la (delta y el riesgo)…pero mejor todavía es implementar una nueva estrategia con fines a diversificar, si los recursos de capital como en mi caso no son de cientos de miles de euros.
Saludos.
A mi entender Roboco busca en el MM unos niveles óptimos robustos y generales para su tamaño de posición y que pueda evaluar matemáticamente.
Una de las formas podría ser mediante simulaciones de Montecarlo, aplicar unos criterios con una expectativa razonable que sea un principio matemático óptimo y confiable en niveles para todos los sistemas, y eso si se puede probar matemáticamente…
Aunque podríamos seguir con del debate y el hecho que la propia dinámica de acontecimientos podría variar las horquillas confiable del criterio pudiendo representar la parte baja de las estimaciones, y aquí es donde entro yo y la necesidad de hacer dinámicos los planteamientos, dentro de la propia naturaleza del juego.(en el caso de la técnicas de MM sería el riesgo dinámico)
Si es cierto que la probabilidad de que pase teniendo en juego varios tipos de sistema y por ente una diversificación que incida de manera notable al portafolios, minimiza la probabilidad del suceso…
Pero como acabamos aquí el debate por propia petición de Roboco y con toda compresión hacia él, también doy por finalizado el debate. Sin exponer más cosas.
Te parece bien en quedar que tu ganarás más y yo perderé menos??
PD: si la mejor forma de utilizar el MM para un sistema de tendencia con muy baja fiabilidad, es el fixed ratio teniendo en cuenta la (delta y el riesgo)…pero mejor todavía es implementar una nueva estrategia con fines a diversificar, si los recursos de capital como en mi caso no son de cientos de miles de euros.
Saludos.
La entrada te da la probabilidad y la salida la rentabilidad...
- Merowingio
- Mensajes: 679
- Registrado: 13 Jun 2006 16:48
- Ubicación: Logroño
Re: Money Management segun Roboco
No tengo yo muy claro lo de la diversificacion, creo mas en la concentracion.
Creo que debemos buscar 1 O 2 planes de trading que nos den beneficios y explotarlos al maximo.
La diversificacion creo que solo la deben utilizar los que han pasado al otro lado ( osea los que ya son ricos ) y unicamente creo que les sirve para PROTEGER su capital.
En nuestro caso , lo que queremos es INCREMENTAR el capital no ???
Pues para incrementarlo hay que concentrar esfuerzo, trabajo y fuerza en un solo punto, asi es como se rompe una gruesa capa de hielo ( concentrando todo el potencial en un punto )
Creo que debemos buscar 1 O 2 planes de trading que nos den beneficios y explotarlos al maximo.
La diversificacion creo que solo la deben utilizar los que han pasado al otro lado ( osea los que ya son ricos ) y unicamente creo que les sirve para PROTEGER su capital.
En nuestro caso , lo que queremos es INCREMENTAR el capital no ???
Pues para incrementarlo hay que concentrar esfuerzo, trabajo y fuerza en un solo punto, asi es como se rompe una gruesa capa de hielo ( concentrando todo el potencial en un punto )
Sol - Soy Andúril, que fue Narsil, la espada de Elendil. Que los esclavos de Mordor huyan de mí - Luna.
Re: Money Management segun Roboco
Has pensado alguna vez que la capa de hielo pueda ser tan gruesa que tu pico se quede sin punta en ese punto????
Creo que confundes terminos amigo Mero...
saludos.
Creo que confundes terminos amigo Mero...
saludos.
La entrada te da la probabilidad y la salida la rentabilidad...
Re: Money Management segun Roboco
Perdonadme que me desvíe algo del tema del hilo pero aprovechando que lo visita ROBOCO,
y habiendo apuntado hacia matemáticas avanzadas, quería preguntarle si ha estudiado
modelización de series financieras con métodos estocásticos, modelos GARCH, etc. Y si
todo eso sirve para algo.
S2
y habiendo apuntado hacia matemáticas avanzadas, quería preguntarle si ha estudiado
modelización de series financieras con métodos estocásticos, modelos GARCH, etc. Y si
todo eso sirve para algo.
S2
Re: Money Management segun Roboco
DESCRIPCIÓN DE LOS INSTRUMENTOS ESTADÍSTICOS UTILIZADOS
III.1) Modelos de rentabilidad
III.2) Modelos de volatilidad
III.2.a) Justificación del uso de los procesos ARCH
III.2.b) Alternativas de modelización ARCH
III.2.b.1) Modelos GARCH
III.2.b.2) Modelos IGARCH
III.2.b.3) Modelos ARCH-M
III.2.b.4) Modelos EGARCH
III.2.b.5) Modelos TARCH
III.2.b.6) Modelos del Componente ARCH
ANÁLISIS Y EVOLUCIÓN DE LA VOLATILIDAD DEL ÍNDICE BURSÁTIL DE ARGENTINA
IV.1) El índice MERVAL de Argentina
IV.2) Comportamiento en la última década
IV.3) Elección del modelo
IV.3.a) Aplicando modelos ARCH y GARCH
IV.3.b) Aplicando modelos ARCH Asimétricos
IV.3.c) Aplicando modelos EGARCH o GARCH Exponencia
IV.3.d) El modelo del Componente o The Component ARCH
IV.3.e) El modelo ARCH-M
IV.4) Conclusión del Capítulo IV
ANÁLISIS Y EVOLUCIÓN DE LA VOLATILIDAD DE LOS PRINCIPALES ÍNDICES BURSÁTILES
V.1) El índice S&P 500 de Estados Unidos
V.2) El indice DJI de Estados Unidos
V.3) El índice NASDAQ de Estados Unidos
V.4) El índice BOVESPA de Brasil
V.5) El índice IGPA de Chile
V.6) El índice IGBC de Colombia
V.7) El índice NIKKEI de Japón
V.
El índice FTSE de Inglaterra
V.9) El índice CAC40 de Francia
V.10) El índice IBEX-35 de España
V.11) Conclusión del Capítulo V
ANÁLISIS COMPARATIVO DEL ÍNDICE MERVAL CON EL RESTO DE LOS ÍNDICES BURSÁTILES
VI.1) El índice MERVAL vs los índices de Latinoamérica
VI.2) El índice MERVAL vs los índices Estados Unidos
VI.3) El índice MERVAL vs los índices de Europa y Asia
VI.4) Conclusión del Capítulo VI
PRONÓSTICOS DE COMPORTAMIENTO DE LOS ÍNDICES BURSÁTILES
VII.1) El índice MERVAL
VII.2) El resto de los índices
VII.3) Conclusión del Capítulo VII
Capítulo VIII- CONCLUSIONES FINALES
VIII.1) El modelo más adecuado
VIII.2) La efectividad de las predicciones y el lapso del mismo
VIII.3) El índice más moderado, el más riesgoso y el más rentable
Las décadas de los años ochenta y noventa han contado con numerosos períodos de inestabilidad y crisis financieras, que se han visto reflejadas en el incremento de la volatilidad en las cotizaciones de los principales activos financieros.
Los tres grandes sucesos de la década de los ochenta han sido: la crisis de la deuda externa, la caída de la bolsa de Nueva York en octubre de 1987 y la explosión en 1990 de la burbuja financiera de la bolsa de Japón y su mercado inmobiliario. Estos pusieron de manifiesto la intensidad de los riesgos de crédito y de mercado, y la debilidad de los sistemas de medición y control de riesgos.
La crisis financiera de Japón fue seguida de una crisis bancaria sin precedentes y del estancamiento de su economía. En septiembre de 1992 estalló la crisis del Sistema Monetario Europeo, donde la Libra esterlina y la lira italiana se vieron forzadas a abandonar el sistema de bandas y la peseta y el escudo sufrieron continuas devaluaciones. Después de casi un año de fuertes tensiones en el mercado de cambios, se produjo la ampliación de las bandas de flotación.
Luego, la crisis de la deuda pública internacional, cuando los tipos de interés revirtieron su tendencia y comenzaron a crecer, provocó enormes pérdidas en las carteras de títulos públicos y demostró lo grave que puede ser el riesgo de interés.
A fines de 1994 las turbulencias viajaron a México, y aparecieron los temores de un nuevo episodio de la crisis de la deuda externa. El peso mexicano fue devaluado, y estalló la crisis bancaria que duró toda la segunda mitad de la década.
La onda de inestabilidad financiera alcanzó a la economía argentina y también debido a sus propios problemas se produjo tensiones sobre el régimen de convertibilidad, con lo que se abrió una grave crisis bancaria y una fuerte recesión.
La crisis asiática se inició en julio de 1997 con la devaluación del baht tailandés y el derrumbe de su bolsa. La raíz estaba en la debilidad de su sistema financiero y de su sistema de control de riesgo. Esto repercutió sobre la economía mundial, en especial sobre América Latina.
En agosto de 1998, el gobierno ruso devaluó el rublo y declaró unilateralmente la moratoria de las deudas privadas con los acreedores exteriores, y también la moratoria de parte de la deuda pública rusa nominada en rublos. Su alcance fue general, modificando ampliamente la sensibilidad al riesgo de muchos inversores que no estaban implicados directamente.
El episodio del Long Term Capital Management (hedge fund) puso al descubierto los altos niveles de apalancamiento de este tipo de inversiones, y la fragilidad de ciertas estrategias financieras ante shocks no anticipados. Esta situación de crisis motivó el rescate del Banco de la Reserva Federal de Nueva York.
En esta cadena casi ininterrumpida de crisis financieras, le llegó el turno al real brasileño en enero de 1999. El gobierno brasileño lo dejó flotar dadas las fuertes tensiones desde el inicio de la crisis asiática. Luego, en el primer semestre del 2.000, los valores tecnológicos tuvieron una fuerte corrección luego de tener un ascenso casi en vertical de sus precios.
Finalmente ocurrió la crisis en Argentina, con la caída de la convertibilidad y la posterior devaluación del peso.
Uno de los fenómenos más importantes que revelan estos episodios de inestabilidad financiera es la interrelación que se produce entre los riesgos de crédito, mercado y liquidez en situaciones críticas.
La modelización y medición de los riesgos es una tarea complicada. El riesgo es un concepto escurridizo, que se resiste a ser encerrado en modelos formales. La dificultad existe tanto detrás de los movimientos de los precios de los activos financieros, como en los procesos de deterioro de la solvencia de los agentes económicos (empresas, individuos o países).
El riesgo financiero es un fenómeno multidimensional, que está relacionado con factores de índole económica, factores políticos y factores sociales.
Aún no existen teorías precisas sobre los movimientos de los tipos de cambio o de los precios de las acciones. Existen sí, modelos interpretativos que ayudan a comprender ciertos episodios, pero el problema es la precisión que se requiere y que no lo proporciona la teoría económica. Estas carencias nos llevan a tener que resolver el problema en el terreno de los métodos estadísticos.
El análisis de los riesgos se convierte así en la identificación y estimación de las distribuciones de probabilidad que se supone siguen los precios en el caso de los riesgos de mercado, y de otras variables en el caso de los riesgos de crédito y liquidez. La limitación del uso de los métodos estadísticos se refleja en lo que se ha denominado el riesgo del modelo; es decir, el hecho de que se produzca un quebranto que esté originado, de alguna manera, por el modelo utilizado en la medición del riesgo.
El objetivo primario del presente trabajo es analizar el grado de la volatilidad del Mercado Bursátil Argentino y compararlo con la volatilidad de otros mercados, tanto de países emergentes como de países desarrollados.
Se utilizará la familia de los modelos de volatilidad condicional variable, la familia de los llamados modelos ARCH (autoregresivos de heterocedasticidad condicional).
Estos modelos son ideales para capturar fenómenos donde la varianza condicional es cambiante. Estos son muy usados en el área de Finanzas, donde el inversionista está interesado en pronosticar la tasa de retorno y su volatilidad del periodo de tenencia, y el emisor del título está interesado en analizar el rendimiento y volatilidad esperados a lo largo de la vida del instrumento financiero.
El estudio abarca los principales índices bursátiles de América, Europa y Japón, en el lapso de los últimos diez años. Se realizará estadística descriptiva utilizando principalmente el programa EVIEWS y el programa Excel.
El trabajo se divide en ocho capítulos, en el primer capítulo se desarrolla el marco teórico de los conceptos de riesgo y volatilidad, en capítulo segundo se procede con una descripción del comportamiento de los mercados bursátiles durante la década en estudio siguiendo un orden cronológico enunciando las principales causas que dieron origen a las crisis en cada uno de los países considerados y sus canales de contagio.
El tercer capítulo procedemos con la descripción de los instrumentos estadísticos utilizados tanto para la obtención de los modelos de rentabilidad y principalmente de los modelos de volatilidad. En el capítulo cuatro se efectúa el análisis y evolución de la volatilidad del índice bursátil argentino, el Merval y en el capítulo quinto efectuamos el mismo análisis para los índices Estándar and Poor 500, Dow Jones Industrial y Nasdaq de Estados Unidos, el índice de la Bolsa del Estado de San Pablo de Brasil, el Índice General de Precios de Acciones de Chile, el índice General de la Bolsa de Colombia, el índice Nikkei 225 de Japón, el índice Financial Times Securities Exchange de Inglaterra, el índice CAC 40 de Francia y el índice IBEX-35 de España.
En el capítulo sexto efectuamos el análisis comparativo del índice Merval con el resto de los índices bursátiles, en el capítulo siete realizamos pronósticos de comportamiento de los índices bursátiles aplicando los modelos previamente obtenidos.
III.1) Modelos de rentabilidad
III.2) Modelos de volatilidad
III.2.a) Justificación del uso de los procesos ARCH
III.2.b) Alternativas de modelización ARCH
III.2.b.1) Modelos GARCH
III.2.b.2) Modelos IGARCH
III.2.b.3) Modelos ARCH-M
III.2.b.4) Modelos EGARCH
III.2.b.5) Modelos TARCH
III.2.b.6) Modelos del Componente ARCH
ANÁLISIS Y EVOLUCIÓN DE LA VOLATILIDAD DEL ÍNDICE BURSÁTIL DE ARGENTINA
IV.1) El índice MERVAL de Argentina
IV.2) Comportamiento en la última década
IV.3) Elección del modelo
IV.3.a) Aplicando modelos ARCH y GARCH
IV.3.b) Aplicando modelos ARCH Asimétricos
IV.3.c) Aplicando modelos EGARCH o GARCH Exponencia
IV.3.d) El modelo del Componente o The Component ARCH
IV.3.e) El modelo ARCH-M
IV.4) Conclusión del Capítulo IV
ANÁLISIS Y EVOLUCIÓN DE LA VOLATILIDAD DE LOS PRINCIPALES ÍNDICES BURSÁTILES
V.1) El índice S&P 500 de Estados Unidos
V.2) El indice DJI de Estados Unidos
V.3) El índice NASDAQ de Estados Unidos
V.4) El índice BOVESPA de Brasil
V.5) El índice IGPA de Chile
V.6) El índice IGBC de Colombia
V.7) El índice NIKKEI de Japón
V.

V.9) El índice CAC40 de Francia
V.10) El índice IBEX-35 de España
V.11) Conclusión del Capítulo V
ANÁLISIS COMPARATIVO DEL ÍNDICE MERVAL CON EL RESTO DE LOS ÍNDICES BURSÁTILES
VI.1) El índice MERVAL vs los índices de Latinoamérica
VI.2) El índice MERVAL vs los índices Estados Unidos
VI.3) El índice MERVAL vs los índices de Europa y Asia
VI.4) Conclusión del Capítulo VI
PRONÓSTICOS DE COMPORTAMIENTO DE LOS ÍNDICES BURSÁTILES
VII.1) El índice MERVAL
VII.2) El resto de los índices
VII.3) Conclusión del Capítulo VII
Capítulo VIII- CONCLUSIONES FINALES
VIII.1) El modelo más adecuado
VIII.2) La efectividad de las predicciones y el lapso del mismo
VIII.3) El índice más moderado, el más riesgoso y el más rentable
Las décadas de los años ochenta y noventa han contado con numerosos períodos de inestabilidad y crisis financieras, que se han visto reflejadas en el incremento de la volatilidad en las cotizaciones de los principales activos financieros.
Los tres grandes sucesos de la década de los ochenta han sido: la crisis de la deuda externa, la caída de la bolsa de Nueva York en octubre de 1987 y la explosión en 1990 de la burbuja financiera de la bolsa de Japón y su mercado inmobiliario. Estos pusieron de manifiesto la intensidad de los riesgos de crédito y de mercado, y la debilidad de los sistemas de medición y control de riesgos.
La crisis financiera de Japón fue seguida de una crisis bancaria sin precedentes y del estancamiento de su economía. En septiembre de 1992 estalló la crisis del Sistema Monetario Europeo, donde la Libra esterlina y la lira italiana se vieron forzadas a abandonar el sistema de bandas y la peseta y el escudo sufrieron continuas devaluaciones. Después de casi un año de fuertes tensiones en el mercado de cambios, se produjo la ampliación de las bandas de flotación.
Luego, la crisis de la deuda pública internacional, cuando los tipos de interés revirtieron su tendencia y comenzaron a crecer, provocó enormes pérdidas en las carteras de títulos públicos y demostró lo grave que puede ser el riesgo de interés.
A fines de 1994 las turbulencias viajaron a México, y aparecieron los temores de un nuevo episodio de la crisis de la deuda externa. El peso mexicano fue devaluado, y estalló la crisis bancaria que duró toda la segunda mitad de la década.
La onda de inestabilidad financiera alcanzó a la economía argentina y también debido a sus propios problemas se produjo tensiones sobre el régimen de convertibilidad, con lo que se abrió una grave crisis bancaria y una fuerte recesión.
La crisis asiática se inició en julio de 1997 con la devaluación del baht tailandés y el derrumbe de su bolsa. La raíz estaba en la debilidad de su sistema financiero y de su sistema de control de riesgo. Esto repercutió sobre la economía mundial, en especial sobre América Latina.
En agosto de 1998, el gobierno ruso devaluó el rublo y declaró unilateralmente la moratoria de las deudas privadas con los acreedores exteriores, y también la moratoria de parte de la deuda pública rusa nominada en rublos. Su alcance fue general, modificando ampliamente la sensibilidad al riesgo de muchos inversores que no estaban implicados directamente.
El episodio del Long Term Capital Management (hedge fund) puso al descubierto los altos niveles de apalancamiento de este tipo de inversiones, y la fragilidad de ciertas estrategias financieras ante shocks no anticipados. Esta situación de crisis motivó el rescate del Banco de la Reserva Federal de Nueva York.
En esta cadena casi ininterrumpida de crisis financieras, le llegó el turno al real brasileño en enero de 1999. El gobierno brasileño lo dejó flotar dadas las fuertes tensiones desde el inicio de la crisis asiática. Luego, en el primer semestre del 2.000, los valores tecnológicos tuvieron una fuerte corrección luego de tener un ascenso casi en vertical de sus precios.
Finalmente ocurrió la crisis en Argentina, con la caída de la convertibilidad y la posterior devaluación del peso.
Uno de los fenómenos más importantes que revelan estos episodios de inestabilidad financiera es la interrelación que se produce entre los riesgos de crédito, mercado y liquidez en situaciones críticas.
La modelización y medición de los riesgos es una tarea complicada. El riesgo es un concepto escurridizo, que se resiste a ser encerrado en modelos formales. La dificultad existe tanto detrás de los movimientos de los precios de los activos financieros, como en los procesos de deterioro de la solvencia de los agentes económicos (empresas, individuos o países).
El riesgo financiero es un fenómeno multidimensional, que está relacionado con factores de índole económica, factores políticos y factores sociales.
Aún no existen teorías precisas sobre los movimientos de los tipos de cambio o de los precios de las acciones. Existen sí, modelos interpretativos que ayudan a comprender ciertos episodios, pero el problema es la precisión que se requiere y que no lo proporciona la teoría económica. Estas carencias nos llevan a tener que resolver el problema en el terreno de los métodos estadísticos.
El análisis de los riesgos se convierte así en la identificación y estimación de las distribuciones de probabilidad que se supone siguen los precios en el caso de los riesgos de mercado, y de otras variables en el caso de los riesgos de crédito y liquidez. La limitación del uso de los métodos estadísticos se refleja en lo que se ha denominado el riesgo del modelo; es decir, el hecho de que se produzca un quebranto que esté originado, de alguna manera, por el modelo utilizado en la medición del riesgo.
El objetivo primario del presente trabajo es analizar el grado de la volatilidad del Mercado Bursátil Argentino y compararlo con la volatilidad de otros mercados, tanto de países emergentes como de países desarrollados.
Se utilizará la familia de los modelos de volatilidad condicional variable, la familia de los llamados modelos ARCH (autoregresivos de heterocedasticidad condicional).
Estos modelos son ideales para capturar fenómenos donde la varianza condicional es cambiante. Estos son muy usados en el área de Finanzas, donde el inversionista está interesado en pronosticar la tasa de retorno y su volatilidad del periodo de tenencia, y el emisor del título está interesado en analizar el rendimiento y volatilidad esperados a lo largo de la vida del instrumento financiero.
El estudio abarca los principales índices bursátiles de América, Europa y Japón, en el lapso de los últimos diez años. Se realizará estadística descriptiva utilizando principalmente el programa EVIEWS y el programa Excel.
El trabajo se divide en ocho capítulos, en el primer capítulo se desarrolla el marco teórico de los conceptos de riesgo y volatilidad, en capítulo segundo se procede con una descripción del comportamiento de los mercados bursátiles durante la década en estudio siguiendo un orden cronológico enunciando las principales causas que dieron origen a las crisis en cada uno de los países considerados y sus canales de contagio.
El tercer capítulo procedemos con la descripción de los instrumentos estadísticos utilizados tanto para la obtención de los modelos de rentabilidad y principalmente de los modelos de volatilidad. En el capítulo cuatro se efectúa el análisis y evolución de la volatilidad del índice bursátil argentino, el Merval y en el capítulo quinto efectuamos el mismo análisis para los índices Estándar and Poor 500, Dow Jones Industrial y Nasdaq de Estados Unidos, el índice de la Bolsa del Estado de San Pablo de Brasil, el Índice General de Precios de Acciones de Chile, el índice General de la Bolsa de Colombia, el índice Nikkei 225 de Japón, el índice Financial Times Securities Exchange de Inglaterra, el índice CAC 40 de Francia y el índice IBEX-35 de España.
En el capítulo sexto efectuamos el análisis comparativo del índice Merval con el resto de los índices bursátiles, en el capítulo siete realizamos pronósticos de comportamiento de los índices bursátiles aplicando los modelos previamente obtenidos.
La entrada te da la probabilidad y la salida la rentabilidad...
Re: Money Management segun Roboco
Código: Seleccionar todo
DESCRIPCIÓN DE LOS INSTRUMENTOS ESTADÍSTICOS UTILIZADOS
El propósito de este capítulo es efectuar una breve explicación de los instrumentos estadísticos que utilizaremos, tanto el modelo de la rentabilidad como el modelo de volatilidad, en el siguiente capítulo con el objeto de la obtención del tipo de los Modelos de volatilidad condicional variable, los llamados modelos ARCH, GARCH, IGARCH, EGARCH, ARCH-M, TARCH, que mejor ajustan los datos para el comportamiento de cada uno de los índices seleccionados para el estudio, durante la última década.
III.1) Modelo de rentabilidad
Podemos definir el riesgo de mercado como la pérdida que puede producirse por un movimiento adverso de los precios de mercado y que afecta a los activos líquidos que se negocian tales como las acciones, los bonos, las divisas, las mercancías y los derivados.
Consideramos el precio de cualquier activo como la expresión de la corriente futura de liquidez descontada, que depende de variables como los beneficios futuros, los tipos de interés, los tipos de cambio, de la incertidumbre económica futura y de la frecuencia con la que aparecen algunos shocks o sorpresas que modifican la situación actual o futura.
Estas novedades son los causantes del riesgo de mercado, los cambios no anticipados por los agentes de los factores “fundamentales” que determinan el precio actual.
En el caso de una acción, su precio de mercado representaría el consenso sobre la estimación de los dividendos futuros que la empresa va a generar, actualizados por una tasa de descuento que represente su costo de oportunidad.
Para medir el riesgo de mercado de esta acción podríamos intentar investigar el comportamiento de todas esas variables que influyen en la determinación de su precio (algo muy dificultoso), o podríamos intentar una aproximación fenomenológica que consiste en considerar a los precios de mercado como la materia prima para la medición del riesgo de mercado, mediante el análisis estadístico de las series temporales de los precios de las acciones, bonos, o índices de mercado. Esta última, es la opción que elegimos.
A partir de los precios diarios (cierre de los índices) calculamos la rentabilidad diaria y modelizamos como una variable aleatoria a la volatilidad de las rentabilidades.
El problema que se plantea ahora es identificar el modelo estadístico que mejor representa el comportamiento de los precios.
Si definimos la Rentabilidad Precio como el cociente de la diferencia de precios entre el período t y el período t-1, y el precio en el período t-1 tendremos:
Y = (Pt – Pt-1 ) / Pt-1
Usaremos la rentabilidad logarítmica, que para valores pequeños de la Rentabilidad Precio resulta ser una buena aproximación de la rentabilidad real, y permite la suma de las rentabilidades.
Yt = Ln ( Pt – Pt-1 )
Supondremos que el logaritmo del precio verifica la ecuación:
Ln Pt = r0 + Ln Pt-1 + at
Donde r0 es una constante y at es una variable aleatoria normal con media cero y variancia σ2 y que se distribuye idéntica e independientemente a lo largo del tiempo.
Entonces podemos escribir la Rentabilidad logarítmica como:
Yt = r0 + at
Si aplicamos la hipótesis de que las variables aleatorias son independientes, podemos suponer que la rentabilidad de hoy no influye en la rentabilidad de mañana.
Otra forma de modelar la rentabilidad es:
Yt = r0 + r1 Yt-1 + at
Donde, en este caso, la rentabilidad de hoy, sí depende de la rentabilidad de ayer, siendo ésta forma una de las más utilizadas.
Una modificación a este modelo consiste en expresar la variable aleatoria at mediante el producto de la desviación típica y una variable aleatoria normal estándar (media nula y variancia unidad):
at = σt vt
De esta forma el modelo de la rentabilidad logarítmica queda de la siguiente forma:
Yt = r0 + r1 Yt-1 + σt vt
Dando paso los modelos de variancia no constante o heteroscedástica.
III.2) Modelos de Volatilidad
III.2.a) Justificación del uso de los procesos ARCH
Utilizaremos los modelos de volatilidad condicional variable, los llamados modelos ARCH, GARCH, IGARCH, EGARCH, ARCH-M, TARCH[1].
Estos modelos nos permiten estudiar aquellas situaciones donde la varianza condicional es cambiante. Estos son muy aplicados en análisis de índole financiero, donde el inversionista esta interesado en estimar la tasa de retorno y su volatilidad durante el periodo de tenencia, y el emisor del título esta interesado en analizar el rendimiento y volatilidad esperados durante la vida del instrumento financiero.
El principal objetivo del inversionista es pronosticar el rendimiento y riesgo del instrumento durante un periodo de corto plazo, analiza el riesgo que acepta a cambio de un rendimiento a recibir. Por su parte el emisor del titulo desea saber la posición que tiene este instrumento a lo largo de toda la vida del papel, a los efectos de conocer la posición relativa del instrumento que coloca en el mercado.
Existen dos puntos de vista contrapuestos:
La primera que piensa que estos movimientos erráticos son solo debidos al azar por lo que son modificaciones que se pueden dejar de lado, y la segunda que sostiene que estos movimientos se pueden predecir, ya que producen períodos durante las cuales las desviaciones son significativas, siendo factible obtener resultados a partir de un cuidadoso análisis de riesgo.
Por este motivo el inversionista tiene como objetivo analizar media y varianza condicional y al emisor le interesa, además, la media y varianza no condicional.
Los modelos en estudio se basan en la idea de que se modela en la media condicional y la varianza condicional simultáneamente. O sea, el investigador plantea un modelo de regresión (media condicional) y también un mecanismo que controla la evolución de los errores (varianza condicional), buscando incorporar las grandes fluctuaciones que tiene la volatilidad que se mide por la desviación estándar condicional.
Recordemos que la diferencia entre condicional y no condicional es que la expectativa condicional se refiere a una expectativa hacia el futuro sujeta a la información acumulada hasta el tiempo t. La no condicional no modifica el conjunto de información.
Supongamos que el modelo a estimar es un autorregresivo de primer orden, AR(1)
yt = r0 + r1 yt-1 + at
Donde el termino at es un proceso N(0,σ2)
1) La media no condicional (la posición de largo plazo) es:
E[yt ] = r0 / ( 1- r1 )
2) La media condicional al tiempo t (la posición de corto plazo) es:
E[yt+1|O t]= r0 + r1 yt
Donde yt forma parte del conjunto de información.
3) La varianza no condicional es constante y esta dada por:
Var[ yt ]= σ2 / (1 - r21 )
4) La varianza condicional es:
Var[ yt - E[yt-1 | O t-1] ] = σ2
Es importante tener en cuenta que la media y varianza condicionales ofrecen información relevante que no se debe desechar. La varianza condicional es más pequeña por lo que el riesgo inversor es menor:
σ 2 / (1 - r21 ) > σ2
Podremos estimar la media y variancia condicional si planteamos un modelo similar a un ARMA para que modele la evolución de la volatilidad σ2(t). Estos modelos son los ARCH (modelos auto regresivos de heterocedasticidad condicional) que fueron ideados por Robert Engle en 1982 y tienen la característica de que el término del error esta dado por:
at = σ (t).vt
σ2(t) = a0 + a 1 a2(t-1)
donde vt ˜ IID N(0,1) = NRND, y además at y vt son independientes,
a0 > 0 y 0 < a1< 1 con estas condiciones y usando E[xw]=E[x] E[w] si x, w son independientes se concluye que:
a) E[ at ] =0
b) E[ at aσ ] =0
c) La varianza no condicional de { at }es constante: E[a2t ] =a 0 / ( 1 - a 1)
d) La media condicional es cero E[ at | O t-1] = 0
e) La varianza condicional esta dada por: E[a2t|O t-1] = a 0 + a 1 a2(t-1)
El punto e) nos indica que los errores están bajo un proceso AR(1) condicional, de allí su nombre ARCH. Tomar en cuenta que la condición a0 > 0 corresponde a la mínima varianza condicional a ser observada, en tanto que la condición 0 < a1< 1 es necesaria para que sea un proceso estable, la expresión a1< 0 no es posible dado que la varianza nunca es negativa y si se hace la prueba de hipótesis a1 = 0 de aceptarse significa que no hay efecto ARCH y el proceso es de varianza condicional constante.
Lo importante es que la serie {at } es no correlacionada sin embargo los errores no son independientes ya que están relacionados por sus segundos momentos por una ecuación en diferencias.
A medida que el valor de a1 se acerque mas a uno, tendremos el análogo a una caminata al azar en la varianza y a medida que a1 se acerque a cero, el efecto ARCH tendrá poca persistencia.
Podemos extender esta clase de modelos y llegaremos a expresiones de la forma:
Siendo a 0 > 0 , a 1 = 0, a 2 = 0, ...., a q = 0
La primero ecuación se llama un ARCH(2) y la segundo una ARCH(q), con estos se incorpora al análisis los fenómenos de volatilidad variable, como son los episodios de alto nerviosismo o incertidumbre en el mercado. Estos tienen media cero y una varianza no condicional dada por:
III.2.b) Alternativas de modelización ARCH
III.2.b.1) Modelos GARCH
En el caso de los modelos GARCH (modelos generalizados de heterocedasticidad condicional), que fueron ideados por Bollerslev en 1986, se incluye en la formula para la generación de los errores a la varianza retrasada:
at = σ(t).vt
Esta ecuaciones permiten reproducir periodos de alta volatilidad con periodos tranquilos, sin embargo son modelos que requieren menos parámetros por lo que dan parsimonia y los hace preferidos. No se debe olvidar que el proceso at tiene media cero y varianza condicional.
Un modelo GARCH(1,1) esta definido como:
donde vt es un proceso de ruido blanco, con varianza uno, además at y vt son independientes,
a 0 > 0, 0< a 1 < 1, 0< ß1< 1 , . a 1 + ß 1 < 1
Entonces la expresión que le corresponde a un GARCH(p,q) es:
Aquí las restricciones para los parámetros son ahora:
La varianza no condicional esta dada por:
Los pronósticos de la varianza para adelantar s-períodos se calculan por la formula, m=max(p,q) n=min(m,s-1):
III.2.b.2) Modelos IGARCH
Se puede eliminar la condición de estacionariedad imponiendo
de esta forma se tiene un modelo IGARCH(1,1)
El modelo IGARCH(1,1) es una serie que posee una raíz unitaria en la varianza condicional.
III.2.b.3) Modelos ARCH-M
La familia (G) ARCH-M, es una clase de modelos que ha sido estudiada en profundidad ya que esta tiene la característica de que la varianza condicional aparece como un regresor en el modelo. En 1987 Engle, Lilien y Robins idearon esta clase de modelos para permitir que la media condicional dependa de la varianza condicional. Estos modelos se usan en el mercado de capitales en los llamados modelos CAPM donde el objetivo es comparar dos variables, el rendimiento del titulo y el rendimiento del mercado, ambos, respecto de la tasa libre de riesgo.
La relación entre estos dos excesos de rendimiento (del titulo y del mercado) esta dada por una constante llamada beta y es la que expresa el exceso de rendimiento de un titulo sobre el rendimiento que ofrece el mercado.
El modelo ARCH-M incorpora directamente el efecto ARCH en las variables explicativas, aunque algunas veces resulta no significativo si el rendimiento de mercado compite como otro regresor en el modelo.
Supondremos que los agentes tienen aversión al riesgo, o sea son renuentes a aceptar mayores riesgos si no hallan que el rendimiento del activo compensa el riesgo asumido. El modelo esta construido de modo que la desviación estándar (y así la varianza) es una medida del riesgo. El rendimiento esperado es una función creciente del nivel que presenta la varianza condicional.
El modelo (G) ARCH-M(p,q) simple esta dado por:
Estos modelos son ideales para evaluar el rendimiento de las acciones ya que la volatilidad debida al nerviosismo, repercute en los rendimientos del instrumento.
El test ARCH-LM consiste en mirar si hay efecto ARCH, para lo cual se conservan los residuos, denotados por ut y se corre la regresión auxiliar:
Si efectuamos la prueba-F de significación conjunta de la regresión, la hipótesis nula será igual que siempre H0: a 1 = a 2 = a 3= ...= a p =0, se rechaza la hipótesis nula si el estadístico F sale grande.
Si hay un modelo ARCH-M, éste se manifiesta en una importante correlación cruzada entre la variable (el rendimiento) y la desviación estándar condicional.
La razón por la cual estos modelos han resultado importantes se comprende cuando observamos que:
1.- Se puede usar la varianza (=2) o la desviación estándar (=1) como un regresor.
2.- Los errores pueden ser un proceso MA.
3.- Pueden ir otras variables como regresores.
4.- Pueden los retrasos de la variable Y utilizarse como regresores.
III.2.b.4) Modelos EGARCH
Los modelos EGARCH nacen en 1993 cuando Engle y Ng definieron la curva de impactos asimétricos, en la cual hacen notar que en el mercado de capitales no repercuten igual las buenas noticias que las malas noticias, los movimientos a la baja en el mercado vienen con mayores volatilidades que los movimientos al alza.
Cuando el rendimiento cae por abajo de lo esperado nos lleva a un escenario donde las noticias son malas, esto viene asociado a la observación de que la volatilidad se incrementa y por otra parte cuando las noticias son buenas la volatilidad disminuye. Dentro de los modelos con varianza condicional variable hay dos familias de modelos que se utilizan para modelar esta característica: EGARCH y TARCH.
En 1990 Pagan y Schwert y en 1991 Nelson desarrollaron el modelo exponencial GARCH, denotado como EGARCH, el cual esta definido como:
Este modelo tiene la propiedad de ser un proceso que aparentemente, por su gráfica, se ve estacionario en covarianza, sin embargo, arroja pocas observaciones pero extremadamente largas, o sea su varianza sorpresivamente da saltos muy largos. El parámetro dicta la asimetría del proceso, recuerde que log(σ2)= w si y solo si σ2=exp(w) por lo que la varianza viene definida exponencialmente, de allí su nombre.
Un modelo GARCH tiene la limitación de que trata los efectos de modo simétrico debido a que utiliza los cuadrados de las innovaciones. Otra limitación son las desigualdades que tienen que cumplir los parámetros, estas restricciones eliminan el comportamiento al azar-oscilatorio que pueda presentar la varianza condicional. En cambio en un modelo EGARCH no hay restricciones en los parámetros.
Al ser una combinación lineal entre x y desviaciones sobre su valor absoluto, garantiza una respuesta asimétrica por parte de la varianza condicional ante los movimientos de x. Se considera que en los episodios de crack de los mercados, asociados con elevada volatilidad, sus estimaciones de a1 y a2 son prácticamente la unidad indicando una enorme persistencia que tiene cada shock sobre la varianza condicional.
III.2.b.5) Modelos TARCH
El segundo tipo de modelos que son capaces de producir efectos asimétricos son los llamados modelos TARCH, (Threshold Heteroskedastic Autoregresive Models) son modelos que dependen de un umbral (threshold) por medio del cual definen su reacción.
Observar con atención que si la innovación es negativa el umbral esta activo por lo que el efecto sobre la varianza condicional es mayor, por una contribución. Mientras que si la innovación es positiva el umbral esta apagado y no hay contribución a la varianza condicional. De esta forma se mide el peso que tienen las malas noticias, por lo que si d es cero no hay efecto asimétrico, este punto es vital para decidir si un modelo pertenece a esta familia puesto que se hace la estimación y se procede a realizar la prueba de hipótesis d=0 utilizando el estadístico t-student común y corriente. En resumen, el efecto que hay sobre la varianza condicional es que las buenas noticias pesan a, mientras que las malas noticias pesan (a + d).
III.2.b.6) Modelos del Componente ARCH
Este modelo parte de la varianza condicional de un GARCH(1,1):
σ2t = w + a (e2 t-1 – w) + ß (σ2t-1 – w)
Donde w es una constante para todos los valores de t. En cambio en el modelo del componente se permite que la media de la ecuación de la varianza cambie en el tiempo y se denomina qt y el modelo se transforma en:
σ2t - qt = a (e2 t-1 – qt-1) + ß (σ2t-1 – qt-1)
qt = w + (qt-1 – w) + f (e2 t-1 - σ2t-1 )
Aquí la varianza condicional σ2t todavía es volátil, pero lo particular es el reemplazo de w por qt y de esta forma se testea la presencia de una volatilidad de largo plazo cambiante en el tiempo.
En la primer ecuación se describe el componente transitorio (σ2t - qt) que converge a cero con una velocidad dada por (a + ß). En la segunda ecuación se describe el componente de largo plazo (qt) que converge a w a una velocidad dada por . Este modelo equivale a un EGARCH(2,2) con restricciones no lineales en los coeficientes
La entrada te da la probabilidad y la salida la rentabilidad...
Re: Money Management segun Roboco
ANÁLISIS Y EVOLUCIÓN DE LA VOLATILIDAD DE LOS PRINCIPALES ÍNDICES BURSÁTILES
El objeto de este capítulo es lograr determinar el modelo aplicable, dentro de la familia de modelos ARCH, para cada uno de los principales índices de bolsa propuestos como representativos del mundo bursátil en la intención de estimar la volatilidad individual para luego en un próximo capítulo efectuar sus comparaciones con el índice representativo de la bolsa argentina.
Mantenemos en principio el lapso muestral de diez años, con datos diarios, rentabilidad logarítmica y los pasos desarrollados al estimar el mejor modelo para el índice MERVAL, con la salvedad de que se presentarán aquí solamente cuadros resumen de las regresiones y criterios de selección aplicados, y el modelo final elegido para cada índice.
Los pasos a aplicar a cada índice son los siguientes.
1.- Determinación del rango de datos.
2.- Gráfico de comportamiento del cierre y su rentabilidad diaria.
3.- Análisis la serie “rentabilidad” observando:
a) Histograma y estadísticos principales.
b) Estacionariedad. Desde el punto de vista gráfico y aplicando el test Dickey-Fuller.
c) Autocorrelación. Mediante el test “h” de Durbin.
d) Determinación de la ecuación de la media. Elección del AR(p) mediante la significatividad de sus coeficientes con los estadísticos “t” y “F” y verificación de la existencia o no de homocedasticidad mediante el análisis del correlograma de los residuos.
e) Heterocedasticidad. Verificación mediante el análisis gráfico de los residuos, histograma, contraste de White y test ARCH LM.
4.- Aplicación de los modelos ARCH Y GARCH para la determinación de la ecuación de la varianza.
Selección del modelo más adecuado mediante la aplicación de: “h” de Durbin, correlograma muestral de los residuos y de los residuos al cuadrado, estabilidad intrínseca, criterio de información de Akaike, criterio de información de Schwarz y análisis de los estadísticos principales de los residuos (kurtosis, Asimetría y Jarque-Bera) buscando una distribución que se acerque a la normal.
a) estimación modelo ARCH(p)
b) estimación modelo GARCH(p,q)
c) estimación modelo TARCH(p,q)
d) estimación modelo EGARCH(p,q)
e) estimación modelo del componente
f) estimación modelo ARCH-M
5.- Elección definitiva del modelo más adecuado para cada índice.
V.1) El índice S&P 500 de Estados Unidos
La bolsa de valores de Estados Unidos está formada por más de 10 mil compañías. Por esa razón resulta casi imposible llevar un seguimiento de las acciones de cada compañía en un momento específico para determinar las tendencias del mercado. Por ese motivo, se utilizan los índices como representantes oficiales del mercado. Los índices más importantes son tres: el Dow, el S&P500 y el NASDAQ.
El S&P esta compuesto por 500 acciones de empresas y representa aproximadamente el 70 por ciento del total de las acciones de la bolsa de valores. Las compañías que componen el S&P 500 representan una variedad de sectores industriales: el 80 por ciento son corporaciones industriales, el 8 por ciento son compañías de servicios, el 8 por ciento son financieras y el 4 por ciento son compañías de transporte.
El área de tecnología es el único sector que no está bien representado en el índice S&P 500. Entonces, si bien éste índice representa el rendimiento del mercado en el pasado, y refleja el comportamiento de las inversiones y sus resultados, hay que tener presente que el S&P 500 refleja principalmente el comportamiento de las grandes compañías consideradas líderes en su industria.
Procedemos al análisis de índice S&P 500:
1.- Determinación del rango de datos.
La muestra que analizaremos abarca desde el día 03/01/1995 hasta el día 28/02/2005, incluyendo 2.556 datos diarios de cierre del índice.
2.- Gráfico de comportamiento del cierre y su rentabilidad diaria.
Gráfico V.1: Evolución del índice S&P500 de USA entre enero de 1995 y febrero del 2005, cierre y rentabilidad diaria en porcentaje. FUENTE: propia sobre la base de datos obtenidos del sitio Stockssite.com (Internet, Marzo 2005).
Observamos un crecimiento continuo desde el mínimo del período de 459,11 puntos el día 03/01/1995, alcanza su valor máximo de 1.527,46 puntos el día 24/03/2000, luego cae hasta los 776,76 puntos el día 27/03/2002 a partir de ahí muestra una tendencia de recuperación que llega hasta el 28/02/05 con un valor de 1.203,60.
3.- Análisis la serie “rentabilidad”.
3.a) Histograma y estadísticos principales: es una distribución leptocúrtica (kurtosis 6.13), asimétrica hacia izquierda (Skewness –0.12), alejada de una distribución normal (Jarque-Bera 1048.36) y que tiene como valor máximo 5,57% diario y como valor mínimo –7,11% diario.
3.b) Estacionariedad: el gráfico V.1 nos indica a priori una serie estacionaria, lo cual es confirmado por el test Dickey-Fuller en sus tres acepciones, donde se observa que al 1%, 5% y 10% de confianza se rechaza la hipótesis nula, por lo tanto hay evidencia estadística de que la serie RENT es estacionaria.
3.c) Autocorrelación: el test Dickey-Fuller nos indica además un grado de autocorrelación, y la significatividad del intercepto.
3.d) Ecuación de la Media: efectuamos una regresión de la variable rentabilidad, buscando la ecuación de la media, tomando como variables explicativas a una constante, una constante y AR(1), una constante y MA(1) y una constante y AR(1) MA(1) siendo el mejor modelo el que contiene solamente a la constante (AIC 3,103532).
3.e) Heterocedasticidad: al efectuar el test ARCH LM sobre los residuos de la regresión de la media que contiene solamente el término constante, nos indica la existencia de heterocedasticidad al tener significancia los coeficientes de los residuos al cuadrado hasta el tercer rezago. El análisis gráfico de los residuos nos confirma la heterocedasticidad, pero los residuos aun no tienen una distribución normal ya que si bien la media es cercana a cero, su varianza es de 1.30 con una asimetría negativa de –0.115 y una kurtosis de 6.13.
4.- Aplicación de los modelos ARCH Y GARCH para la determinación de la ecuación de la varianza.
Selección del modelo más adecuado mediante la aplicación de: “h” de Durbin, correlograma muestral de los residuos y de los residuos al cuadrado, estabilidad intrínseca, criterio de información de Akaike, criterio de información de Schwarz y análisis de los estadísticos principales de los residuos (kurtosis, Asimetría y Jarque-Bera) buscando una distribución que se acerque a la normal.
4.a) Estimación con los modelos ARCH(p): obtenemos coeficientes significativos y el criterio de información Akaike y Schwarz disminuyendo hasta el ARCH(9) (AIC 2,887072).
4.b) Estimación modelo GARCH(p,q): el modelo ARCH(9) es superado por el modelo GARCH(1,1) (AIC 2,861343) el cual se mantiene frente a otras variantes con p y q superiores. Su test ARCH LM indica que no quedarían rezagos por incorporar.
4.c) Estimación modelo TARCH(p,q): entre los modelos que incorporan la asimetría del mercado bursátil se testeó con el TARCH(1,1) pero el término ARCH resultó poco significativo.
4.d) Estimación modelo EGARCH(p,q): se comporta mejor el modelo EGARCH(1,1)[1] con menor valor del criterio de información Akaike hasta el momento (2,818895) y posee todos los coeficientes altamente significativos. Observando las estadísticas de los residuos[2], mantiene una media muy cercana a cero, mejora la varianza a 1.005 y si bien la asimetría hacia izquierda crece (-0.30) la kurtosis baja a 4.07 acercándose al valor de la distribución normal (3).
4.e) Estimación modelo del componente: en cuanto al modelo del componente asimétrico, no mejora la performance del modelo EGARCH(1,1) ya que posee mayores valores del criterio de información Akaike.
4.f) Estimación modelo ARCH-M: estimados modelos ARCH-M incluyendo la varianza y la dispersión en la ecuación de la media, ninguno resulta con un coeficiente significativo, por lo cual se descarta esta alternativa.
5.- Elección definitiva del modelo más adecuado para cada índice.
El modelo más adecuado para el S&P500 es el EGARCH(1,1) cuya regresión se encuentra en la Tabla IX.21:
Ecuación de la media:
yt = c + yt-1 +e t
yt = 0.039581 +e t
Ecuación de la varianza:
log(σ2t) = w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) + ß log(σ2t-1)
log(σ2t) = -0.082356 + 0.105726 abs(e t-1 / σt-1 ) – 0.116431 (e t-1 / σt-1 ) + 0.975921 log(σ2t-1)
que es una linealización de :
σ2t = (σ2t-1)ß exp [ w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) ]
σ2t = (σ2t-1)0.975921 exp [-0.082356+0.105726 abs(e t-1/σt-1)–0.116431 (e t-1/σt-1)]
Observando el histograma y los estadísticos principales de los residuos en la tabla IX.22 vemos que tienen una media muy cercana a cero (-0.0045) y una varianza muy cercana a uno (1.0046) con una asimetría negativa (-0.30) una kurtosis superior al de una normal (4.07).
En la tabla IX.23 graficamos la desviación estándar condicional que corresponde al modelo EGARCH(1,1).
La ecuación de la media nos indica que la rentabilidad diaria tanto de corto como de largo plazo, tiene un promedio de 0.039% lo que equivale a un 0.78% mensual (suponiendo 20 ruedas) y a un 9.76% anual (suponiendo 250 ruedas).
Esa rentabilidad diaria de corto plazo tiene una varianza condicional que oscila alrededor del 0.92% diario[3], conformando su valor final mediante la adición del valor de la varianza condicional del período anterior elevado a la 0.975921 más el exponencial del absoluto del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.105726, menos el exponencial del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.116431.
Este modelo capta el comportamiento asimétrico:
si e t-1 > 0 la varianza condicional es σ2t = (σ2t-1)0.975921 exp [-0.082356 - 0.010705 (e t-1/σt-1)]
si e t-1 < 0 la varianza condicional es σ2t = (σ2t-1)0.975921 exp [-0.082356 + 0.222157 (e t-1/σt-1)]
La varianza no condicional o de largo plazo[4] es de 3.27% diario, lo que equivale a una volatilidad diaria del 1.81%.
En cuanto a la estabilidad intrínseca, en una primera instancia se cumple ya que el coeficiente GARCH es INFERIOR a la unidad (0.975921). Para confirmarlo efectuamos el test de Wald proponiendo como hipótesis nula que el coeficiente ß sea igual a la unidad, dando por resultado un estadístico F igual a 33.59557 con un p-level de 0.00 rechazándose en consecuencia la hipótesis nula con un 100% de confianza.
V.2) El índice DJI de Estados Unidos
En 1986, Charles Dow, uno de los fundadores del Wall Street Journal, creó un índice que representara las acciones industriales que conformaban la muy pequeña pero creciente parte del mercado en aquel tiempo. Según Dow, un mercado en la alza se puede mantener sólo si las industrias manufactureras y de transporte, como los ferrocarriles, siguen el camino correcto.
El promedio industrial Dow Jones originalmente tenía 12 compañías y aunque era publicado regularmente en el Journal, le llevó más de 25 años ser reconocido fuera de Wall Street. General Electric es, actualmente, la única compañía del Dow Jones que formaba parte de las 12 compañías originales.
El cálculo del índice originalmente era muy sencillo, se sumaba el valor del precio de cierre de las acciones de las 12 compañías y se dividía el total por 12. Actualmente, el cálculo se hace sumando los precios 30 valores que luego se dividen por el último divisor, en consecuencia el Dow no es realmente un promedio.
El Dow es volátil con respecto al precio, lo que significa que las acciones de más valor tienen más influencia en el índice. Es por eso que el Dow sube o baja cuando una de las acciones “pesadas” tiene un cambio abrupto. Hay que tener en cuenta esto para evitarse un susto y llegar a las conclusiones equivocadas en relación a la bolsa y a la economía de los Estados Unidos.
Procedemos al análisis de índice DJI:
1.- Determinación del rango de datos.
La muestra que analizaremos abarca desde el día 03/01/1995 hasta el día 28/02/2005, incluyendo 2.554 datos diarios de cierre del índice.
2.- Gráfico de comportamiento del cierre y su rentabilidad diaria.
Gráfico V.2: Evolución del índice DJI de USA entre enero de 1995 y febrero del 2005, cierre y rentabilidad diaria en porcentaje. FUENTE: propia sobre la base de datos obtenidos del sitio Stockssite.com (Internet, Marzo 2005).
Observamos un crecimiento continuo desde el mínimo del período de 3.832,10 puntos el día 03/01/1995, alcanza su valor máximo de 11.723,00 puntos el día 14/01/2000, luego cae hasta los 7.286,27 puntos el día 09/10/2002 a partir de ahí muestra una tendencia de recuperación que llega hasta el fin de la muestra con un valor de 10.766,23.
3.- Análisis la serie “rentabilidad”.
3.a) Histograma y estadísticos principales: es una distribución leptocúrtica (kurtosis 7.04), asimétrica hacia izquierda (Skewness –0.25), alejada de una distribución normal (Jarque-Bera 1763.99) y que tiene como valor máximo 6,16% diario y como valor mínimo –7,45% diario.
3.b) Estacionariedad: el gráfico V.2 nos indica a priori una serie estacionaria, lo cual es confirmado por el test Dickey-Fuller en sus tres acepciones, donde se observa que al 1%, 5% y 10% de confianza se rechaza la hipótesis nula, por lo tanto hay evidencia estadística de que la serie RENT es estacionaria.
3.c) Autocorrelación: el test Dickey-Fuller nos indica además un grado de autocorrelación, y la significatividad del intercepto al 98% y de la tendencia al 91%.
3.d) Ecuación de la Media: efectuamos una regresión de la variable rentabilidad, buscando la ecuación de la media, tomando como variables explicativas a una constante, una constante y @TREND(1), una constante y AR(1), una constante y MA(1) y una constante y AR(1) MA(1) siendo el mejor modelo el que contiene solamente a la constante (AIC 3,054702).
3.e) Heterocedasticidad: al efectuar el test ARCH LM sobre los residuos de la regresión de la media que contiene solamente el término constante, nos indica la existencia de heterocedasticidad al tener significancia los coeficientes de los residuos al cuadrado hasta el tercer rezago. El análisis gráfico de los residuos nos confirma la heterocedasticidad, pero los residuos aun no tienen una distribución normal ya que si bien la media es cercana a cero, su varianza es de 1.24 con una asimetría negativa de –0.25 y una kurtosis de 7.04.
4.- Aplicación de los modelos ARCH Y GARCH para la determinación de la ecuación de la varianza.
Selección del modelo más adecuado mediante la aplicación de: “h” de Durbin, correlograma muestral de los residuos y de los residuos al cuadrado, estabilidad intrínseca, criterio de información de Akaike, criterio de información de Schwarz y análisis de los estadísticos principales de los residuos (kurtosis, Asimetría y Jarque-Bera) buscando una distribución que se acerque a la normal.
4.a) Estimación con los modelos ARCH(p): obtenemos coeficientes significativos y el criterio de información Akaike y Schwarz disminuyendo hasta el ARCH(9) (AIC 2,844303).
4.b) Estimación modelo GARCH(p,q): el modelo ARCH(9) es superado por el modelo GARCH(1,1) (AIC 2,827991) el cual se mantiene frente a otras variantes con p y q superiores por la insignificancia de sus coeficientes o mayores AIC. Su test ARCH LM indica que no quedarían rezagos por incorporar, y el estadístico “h” de Durbin es de -0,184731 indicando que no existe correlación serial en los residuos al caer dentro del intervalo -1.96 y +1.96 con el 95% de confianza.
4.c) Estimación modelo TARCH(p,q): entre los modelos que incorporan la asimetría del mercado bursátil se testeó con el TARCH(1,1) pero el término ARCH resultó no significativo.
4.d) Estimación modelo EGARCH(p,q): se comporta mejor el modelo EGARCH(1,1) con menor valor del criterio de información Akaike hasta el momento (2,794102) y posee todos los coeficientes altamente significativos. Observando las estadísticas de los residuos, mantiene una media muy cercana a cero, mejora la varianza a 1.002 y si bien la asimetría hacia izquierda crece (-0.31) la kurtosis baja a 4.06 acercándose al valor de la distribución normal (3).
4.e) Estimación modelo del componente: en cuanto al modelo del componente asimétrico, no mejora la performance del modelo EGARCH(1,1) ya que posee mayores valores del criterio de información Akaike (2.815345).
4.f) Estimación modelo ARCH-M: estimados modelos ARCH-M incluyendo la varianza y la dispersión en la ecuación de la media, ninguno resulta con un coeficiente significativo, por lo cual se descarta esta alternativa.
5.- Elección definitiva del modelo más adecuado para el índice.
El modelo más adecuado para el DJI es el EGARCH(1,1) cuya regresión se encuentra en la Tabla IX.24:
Ecuación de la media:
yt = c + yt-1 +e t
yt = 0.038387 +e t
Ecuación de la varianza:
log(σ2t) = w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) + ß log(σ2t-1)
log(σ2t) = -0.090084 + 0.115366 abs(e t-1 / σt-1 ) – 0.09856 (e t-1 / σt-1 ) + 0.979695 log(σ2t-1)
que es una linealización de :
σ2t = (σ2t-1)ß exp [ w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) ]
σ2t = (σ2t-1)0.979695 exp [-0.090084+0.115366 abs(e t-1/σt-1)–0.09856 (e t-1/σt-1)]
Observando el histograma y los estadísticos principales de los residuos en la tabla IX.25 vemos que tienen una media muy cercana a cero (-0.00077) y una varianza muy cercana a uno (1.002461) con una asimetría negativa (-0.313794) una kurtosis superior al de una normal (4.061047).
En la tabla IX.26 graficamos la desviación estándar condicional que corresponde al modelo EGARCH(1,1).
La ecuación de la media nos indica que la rentabilidad diaria tanto de corto como de largo plazo, tiene un promedio de 0.038% lo que equivale a un 0.77% mensual (suponiendo 20 ruedas) y a un 9.60% anual (suponiendo 250 ruedas).
Esa rentabilidad diaria de corto plazo tiene una varianza condicional que oscila alrededor del 0.91% diario[5], conformando su valor final mediante la adición del valor de la varianza condicional del período anterior elevado a la 0.979695 más el exponencial del absoluto del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.115366, menos el exponencial del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.09856.
Este modelo capta el comportamiento asimétrico:
si e t-1 > 0 la varianza condicional es σ2t = (σ2t-1)0.979695 exp [-0.090084 + 0.016806 (e t-1/σt-1)]
si e t-1 < 0 la varianza condicional es σ2t = (σ2t-1)0.979695 exp [-0.090084 + 0.213926 (e t-1/σt-1)]
La varianza no condicional o de largo plazo[6] es de 1.18% diario, lo que equivale a una volatilidad diaria del 1.08797%.
En cuanto a la estabilidad intrínseca, en una primera instancia se cumple ya que el coeficiente GARCH es INFERIOR a la unidad (0.979695). Para confirmarlo efectuamos el test de Wald proponiendo como hipótesis nula que el coeficiente ß sea igual a la unidad, dando por resultado un estadístico F igual a 19.9994 con un p-level de 0.000008 rechazándose en consecuencia la hipótesis nula con un 99,99% de confianza.
continúa...
--------------------------------------------------------------------------------
[1] Ver Tabla IX.21
[2] Ver Tabla IX.22
[3] Surge de exp(-0.082356) suponiendo que la varianza del período anterior es nula y que el error de predición del período anterior es también nulo.
[4] La varianza no condicional es constante y esta dada por: Var[ yt ]= exp[w/ (1 – ß )]
[5] Surge de exp(-0.090084) suponiendo que la varianza del período anterior es nula y que el error de predición del período anterior es también nulo.
[6] La varianza no condicional es constante y esta dada por: Var[ yt ]= exp[w/ (1 – ß )]
El objeto de este capítulo es lograr determinar el modelo aplicable, dentro de la familia de modelos ARCH, para cada uno de los principales índices de bolsa propuestos como representativos del mundo bursátil en la intención de estimar la volatilidad individual para luego en un próximo capítulo efectuar sus comparaciones con el índice representativo de la bolsa argentina.
Mantenemos en principio el lapso muestral de diez años, con datos diarios, rentabilidad logarítmica y los pasos desarrollados al estimar el mejor modelo para el índice MERVAL, con la salvedad de que se presentarán aquí solamente cuadros resumen de las regresiones y criterios de selección aplicados, y el modelo final elegido para cada índice.
Los pasos a aplicar a cada índice son los siguientes.
1.- Determinación del rango de datos.
2.- Gráfico de comportamiento del cierre y su rentabilidad diaria.
3.- Análisis la serie “rentabilidad” observando:
a) Histograma y estadísticos principales.
b) Estacionariedad. Desde el punto de vista gráfico y aplicando el test Dickey-Fuller.
c) Autocorrelación. Mediante el test “h” de Durbin.
d) Determinación de la ecuación de la media. Elección del AR(p) mediante la significatividad de sus coeficientes con los estadísticos “t” y “F” y verificación de la existencia o no de homocedasticidad mediante el análisis del correlograma de los residuos.
e) Heterocedasticidad. Verificación mediante el análisis gráfico de los residuos, histograma, contraste de White y test ARCH LM.
4.- Aplicación de los modelos ARCH Y GARCH para la determinación de la ecuación de la varianza.
Selección del modelo más adecuado mediante la aplicación de: “h” de Durbin, correlograma muestral de los residuos y de los residuos al cuadrado, estabilidad intrínseca, criterio de información de Akaike, criterio de información de Schwarz y análisis de los estadísticos principales de los residuos (kurtosis, Asimetría y Jarque-Bera) buscando una distribución que se acerque a la normal.
a) estimación modelo ARCH(p)
b) estimación modelo GARCH(p,q)
c) estimación modelo TARCH(p,q)
d) estimación modelo EGARCH(p,q)
e) estimación modelo del componente
f) estimación modelo ARCH-M
5.- Elección definitiva del modelo más adecuado para cada índice.
V.1) El índice S&P 500 de Estados Unidos
La bolsa de valores de Estados Unidos está formada por más de 10 mil compañías. Por esa razón resulta casi imposible llevar un seguimiento de las acciones de cada compañía en un momento específico para determinar las tendencias del mercado. Por ese motivo, se utilizan los índices como representantes oficiales del mercado. Los índices más importantes son tres: el Dow, el S&P500 y el NASDAQ.
El S&P esta compuesto por 500 acciones de empresas y representa aproximadamente el 70 por ciento del total de las acciones de la bolsa de valores. Las compañías que componen el S&P 500 representan una variedad de sectores industriales: el 80 por ciento son corporaciones industriales, el 8 por ciento son compañías de servicios, el 8 por ciento son financieras y el 4 por ciento son compañías de transporte.
El área de tecnología es el único sector que no está bien representado en el índice S&P 500. Entonces, si bien éste índice representa el rendimiento del mercado en el pasado, y refleja el comportamiento de las inversiones y sus resultados, hay que tener presente que el S&P 500 refleja principalmente el comportamiento de las grandes compañías consideradas líderes en su industria.
Procedemos al análisis de índice S&P 500:
1.- Determinación del rango de datos.
La muestra que analizaremos abarca desde el día 03/01/1995 hasta el día 28/02/2005, incluyendo 2.556 datos diarios de cierre del índice.
2.- Gráfico de comportamiento del cierre y su rentabilidad diaria.
Gráfico V.1: Evolución del índice S&P500 de USA entre enero de 1995 y febrero del 2005, cierre y rentabilidad diaria en porcentaje. FUENTE: propia sobre la base de datos obtenidos del sitio Stockssite.com (Internet, Marzo 2005).
Observamos un crecimiento continuo desde el mínimo del período de 459,11 puntos el día 03/01/1995, alcanza su valor máximo de 1.527,46 puntos el día 24/03/2000, luego cae hasta los 776,76 puntos el día 27/03/2002 a partir de ahí muestra una tendencia de recuperación que llega hasta el 28/02/05 con un valor de 1.203,60.
3.- Análisis la serie “rentabilidad”.
3.a) Histograma y estadísticos principales: es una distribución leptocúrtica (kurtosis 6.13), asimétrica hacia izquierda (Skewness –0.12), alejada de una distribución normal (Jarque-Bera 1048.36) y que tiene como valor máximo 5,57% diario y como valor mínimo –7,11% diario.
3.b) Estacionariedad: el gráfico V.1 nos indica a priori una serie estacionaria, lo cual es confirmado por el test Dickey-Fuller en sus tres acepciones, donde se observa que al 1%, 5% y 10% de confianza se rechaza la hipótesis nula, por lo tanto hay evidencia estadística de que la serie RENT es estacionaria.
3.c) Autocorrelación: el test Dickey-Fuller nos indica además un grado de autocorrelación, y la significatividad del intercepto.
3.d) Ecuación de la Media: efectuamos una regresión de la variable rentabilidad, buscando la ecuación de la media, tomando como variables explicativas a una constante, una constante y AR(1), una constante y MA(1) y una constante y AR(1) MA(1) siendo el mejor modelo el que contiene solamente a la constante (AIC 3,103532).
3.e) Heterocedasticidad: al efectuar el test ARCH LM sobre los residuos de la regresión de la media que contiene solamente el término constante, nos indica la existencia de heterocedasticidad al tener significancia los coeficientes de los residuos al cuadrado hasta el tercer rezago. El análisis gráfico de los residuos nos confirma la heterocedasticidad, pero los residuos aun no tienen una distribución normal ya que si bien la media es cercana a cero, su varianza es de 1.30 con una asimetría negativa de –0.115 y una kurtosis de 6.13.
4.- Aplicación de los modelos ARCH Y GARCH para la determinación de la ecuación de la varianza.
Selección del modelo más adecuado mediante la aplicación de: “h” de Durbin, correlograma muestral de los residuos y de los residuos al cuadrado, estabilidad intrínseca, criterio de información de Akaike, criterio de información de Schwarz y análisis de los estadísticos principales de los residuos (kurtosis, Asimetría y Jarque-Bera) buscando una distribución que se acerque a la normal.
4.a) Estimación con los modelos ARCH(p): obtenemos coeficientes significativos y el criterio de información Akaike y Schwarz disminuyendo hasta el ARCH(9) (AIC 2,887072).
4.b) Estimación modelo GARCH(p,q): el modelo ARCH(9) es superado por el modelo GARCH(1,1) (AIC 2,861343) el cual se mantiene frente a otras variantes con p y q superiores. Su test ARCH LM indica que no quedarían rezagos por incorporar.
4.c) Estimación modelo TARCH(p,q): entre los modelos que incorporan la asimetría del mercado bursátil se testeó con el TARCH(1,1) pero el término ARCH resultó poco significativo.
4.d) Estimación modelo EGARCH(p,q): se comporta mejor el modelo EGARCH(1,1)[1] con menor valor del criterio de información Akaike hasta el momento (2,818895) y posee todos los coeficientes altamente significativos. Observando las estadísticas de los residuos[2], mantiene una media muy cercana a cero, mejora la varianza a 1.005 y si bien la asimetría hacia izquierda crece (-0.30) la kurtosis baja a 4.07 acercándose al valor de la distribución normal (3).
4.e) Estimación modelo del componente: en cuanto al modelo del componente asimétrico, no mejora la performance del modelo EGARCH(1,1) ya que posee mayores valores del criterio de información Akaike.
4.f) Estimación modelo ARCH-M: estimados modelos ARCH-M incluyendo la varianza y la dispersión en la ecuación de la media, ninguno resulta con un coeficiente significativo, por lo cual se descarta esta alternativa.
5.- Elección definitiva del modelo más adecuado para cada índice.
El modelo más adecuado para el S&P500 es el EGARCH(1,1) cuya regresión se encuentra en la Tabla IX.21:
Ecuación de la media:
yt = c + yt-1 +e t
yt = 0.039581 +e t
Ecuación de la varianza:
log(σ2t) = w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) + ß log(σ2t-1)
log(σ2t) = -0.082356 + 0.105726 abs(e t-1 / σt-1 ) – 0.116431 (e t-1 / σt-1 ) + 0.975921 log(σ2t-1)
que es una linealización de :
σ2t = (σ2t-1)ß exp [ w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) ]
σ2t = (σ2t-1)0.975921 exp [-0.082356+0.105726 abs(e t-1/σt-1)–0.116431 (e t-1/σt-1)]
Observando el histograma y los estadísticos principales de los residuos en la tabla IX.22 vemos que tienen una media muy cercana a cero (-0.0045) y una varianza muy cercana a uno (1.0046) con una asimetría negativa (-0.30) una kurtosis superior al de una normal (4.07).
En la tabla IX.23 graficamos la desviación estándar condicional que corresponde al modelo EGARCH(1,1).
La ecuación de la media nos indica que la rentabilidad diaria tanto de corto como de largo plazo, tiene un promedio de 0.039% lo que equivale a un 0.78% mensual (suponiendo 20 ruedas) y a un 9.76% anual (suponiendo 250 ruedas).
Esa rentabilidad diaria de corto plazo tiene una varianza condicional que oscila alrededor del 0.92% diario[3], conformando su valor final mediante la adición del valor de la varianza condicional del período anterior elevado a la 0.975921 más el exponencial del absoluto del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.105726, menos el exponencial del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.116431.
Este modelo capta el comportamiento asimétrico:
si e t-1 > 0 la varianza condicional es σ2t = (σ2t-1)0.975921 exp [-0.082356 - 0.010705 (e t-1/σt-1)]
si e t-1 < 0 la varianza condicional es σ2t = (σ2t-1)0.975921 exp [-0.082356 + 0.222157 (e t-1/σt-1)]
La varianza no condicional o de largo plazo[4] es de 3.27% diario, lo que equivale a una volatilidad diaria del 1.81%.
En cuanto a la estabilidad intrínseca, en una primera instancia se cumple ya que el coeficiente GARCH es INFERIOR a la unidad (0.975921). Para confirmarlo efectuamos el test de Wald proponiendo como hipótesis nula que el coeficiente ß sea igual a la unidad, dando por resultado un estadístico F igual a 33.59557 con un p-level de 0.00 rechazándose en consecuencia la hipótesis nula con un 100% de confianza.
V.2) El índice DJI de Estados Unidos
En 1986, Charles Dow, uno de los fundadores del Wall Street Journal, creó un índice que representara las acciones industriales que conformaban la muy pequeña pero creciente parte del mercado en aquel tiempo. Según Dow, un mercado en la alza se puede mantener sólo si las industrias manufactureras y de transporte, como los ferrocarriles, siguen el camino correcto.
El promedio industrial Dow Jones originalmente tenía 12 compañías y aunque era publicado regularmente en el Journal, le llevó más de 25 años ser reconocido fuera de Wall Street. General Electric es, actualmente, la única compañía del Dow Jones que formaba parte de las 12 compañías originales.
El cálculo del índice originalmente era muy sencillo, se sumaba el valor del precio de cierre de las acciones de las 12 compañías y se dividía el total por 12. Actualmente, el cálculo se hace sumando los precios 30 valores que luego se dividen por el último divisor, en consecuencia el Dow no es realmente un promedio.
El Dow es volátil con respecto al precio, lo que significa que las acciones de más valor tienen más influencia en el índice. Es por eso que el Dow sube o baja cuando una de las acciones “pesadas” tiene un cambio abrupto. Hay que tener en cuenta esto para evitarse un susto y llegar a las conclusiones equivocadas en relación a la bolsa y a la economía de los Estados Unidos.
Procedemos al análisis de índice DJI:
1.- Determinación del rango de datos.
La muestra que analizaremos abarca desde el día 03/01/1995 hasta el día 28/02/2005, incluyendo 2.554 datos diarios de cierre del índice.
2.- Gráfico de comportamiento del cierre y su rentabilidad diaria.
Gráfico V.2: Evolución del índice DJI de USA entre enero de 1995 y febrero del 2005, cierre y rentabilidad diaria en porcentaje. FUENTE: propia sobre la base de datos obtenidos del sitio Stockssite.com (Internet, Marzo 2005).
Observamos un crecimiento continuo desde el mínimo del período de 3.832,10 puntos el día 03/01/1995, alcanza su valor máximo de 11.723,00 puntos el día 14/01/2000, luego cae hasta los 7.286,27 puntos el día 09/10/2002 a partir de ahí muestra una tendencia de recuperación que llega hasta el fin de la muestra con un valor de 10.766,23.
3.- Análisis la serie “rentabilidad”.
3.a) Histograma y estadísticos principales: es una distribución leptocúrtica (kurtosis 7.04), asimétrica hacia izquierda (Skewness –0.25), alejada de una distribución normal (Jarque-Bera 1763.99) y que tiene como valor máximo 6,16% diario y como valor mínimo –7,45% diario.
3.b) Estacionariedad: el gráfico V.2 nos indica a priori una serie estacionaria, lo cual es confirmado por el test Dickey-Fuller en sus tres acepciones, donde se observa que al 1%, 5% y 10% de confianza se rechaza la hipótesis nula, por lo tanto hay evidencia estadística de que la serie RENT es estacionaria.
3.c) Autocorrelación: el test Dickey-Fuller nos indica además un grado de autocorrelación, y la significatividad del intercepto al 98% y de la tendencia al 91%.
3.d) Ecuación de la Media: efectuamos una regresión de la variable rentabilidad, buscando la ecuación de la media, tomando como variables explicativas a una constante, una constante y @TREND(1), una constante y AR(1), una constante y MA(1) y una constante y AR(1) MA(1) siendo el mejor modelo el que contiene solamente a la constante (AIC 3,054702).
3.e) Heterocedasticidad: al efectuar el test ARCH LM sobre los residuos de la regresión de la media que contiene solamente el término constante, nos indica la existencia de heterocedasticidad al tener significancia los coeficientes de los residuos al cuadrado hasta el tercer rezago. El análisis gráfico de los residuos nos confirma la heterocedasticidad, pero los residuos aun no tienen una distribución normal ya que si bien la media es cercana a cero, su varianza es de 1.24 con una asimetría negativa de –0.25 y una kurtosis de 7.04.
4.- Aplicación de los modelos ARCH Y GARCH para la determinación de la ecuación de la varianza.
Selección del modelo más adecuado mediante la aplicación de: “h” de Durbin, correlograma muestral de los residuos y de los residuos al cuadrado, estabilidad intrínseca, criterio de información de Akaike, criterio de información de Schwarz y análisis de los estadísticos principales de los residuos (kurtosis, Asimetría y Jarque-Bera) buscando una distribución que se acerque a la normal.
4.a) Estimación con los modelos ARCH(p): obtenemos coeficientes significativos y el criterio de información Akaike y Schwarz disminuyendo hasta el ARCH(9) (AIC 2,844303).
4.b) Estimación modelo GARCH(p,q): el modelo ARCH(9) es superado por el modelo GARCH(1,1) (AIC 2,827991) el cual se mantiene frente a otras variantes con p y q superiores por la insignificancia de sus coeficientes o mayores AIC. Su test ARCH LM indica que no quedarían rezagos por incorporar, y el estadístico “h” de Durbin es de -0,184731 indicando que no existe correlación serial en los residuos al caer dentro del intervalo -1.96 y +1.96 con el 95% de confianza.
4.c) Estimación modelo TARCH(p,q): entre los modelos que incorporan la asimetría del mercado bursátil se testeó con el TARCH(1,1) pero el término ARCH resultó no significativo.
4.d) Estimación modelo EGARCH(p,q): se comporta mejor el modelo EGARCH(1,1) con menor valor del criterio de información Akaike hasta el momento (2,794102) y posee todos los coeficientes altamente significativos. Observando las estadísticas de los residuos, mantiene una media muy cercana a cero, mejora la varianza a 1.002 y si bien la asimetría hacia izquierda crece (-0.31) la kurtosis baja a 4.06 acercándose al valor de la distribución normal (3).
4.e) Estimación modelo del componente: en cuanto al modelo del componente asimétrico, no mejora la performance del modelo EGARCH(1,1) ya que posee mayores valores del criterio de información Akaike (2.815345).
4.f) Estimación modelo ARCH-M: estimados modelos ARCH-M incluyendo la varianza y la dispersión en la ecuación de la media, ninguno resulta con un coeficiente significativo, por lo cual se descarta esta alternativa.
5.- Elección definitiva del modelo más adecuado para el índice.
El modelo más adecuado para el DJI es el EGARCH(1,1) cuya regresión se encuentra en la Tabla IX.24:
Ecuación de la media:
yt = c + yt-1 +e t
yt = 0.038387 +e t
Ecuación de la varianza:
log(σ2t) = w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) + ß log(σ2t-1)
log(σ2t) = -0.090084 + 0.115366 abs(e t-1 / σt-1 ) – 0.09856 (e t-1 / σt-1 ) + 0.979695 log(σ2t-1)
que es una linealización de :
σ2t = (σ2t-1)ß exp [ w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) ]
σ2t = (σ2t-1)0.979695 exp [-0.090084+0.115366 abs(e t-1/σt-1)–0.09856 (e t-1/σt-1)]
Observando el histograma y los estadísticos principales de los residuos en la tabla IX.25 vemos que tienen una media muy cercana a cero (-0.00077) y una varianza muy cercana a uno (1.002461) con una asimetría negativa (-0.313794) una kurtosis superior al de una normal (4.061047).
En la tabla IX.26 graficamos la desviación estándar condicional que corresponde al modelo EGARCH(1,1).
La ecuación de la media nos indica que la rentabilidad diaria tanto de corto como de largo plazo, tiene un promedio de 0.038% lo que equivale a un 0.77% mensual (suponiendo 20 ruedas) y a un 9.60% anual (suponiendo 250 ruedas).
Esa rentabilidad diaria de corto plazo tiene una varianza condicional que oscila alrededor del 0.91% diario[5], conformando su valor final mediante la adición del valor de la varianza condicional del período anterior elevado a la 0.979695 más el exponencial del absoluto del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.115366, menos el exponencial del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.09856.
Este modelo capta el comportamiento asimétrico:
si e t-1 > 0 la varianza condicional es σ2t = (σ2t-1)0.979695 exp [-0.090084 + 0.016806 (e t-1/σt-1)]
si e t-1 < 0 la varianza condicional es σ2t = (σ2t-1)0.979695 exp [-0.090084 + 0.213926 (e t-1/σt-1)]
La varianza no condicional o de largo plazo[6] es de 1.18% diario, lo que equivale a una volatilidad diaria del 1.08797%.
En cuanto a la estabilidad intrínseca, en una primera instancia se cumple ya que el coeficiente GARCH es INFERIOR a la unidad (0.979695). Para confirmarlo efectuamos el test de Wald proponiendo como hipótesis nula que el coeficiente ß sea igual a la unidad, dando por resultado un estadístico F igual a 19.9994 con un p-level de 0.000008 rechazándose en consecuencia la hipótesis nula con un 99,99% de confianza.
continúa...
--------------------------------------------------------------------------------
[1] Ver Tabla IX.21
[2] Ver Tabla IX.22
[3] Surge de exp(-0.082356) suponiendo que la varianza del período anterior es nula y que el error de predición del período anterior es también nulo.
[4] La varianza no condicional es constante y esta dada por: Var[ yt ]= exp[w/ (1 – ß )]
[5] Surge de exp(-0.090084) suponiendo que la varianza del período anterior es nula y que el error de predición del período anterior es también nulo.
[6] La varianza no condicional es constante y esta dada por: Var[ yt ]= exp[w/ (1 – ß )]
La entrada te da la probabilidad y la salida la rentabilidad...
Re: Money Management segun Roboco
ANÁLISIS Y EVOLUCIÓN DE LA VOLATILIDAD DE LOS PRINCIPALES ÍNDICES BURSÁTILES
V.3) El índice NASDAQ de Estados Unidos
Desde su debut en 1971 como la primera bolsa de valores computarizada del mundo, el Nasdaq ha crecido a más de 3,600 de las compañías más innovadoras comerciadas públicamente.
Más compañías son listadas en el Nasdaq que en otros de los mercados más importantes de Estados Unidos, y también es el índice de más rápido crecimiento.
El Nasdaq está compuesto de compañías más nuevas e innovadoras que su hermano mayor el Indice Industrial Dow Jones.
Procedemos al análisis de índice NASDAQ:
1.- Determinación del rango de datos.
La muestra que analizaremos abarca desde el día 19/10/1995 hasta el día 28/02/2005, incluyendo 2.353 datos diarios de cierre del índice.
2.- Gráfico de comportamiento del cierre y su rentabilidad diaria.
Gráfico V.3: Evolución del índice NASDAQ de USA entre octubre de 1995 y febrero del 2005, cierre y rentabilidad diaria en porcentaje. FUENTE: propia sobre la base de datos obtenidos del sitio Stockssite.com (Internet, Marzo 2005).
Observamos un crecimiento lento al inicio desde el mínimo del período de 988,57 puntos el día 15/01/1996, para luego crecer aceleradamente hasta el máximo de 5.048,62 puntos el día 10/03/2000, luego cae hasta los 1.119,40 puntos el día 07/10/2002 a partir de ahí muestra una tendencia de lenta recuperación que llega hasta el fin de la muestra con un valor de 2.051,72.
3.- Análisis la serie “rentabilidad”.
3.a) Histograma y estadísticos principales: es una distribución leptocúrtica (kurtosis 6.48), asimétrica hacia derecha (Skewness +0.026), alejada de una distribución normal (Jarque-Bera 1184.91) y que tiene como valor máximo 13.25% diario y como valor mínimo –10,17% diario.
3.b) Estacionariedad: el gráfico V.3 nos indica a priori una serie estacionaria, lo cual es confirmado por el test Dickey-Fuller en sus tres acepciones, donde se observa que al 1%, 5% y 10% de confianza se rechaza la hipótesis nula, por lo tanto hay evidencia estadística de que la serie RENT es estacionaria.
3.c) Autocorrelación: el test Dickey-Fuller nos indica además un grado de autocorrelación, y poca significatividad del intercepto y de la tendencia.
3.d) Ecuación de la Media: efectuamos una regresión de la variable rentabilidad, buscando la ecuación de la media, tomando como variables explicativas a una constante, una constante y AR(1), una constante y MA(1) y una constante y AR(1) MA(1) siendo el modelo mas aceptable el que contiene solamente a la constante (AIC 4.102539).
3.e) Heterocedasticidad: al efectuar el test ARCH LM sobre los residuos de la regresión de la media que contiene solamente el término constante, nos indica la existencia de heterocedasticidad al tener significancia los coeficientes de los residuos al cuadrado hasta el sexto rezago. El análisis gráfico de los residuos nos confirma la heterocedasticidad, pero los residuos aun no tienen una distribución normal ya que si bien la media es muy cercana a cero, su varianza es de 3.54 con una asimetría positiva de +0.026 y una kurtosis de 6.48.
4.- Aplicación de los modelos ARCH Y GARCH para la determinación de la ecuación de la varianza.
4.a) Estimación con los modelos ARCH(p): obtenemos coeficientes significativos y el criterio de información Akaike y Schwarz disminuyendo hasta el ARCH(9) (AIC3.762383).
4.b) Estimación modelo GARCH(p,q): el modelo ARCH(9) es superado por el modelo GARCH(1,1) (AIC 3.750083) el cual se mantiene frente a otras variantes con p y q superiores por la insignificancia de sus coeficientes o mayores AIC. Su test ARCH LM indica que no quedarían rezagos por incorporar.
4.c) Estimación modelo TARCH(p,q): entre los modelos que incorporan la asimetría del mercado bursátil se testeó con el TARCH(1,1) mejorando el criterio de información de Akaike cuyo valor es 3.731749 con todos los coeficientes significativos.
4.d) Estimación modelo EGARCH(p,q): mejora la estimación el modelo EGARCH(1,1) con menor valor del criterio de información Akaike hasta el momento (3.729130) y posee todos los coeficientes altamente significativos. Observando las estadísticas de los residuos, mantiene una media muy cercana a cero, mejora la varianza a 1.0007 y si bien la asimetría se corre hacia la izquierda y crece (-0.29) la kurtosis baja a 3.66 acercándose al valor de la distribución normal.
4.e) Estimación modelo del componente: en cuanto al modelo del componente asimétrico, no mejora la performance del modelo EGARCH(1,1) ya que posee mayores valores del criterio de información Akaike (3.735351).
4.f) Estimación modelo ARCH-M: estimados modelos ARCH-M incluyendo la varianza y la dispersión en la ecuación de la media, ninguno resulta con un coeficiente significativo, por lo cual se descarta esta alternativa.
5.- Elección definitiva del modelo más adecuado para el índice.
El modelo más adecuado para el NASDAQ es el EGARCH(1,1) cuya regresión se encuentra en la Tabla IX.27:
Ecuación de la media:
yt = c + yt-1 +e t
yt = 0.048966 +e t
Ecuación de la varianza:
log(σ2t) = w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) + ß log(σ2t-1)
log(σ2t) = -0.107962 + 0.155496 abs(e t-1 / σt-1 ) – 0.072545 (e t-1 / σt-1 ) + 0.983319 log(σ2t-1)
que es una linealización de :
σ2t = (σ2t-1)ß exp [ w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) ]
σ2t = (σ2t-1)0.983319 exp [-0.107962+0.155496 abs(e t-1/σt-1)–0.072545 (e t-1/σt-1)]
Observando el histograma y los estadísticos principales de los residuos en la tabla IX.28 vemos que tienen una media muy cercana a cero (-0.005211) y una varianza muy cercana a uno (1.000700) con una asimetría negativa (-0.292969) una kurtosis levemente superior al de una normal (3.661151).
En la tabla IX.29 graficamos la desviación estándar condicional que corresponde al modelo EGARCH(1,1).
Según la ecuación de la media la rentabilidad diaria tanto de corto como de largo plazo, tiene un promedio de 0.049% lo que equivale a un 0.98% mensual (suponiendo 20 ruedas) y a un 12.24% anual (suponiendo 250 ruedas).
Esa rentabilidad diaria de corto plazo tiene una varianza condicional que oscila alrededor del 0.90% diario[7], conformando su valor final mediante la adición del valor de la varianza condicional del período anterior elevado a la 0.983319 más el exponencial del absoluto del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.155496, menos el exponencial del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.072545.
Este modelo capta el comportamiento asimétrico:
si e t-1 > 0 la varianza condicional es σ2t = (σ2t-1)0.983319 exp [-0.107962 + 0.082951 (e t-1/σt-1)]
si e t-1 < 0 la varianza condicional es σ2t = (σ2t-1)0.983319 exp [-0.107962 + 0.228041 (e t-1/σt-1)]
La varianza no condicional o de largo plazo[8] es de 0.15% diario, lo que equivale a una volatilidad diaria del 0.393178%.
En cuanto a la estabilidad intrínseca, en una primera instancia se cumple ya que el coeficiente GARCH es INFERIOR a la unidad (0.983319). Para confirmarlo efectuamos el test de Wald proponiendo como hipótesis nula que el coeficiente ß sea igual a la unidad, dando por resultado un estadístico F igual a 15.7358 con un p-level de 0.000076 rechazándose en consecuencia la hipótesis nula con un 99,99% de confianza.
V.3) El índice NASDAQ de Estados Unidos
Desde su debut en 1971 como la primera bolsa de valores computarizada del mundo, el Nasdaq ha crecido a más de 3,600 de las compañías más innovadoras comerciadas públicamente.
Más compañías son listadas en el Nasdaq que en otros de los mercados más importantes de Estados Unidos, y también es el índice de más rápido crecimiento.
El Nasdaq está compuesto de compañías más nuevas e innovadoras que su hermano mayor el Indice Industrial Dow Jones.
Procedemos al análisis de índice NASDAQ:
1.- Determinación del rango de datos.
La muestra que analizaremos abarca desde el día 19/10/1995 hasta el día 28/02/2005, incluyendo 2.353 datos diarios de cierre del índice.
2.- Gráfico de comportamiento del cierre y su rentabilidad diaria.
Gráfico V.3: Evolución del índice NASDAQ de USA entre octubre de 1995 y febrero del 2005, cierre y rentabilidad diaria en porcentaje. FUENTE: propia sobre la base de datos obtenidos del sitio Stockssite.com (Internet, Marzo 2005).
Observamos un crecimiento lento al inicio desde el mínimo del período de 988,57 puntos el día 15/01/1996, para luego crecer aceleradamente hasta el máximo de 5.048,62 puntos el día 10/03/2000, luego cae hasta los 1.119,40 puntos el día 07/10/2002 a partir de ahí muestra una tendencia de lenta recuperación que llega hasta el fin de la muestra con un valor de 2.051,72.
3.- Análisis la serie “rentabilidad”.
3.a) Histograma y estadísticos principales: es una distribución leptocúrtica (kurtosis 6.48), asimétrica hacia derecha (Skewness +0.026), alejada de una distribución normal (Jarque-Bera 1184.91) y que tiene como valor máximo 13.25% diario y como valor mínimo –10,17% diario.
3.b) Estacionariedad: el gráfico V.3 nos indica a priori una serie estacionaria, lo cual es confirmado por el test Dickey-Fuller en sus tres acepciones, donde se observa que al 1%, 5% y 10% de confianza se rechaza la hipótesis nula, por lo tanto hay evidencia estadística de que la serie RENT es estacionaria.
3.c) Autocorrelación: el test Dickey-Fuller nos indica además un grado de autocorrelación, y poca significatividad del intercepto y de la tendencia.
3.d) Ecuación de la Media: efectuamos una regresión de la variable rentabilidad, buscando la ecuación de la media, tomando como variables explicativas a una constante, una constante y AR(1), una constante y MA(1) y una constante y AR(1) MA(1) siendo el modelo mas aceptable el que contiene solamente a la constante (AIC 4.102539).
3.e) Heterocedasticidad: al efectuar el test ARCH LM sobre los residuos de la regresión de la media que contiene solamente el término constante, nos indica la existencia de heterocedasticidad al tener significancia los coeficientes de los residuos al cuadrado hasta el sexto rezago. El análisis gráfico de los residuos nos confirma la heterocedasticidad, pero los residuos aun no tienen una distribución normal ya que si bien la media es muy cercana a cero, su varianza es de 3.54 con una asimetría positiva de +0.026 y una kurtosis de 6.48.
4.- Aplicación de los modelos ARCH Y GARCH para la determinación de la ecuación de la varianza.
4.a) Estimación con los modelos ARCH(p): obtenemos coeficientes significativos y el criterio de información Akaike y Schwarz disminuyendo hasta el ARCH(9) (AIC3.762383).
4.b) Estimación modelo GARCH(p,q): el modelo ARCH(9) es superado por el modelo GARCH(1,1) (AIC 3.750083) el cual se mantiene frente a otras variantes con p y q superiores por la insignificancia de sus coeficientes o mayores AIC. Su test ARCH LM indica que no quedarían rezagos por incorporar.
4.c) Estimación modelo TARCH(p,q): entre los modelos que incorporan la asimetría del mercado bursátil se testeó con el TARCH(1,1) mejorando el criterio de información de Akaike cuyo valor es 3.731749 con todos los coeficientes significativos.
4.d) Estimación modelo EGARCH(p,q): mejora la estimación el modelo EGARCH(1,1) con menor valor del criterio de información Akaike hasta el momento (3.729130) y posee todos los coeficientes altamente significativos. Observando las estadísticas de los residuos, mantiene una media muy cercana a cero, mejora la varianza a 1.0007 y si bien la asimetría se corre hacia la izquierda y crece (-0.29) la kurtosis baja a 3.66 acercándose al valor de la distribución normal.
4.e) Estimación modelo del componente: en cuanto al modelo del componente asimétrico, no mejora la performance del modelo EGARCH(1,1) ya que posee mayores valores del criterio de información Akaike (3.735351).
4.f) Estimación modelo ARCH-M: estimados modelos ARCH-M incluyendo la varianza y la dispersión en la ecuación de la media, ninguno resulta con un coeficiente significativo, por lo cual se descarta esta alternativa.
5.- Elección definitiva del modelo más adecuado para el índice.
El modelo más adecuado para el NASDAQ es el EGARCH(1,1) cuya regresión se encuentra en la Tabla IX.27:
Ecuación de la media:
yt = c + yt-1 +e t
yt = 0.048966 +e t
Ecuación de la varianza:
log(σ2t) = w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) + ß log(σ2t-1)
log(σ2t) = -0.107962 + 0.155496 abs(e t-1 / σt-1 ) – 0.072545 (e t-1 / σt-1 ) + 0.983319 log(σ2t-1)
que es una linealización de :
σ2t = (σ2t-1)ß exp [ w + a abs(e t-1 / σt-1 ) + (e t-1 / σt-1 ) ]
σ2t = (σ2t-1)0.983319 exp [-0.107962+0.155496 abs(e t-1/σt-1)–0.072545 (e t-1/σt-1)]
Observando el histograma y los estadísticos principales de los residuos en la tabla IX.28 vemos que tienen una media muy cercana a cero (-0.005211) y una varianza muy cercana a uno (1.000700) con una asimetría negativa (-0.292969) una kurtosis levemente superior al de una normal (3.661151).
En la tabla IX.29 graficamos la desviación estándar condicional que corresponde al modelo EGARCH(1,1).
Según la ecuación de la media la rentabilidad diaria tanto de corto como de largo plazo, tiene un promedio de 0.049% lo que equivale a un 0.98% mensual (suponiendo 20 ruedas) y a un 12.24% anual (suponiendo 250 ruedas).
Esa rentabilidad diaria de corto plazo tiene una varianza condicional que oscila alrededor del 0.90% diario[7], conformando su valor final mediante la adición del valor de la varianza condicional del período anterior elevado a la 0.983319 más el exponencial del absoluto del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.155496, menos el exponencial del cociente del error del día anterior y la dispersión del día anterior multiplicado por 0.072545.
Este modelo capta el comportamiento asimétrico:
si e t-1 > 0 la varianza condicional es σ2t = (σ2t-1)0.983319 exp [-0.107962 + 0.082951 (e t-1/σt-1)]
si e t-1 < 0 la varianza condicional es σ2t = (σ2t-1)0.983319 exp [-0.107962 + 0.228041 (e t-1/σt-1)]
La varianza no condicional o de largo plazo[8] es de 0.15% diario, lo que equivale a una volatilidad diaria del 0.393178%.
En cuanto a la estabilidad intrínseca, en una primera instancia se cumple ya que el coeficiente GARCH es INFERIOR a la unidad (0.983319). Para confirmarlo efectuamos el test de Wald proponiendo como hipótesis nula que el coeficiente ß sea igual a la unidad, dando por resultado un estadístico F igual a 15.7358 con un p-level de 0.000076 rechazándose en consecuencia la hipótesis nula con un 99,99% de confianza.
La entrada te da la probabilidad y la salida la rentabilidad...
Si te ha gustado este hilo del Foro, ¡compártelo en redes!