Lecturas olvidadas

Todo sobre el trading en los mercados financieros: funcionamiento, dudas, noticias, etc.
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

Un ejemplo de comercio Diseño de modelo por Richard Olsen (Fundador de OANDA)


Un ejemplo muy interesante de estrategia de trading de FX creado por Richard Olsen (Fundador de OANDA):
Autores: Golub, Glattfelder, Olsen
Título: El motor alfa: diseñando un algoritmo de negociación automatizado

Enlace: https://papers.ssrn.com/sol3/papers.cfm ... id=2951348


Abstracto:


Introducimos un nuevo enfoque para la gestión de inversiones algorítmicas que genera rentables estrategias de negociación automatizadas. Este diseño de modelo comercial es el resultado de un camino de investigación que fue elegido hace casi tres décadas. En ese entonces, se propuso un cambio de paradigma para la definición del tiempo en los mercados financieros, basado en eventos intrínsecos.

Esta definición conduce al descubrimiento de un gran conjunto de leyes de escala.

Se encontró un principio guía adicional incorporando la construcción del modelo comercial en un marco agente-base, inspirado en el estudio de sistemas complejos.

Este nuevo enfoque para diseñar algoritmos de negociación automatizados es un método parsimonioso para construir un nuevo tipo de estrategia de inversión que no sólo genera beneficios, sino que también proporciona liquidez a los mercados financieros y no tiene restricciones a priori sobre la cantidad de activos administrados.


Citas notables del trabajo de investigación académica:


"En resumen, nuestro objetivo es desarrollar modelos comerciales basados ​​en un comportamiento parsimonioso, auto-similar, modular y basado en agentes, diseñado para múltiples horizontes de tiempo y no sólo impulsado por la tendencia después de la acción.El marco intelectual que unifica estos ángulos de ataque es El resultado de este esfuerzo son los sistemas de interacción que son altamente dinámicos, robustos y adaptativos, es decir, un tipo de modelo comercial que refleja la dinámica y compleja naturaleza de los mercados financieros.

Se descarga de GitHub [El motor alfa: Diseño de un código de algoritmo de negociación automatizado.http : //www.gitub.com/AntonVonGolub/Code/blob/m ... .accesible: 2017-01-04.


El Alpha Engine es un algoritmo de modelos de comercio contrarrelojas que proporciona liquidez al abrir una posición cuando los mercados se sobrepasan y gestiona las posiciones en cascada y des-cascada durante la evolución del largo litoral de precios hasta que cierra en un pro. Los bloques de construcción del modelo comercial son:


- una escala de tiempo endógena llamada tiempo intrínseco que disecciona la curva de precios en cambios direccionales y rebasamientos;


- patrones, llamados leyes de escalamiento que tienen varios órdenes de magnitud, proporcionando una relación analítica entre los rebasamientos de precios y los cambios de dirección;


- Agentes comerciales de costa que operan en eventos intrínsecos, defi nidos por el lenguaje basado en eventos;


- un indicador de probabilidad que determina el dimensionamiento de las posiciones, identificando los períodos de actividad del mercado que se desvían del comportamiento normal;


- sesgo de cascada y desconexión diseñado para mitigar la acumulación de grandes cantidades de inventario durante los mercados de tendencias;


- la división de los cambios direccionales y, por consiguiente, los umbrales de sobrepaso en componentes ascendentes y descendentes, es decir, la introducción de umbrales asimétricos.
La entrada te da la probabilidad y la salida la rentabilidad...
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

¿Se manipula el índice VIX?

Viernes, 28 de abril de 2017

Un importante trabajo académico que plantea varias preguntas interesantes sobre el comportamiento sospechoso de VIX Index:

Autores: Griffin, Shams

Título: Manipulación en el VIX?


Enlace: https://westernfinance-portal.org/viewp ... p?n=491456


Abstracto:


En el momento de la liquidación del Índice de Volatilidad VIX, los picos de volumen en las opciones del Índice S & P 500 (SPX), pero sólo en las opciones fuera del dinero que se utilizan para calcular el VIX, y más para las opciones con un mayor y Influencia discontinua en VIX.

Investigamos explicaciones alternativas de negociación coordinada de liquidez y cobertura. Las pruebas, incluidas las que utilizan diferencias en las opciones de compra y venta, el interés abierto en torno a la liquidación y un contrato de volatilidad similar con un procedimiento de liquidación completamente diferente, son incompatibles con estas explicaciones, pero consistentes con la manipulación del mercado.

Las diferencias de tamaño y liquidez entre los mercados SPX y VIX pueden facilitar las grandes desviaciones de liquidación.


Citas notables del trabajo de investigación académica:

"El ajuste de VIX es uno con dos mercados con diferentes liquidez y costos de transacción: el mercado de opciones de SPX con grandes spreads de oferta y demanda que hacen difícil el arbitraje de las desviaciones de precios y el mercado de alto nivel líquido y líquido vinculado a él que traduce Tales desviaciones en un potencial de pago considerable.


El Índice de Volatilidad de Intercambio de Opciones de la Junta de Chicago (VIX) es un índice ampliamente rastreado que mide la volatilidad prospectiva de treinta días, implícita en el mercado, a la que se suele llamar "medidor del miedo".


Anderson, Bondarenko y González-Pérez (2015) demuestran que el índice VIX puede presentar desviaciones de la volatilidad real debido a los criterios de inclusión de las opciones ilíquidas. Los futuros y las opciones en el VIX tienen un volumen relativamente grande.

Cada mes se produce una liquidación cuando el valor de los derivados de VIX se establece igual al valor de VIX calculado a partir de las opciones de SPX. Este valor de liquidación se calcula utilizando la fórmula VIX de una gama completa de opciones de put y call de out-of-the-money (OTM) con varios precios de ejercicio.

Un manipulador necesitaría mover el precio de estas opciones SPX de nivel inferior para influenciar el cálculo de liquidación VIX y el valor de los derivados VIX de nivel superior que expiran. Pero, los manipuladores podrían dejar huellas en los datos.
Varios patrones de datos interesantes emergen:

En primer lugar, en el momento exacto de la liquidación mensual de VIX, se producen picos de volumen de comercio altamente significativos estadísticamente y económicamente en las opciones subyacentes de SPX.


En segundo lugar, el aumento se produce sólo en las opciones SPX OTM que se incluyen en el cálculo de liquidación VIX y no en las opciones SPX excluidas en el dinero (ITM).

Tercero, no hay un pico de volumen para opciones similares de índice S & P 100 (OEX) o SPDR S & P 500 (SPY) que no están relacionadas con los derivados del índice de volatilidad.

Cuarto, el cálculo de VIX es más sensible a los cambios de precio de las opciones de venta de OTM SPX más profundas. Si los comerciantes trataran de manipular el acuerdo de VIX, querrían mover los precios propagando sus operaciones de manera óptima a través de las huelgas de SPX y aumentando el número de operaciones en las opciones de venta de OTM lejanas.

El volumen de negociación en la liquidación sigue este patrón, mientras que normalmente las opciones OTM distantes rara vez se negocian.
En quinto lugar, hay ciertas opciones que exhiben ponderación discontinuamente mayor en el asentamiento, pero son muy similares a otras opciones OTM. Estas opciones, ponderadas más arriba en el cálculo de VIX, exhiben saltos en el volumen negociado en la liquidación. "


Una idea, soy Goldman Sachs y quiero comprar en la tendencia alcista, a mejor precio, pongo ordenes de opciones muy alejadas que no se van a liquidar o el coste de liquidación de un % liquidado compensa el costo, hago subir el vix, la gente se pone corta y Goldman compra a buen precio y deshace el resto de ordenes...Al final sigue siendo un juego con cartas marcadas, mucho cuidado...Ya están diciendo, incluso en el hilo se ha hecho referencia, que ya no es un índice fiable para detectar cambios de sesgo,
La entrada te da la probabilidad y la salida la rentabilidad...
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

Sesgado momentáneo implícito (pscicología)

Por "impulso", se entiende una tendencia sostenida, ya sea conceptual o técnica. Por "sesgado implícito", se entiende una preferencia cognitiva que es rara vez declarada y, a menudo, parcial o totalmente inconsciente.

Comercio minorista: la gran mayoría de los inversores minoristas y los comerciantes están llevando a cabo estrategias discrecionales que se reducen al impulso técnico, ya sea concebido explícitamente ( por ejemplo, ad hoc estrategias de niveles o más arcano análisis técnico) o implícitamente ( por ejemplo, ). Por lo tanto, la gran mayoría de los minoristas muestran este sesgo.

Investigación alfa :

La gran parte de la búsqueda de alfa se prueba a través de backtests históricos que abarcan muchos años, incluyendo invariablemente regímenes de tendencias y regímenes de alcance.

Invariablemente, la mayoría de las estrategias alfa y beta se desempeñan mejor en los mercados de tendencia impulsados ​​por el impulso, de los cuales los últimos 30 años han sido en su mayoría;
Las estrategias que tienen un buen desempeño en los mercados de alcance a menudo son sensibles al régimen, y el comercio diferente a través de los regímenes.

Una cuidadosa revisión de casi todas las estrategias tácticas y dinámicas de asignación de activos populares exhibe esto (junto con muchos que exhiben un sesgo omnipresente, no declarado de la carrera de bonos de 30 años). Por lo tanto, la investigación alfa a menudo muestra este sesgo.


Momentum se origina de uno de los aspectos más influyentes de la psicología humana: sesgo de confirmación. En pocas palabras, los seres humanos "les gusta tener razón": disfrutar y encontrar consuelo en escribir y leer información que confirme sus creencias o hipótesis existentes (científicamente atribuible a los efectos de la dopamina de estímulo-respuesta).

Por lo tanto, los mercados de gama limitada son frustrantes para muchas personas porque forman opiniones concebidas como apuestas direccionales. Para ellos, su tendencia al impulso genera un dolor significativo en mercados como este, lo que los hace desconectar . Esto también se observa en los fondos de cobertura, que en conjunto tienen un historial relativamente pobre en los mercados de alcance limitado.


En contraste, muchas computadoras encuentran placer en los mercados que generalmente desafían la predicción direccional no cuantitativa de los comerciantes que tienen este psicología sesgada, de querer tener razón y viene la decepción, teniendo en cuenta lo pobre de sus análisis y la falta de pruebas más rigurosas.
La entrada te da la probabilidad y la salida la rentabilidad...
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

Fat-Tails Everywhere incluso si la volatilidad es baja
Mark Rzepczynski | 3 de mayo de 2017 | Distribución de cola gorda

Estaba revisando una interesante pieza de investigación de Covenant Capital sobre kurtosis a través de diferentes activos negociados en los mercados de futuros.

Ofrecen una herramienta de hoja de cálculo que puede permitir a cualquier persona para encontrar el número de fat-tailed ocurrencias relativas a una distribución normal. Los datos muestran que hay colas de grasa en todas partes de todas las clases de activos. No vivimos en un mundo de distribución normal. Esto no debería ser una sorpresa para la mayoría de los inversores, pero la cuestión importante es ¿cómo funciona efectivamente en este mundo no normal? O, más precisamente, cómo se aprovechan de este conocimiento.

Hemos sido creyentes en el concepto de estrategias de inversión que se dividen en dos categorías basadas en la convergencia del mercado y la divergencia. Algunas estrategias de inversión son más capaces de explotar el hecho de que el mundo no es normal porque se comportarán mejor durante los extremos independientemente del horizonte temporal.


Si usted vive en un mundo no normal, tendrá que encontrar estrategias que harán bien si hay un evento de cola. Nassim Taleb dirá que usted tiene que tener algunos sistemas "anti-frágiles". Usted sólo podría comprar straddles para aprovechar las alas, pero usted paga una prima mientras espera para estos eventos divergentes. Otra alternativa es invertir en estrategias que puedan explotar grandes divergencias. El más simple de estos podría ser la tendencia de seguimiento.
Inherente en estas estrategias divergentes son su éxito basado en dislocaciones. Si hay una tendencia que le lleva a un extremo positivo, el seguidor de la tendencia va a comprar y mantener, siempre y cuando ese mercado sigue moviéndose en la misma dirección. No hay discusión sobre si esto es posible o no basado en los fundamentos. No hay dudas. Las estrategias harán más dinero cuanto más lejos un mercado se aleje de la norma. Teniendo en cuenta que no hay visión sobre la normalidad, la estrategia será mejor cuando hay eventos más extremos. Esta estrategia es "anti-frágil".


Las implicaciones de la no-normalidad van más allá de sólo mirar las estrategias. La gestión de riesgos basada en la normalidad es un juego de perdedor. El inversionista esperará eventos limitados de la cola que ocurrirán realmente con más frecuencia y serán más grandes que esperados. El mercado ha estado avanzando hacia enfoques más sofisticados para el riesgo de cola, pero éstos siguen siendo la excepción y no la norma. La recompensa de la inversión y el riesgo están en la cola si usted mira de cerca.
La entrada te da la probabilidad y la salida la rentabilidad...
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

Retomando el tema del experimento que había planteado, he desarrollado ya las plantillas para una estrategia, es bastante tedioso ya que al generar 500.000 precios aleatorios por ensayo, he tenido que hacer 5 plantillas para llegar al resultado final.

En las primeras 5 simulaciones, (a las simulaciones aleatorias les he puesto un filtro contabilizado que como mínimo tienen que tener un 50% de sesgo alcista en el histórico que da, porque hay veces que sale un 90% bajista, y los precios de los activos en los últimos 15 años suelen estar un 65% alcistas en el sesgo y un 35% bajista, contando materias primas, ya que los índices y acciones el sesgo alcista es muy superior.

Daré el resultado conjunto de las 5 simulaciones También hay que decir que esta estrategia la tengo contemplada para eventos de muy alta fiabilidad y bajos ratios W/L, y tiene un factor de oportunidad muy pequeño, del orden de 2 a 5 operaciones al año dependiendo volatilidad.

Una vez generadas las primeras 5 simulaciones, hay un problema ó un parámetro que he tenido que modificar, ya que no es representativo por un problema de volatilidad, pero eso lo trataremos el próximo día, la modificación y el resultado después de la modificación.

Ahora expongo los resultados de la simulación tal como están contemplados en mi estrategia.
Última edición por agmageton el 08 Jun 2017 14:53, editado 1 vez en total.
La entrada te da la probabilidad y la salida la rentabilidad...

Avatar de Usuario
X-Trader
Administrador
Mensajes: 12798
Registrado: 06 Sep 2004 10:18
Contactar:

Re: Lecturas olvidadas

Mensaje por X-Trader »

Hola agmageton, interesante, ¿al final utilizaste el script que te comenté?

Por otro lado, ¿por qué salen rentabilidades negativas en todas las simulaciones? ¿Es casualidad o por algún otro motivo?

Saludos,
X-Trader
"Los sistemas de trading pueden funcionar en ciertas condiciones de mercado todo el tiempo, en todas las condiciones de mercado en algún momento del tiempo, pero nunca en todas las condiciones de mercado todo el tiempo."
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

Hola Alberto, al final he utilizado los aleatorios del Excel, porque los veo menos uniformes que los de fractales, los de fractales dibujan tendencias más idílicas, no se producen con tanta frecuencia en activos normales , por otro lado los aleatorios del Excel, son más salvajes pero representan mejor tendencias buenas con ruido, aunque a veces el ruido es muy potente como en la simulación 4º.

Si te fijas, las rentabilidades si son positivas en la mayoría de las 5 simulaciones (4 a 1), pero eso no es lo importante, lo importante en este momento y con tan solo 5 simulaciones es identificar el error de predicción que tienen siendo el timing bueno. (salta el stop, siendo el timing bueno de la base del sesgo alcista).

El próximo día hablaré de la modificación de 1 parámetro que tiene que ver con el error de predicción del timing (debido al fenómeno de la volatilidad no representada), y para que se usan este tipos de sistemas, que llamaría muy robustos y de poca oportunidad.

saludos.
Última edición por agmageton el 08 Jun 2017 14:53, editado 1 vez en total.
La entrada te da la probabilidad y la salida la rentabilidad...
Avatar de Usuario
X-Trader
Administrador
Mensajes: 12798
Registrado: 06 Sep 2004 10:18
Contactar:

Re: Lecturas olvidadas

Mensaje por X-Trader »

agmageton escribió:Si te fijas, las rentabilidades si son positivas en la mayoría de las 5 simulaciones (4 a 1), pero eso no es lo importante, lo importante en este momento y con tan solo 5 simulaciones es identificar el error de predicción que tienen siendo el timing bueno. (salta el stop, siendo el timing bueno de la base del sesgo alcista).
Aps perdón, había mirado el MaxDD en lugar de la rentabilidad. Muy interesante en cualquier caso, ¿estas probando estrategias aleatorias o algunas estrategias concretas creadas por ti?

Saludos,
X-Trader
"Los sistemas de trading pueden funcionar en ciertas condiciones de mercado todo el tiempo, en todas las condiciones de mercado en algún momento del tiempo, pero nunca en todas las condiciones de mercado todo el tiempo."
Gratphil
Mensajes: 473
Registrado: 08 Jun 2013 12:24

Re: Lecturas olvidadas

Mensaje por Gratphil »

Buenos días,

Agma, la verdad es que no entiendo la finalidad del trabajo que has hecho. Has utilizado valores aleatorios, pero supongo que le has tenido que dar un sesgo alcista a los activos y que precisamente los sistemas solo toman posiciones largas, con lo que lo extraño es que tuviesen rentabilidades negativas.

En todo caso, me gustaría que nos contases cuales han sido tus conclusiones.

Saludos
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

Alberto, la estrategia es propia, contaré un poco en que consiste a nivel estratégico para mi portfolio, es una estrategia que sirve de confortabilidad a otras estrategias, esta estrategia esta diseñada, para que en los comienzos del sesgo alcista, tome posiciones de forma ventajosa, con altos ratios de fiabilidad y bajos ratios W/L.
De tal forma que una vez conseguido el objetivo y dependiendo de la propia naturaleza de las otras estrategias se implementen, las otras estrategias sólo se implementan un vez esta estrategia ha conseguido su objetivo, sino simplemente no actúan. De este modo las estrategias de mayor alcancen que intentan coger un desarrollo más potente del sesgo mediante tendencialidad, tienen mejor confortabilidad, desde el portfolio.

Pongo un ejemplo del gas natural para que veas como actúa (gráfico 1), normalizado a precio %, desde que la señal de timing se activa y la operativa de esta estrategia en su funcionamiento, a partir de la consecución del objetivo (punto azul) entrarían las otras estrategias de mayor alcance diseñadas,(no están representadas en el gráfico), siempre y cuando cumplan sus reglas.
Última edición por agmageton el 08 Jun 2017 14:53, editado 1 vez en total.
La entrada te da la probabilidad y la salida la rentabilidad...
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

Gratphil escribió:Buenos días,

Agma, la verdad es que no entiendo la finalidad del trabajo que has hecho. Has utilizado valores aleatorios, pero supongo que le has tenido que dar un sesgo alcista a los activos y que precisamente los sistemas solo toman posiciones largas, con lo que lo extraño es que tuviesen rentabilidades negativas.

En todo caso, me gustaría que nos contases cuales han sido tus conclusiones.

Saludos
Grat no te me adelantes amigo :-D , con 5 simulaciones, todavía no voy a hacer conclusiones, voy a esperar a tener bastantes más para de alguna forma poder argumentar mejor, aunque hay cosas en estas 5 simulaciones que ya he visto evidentes, y no creo que tenga mucha mayor variación haciendo 100, pero esperaremos un poco a que trabaje más simulaciones.

Lo de que dices de que como tienen sesgo alcista han de ser rentabilidades positivas, mira te explico el funcionamiento del experimento, defino cuantitativamente un sesgo para todas las simulaciones, (es como si fuera tendencia alcista o tendencia bajista, lógicamente en una tendencia bajista no me voy a pone a operar al alza una construcción de cartera alcista) te pongo un ejemplo de la constitución del sesgo en el ejemplo SESGO 2º simulación, en el gráfico.

Una vez tienes el sesgo (grafico SESGO 2º), se pone el funcionamiento de la estrategia, en este caso la simulación 2º y 5º se salva un poco del resto, consigue una buena fiabilidad con ratios w/L >1. (grafico operativo SIMULACIÓN 2º).

Por una lado Grat, tu puedes poner en una tendencia alcista, una estrategia con ratio w/l 1al alza y comprobar la robustez del sistema en la predicción. Evidentemente si tu pones una relación 1:1 y la fiabilidad es mucho mayor que el 50%, tienes un tipo de señal fuerte, que es más fuerte que si tendiese a la aletoriedad. Claro que el sesgo cuenta, porque va a ir en favor de una mayor probabilidad, de igual modo que si detectas una tendencia alcista, tendrás mayores posibilidades de tener una estrategia al alza. Pero lo importante es la robustez de la señal.

El objetivo es de poner hacer una serie de comprobaciones, en el sentido de la robustez, el factor de error en la predicción, y si esas conclusiones pueden llegar a hacer cambios en mis sistemas, aunque sean leves modificaciones que no se han representado. Y ya he visto un par de detalles interesantes, pero permíteme darme un poco más de tiempo para desarrollarlo mejor, lo próximo que hare en estas simulaciones es determinar el grado de error del timing y una corrección que debe ser clave para el resto de simulaciones.

un abrazo.
Última edición por agmageton el 08 Jun 2017 14:52, editado 1 vez en total.
La entrada te da la probabilidad y la salida la rentabilidad...
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

Continuando con la investigación, he hecho una optimización debido al factor de error que produce, no en la predicción del timing en sí, que esta es inamovible, las reglas no se cambian, son correctas, pero si en los parámetros de stop y objetivos, he podido ver que los resultados de las simulaciones tal como funcionan en los activos reales, tienen un factor de ruido no detectado en los activos reales.

Puede ser obvio al tratarse de precios totalmente aleatorios y que su incidencia no detecte conductas psicológicas de los intervinientes en ciertos niveles o quizás tenga en los activos reales un tipo de sesgo no determinado, todavía es pronto para aventurar conclusiones, de igual modo esta optimización que como resultado
cosecha unos resultados mucho mejores y en línea con los activos reales, queda por confirmar en próximas simulaciones.

La optimización se ha hecho a groso, sin pararnos a examinar que combinación es mejor simulación por simulación, ya que es perder el tiempo, cuando el universo a investigar todavía es prematura en los ensayos. Esto se hará cuando el número de ensayos sea lo suficientemente representativo.

De todos modos aun siendo prematura la investigación, me gustaría dejar constancia de algunas conclusiones, que aunque puedan ser obvias, también pueden ser prematuras hasta la conclusión del experimento, pero de alguna forma confirma mi experiencia, a falta como repito de una mayor envergadura estadística.



1º el riesgo interno de una operación es un punto clave de robustez en el paradigma de la gestión del ruido, siempre y cuando ese aumento de riesgo se represente como una cualidad cualitativa y cuantitativa en el resultado general. De este modo cuando el aumento del riesgo represente una cualidad operativa, mucho más robusto será el sistema. (en este caso coincido con el estudio de Marcos Lopez del Prado, que un mayor riesgo por utilidad, representa una cualidad de resultados generales evidente siempre y cuando el edge/timing/señal produzca robustez.

Esto es importante de considerar, porque por poner mayor stop no va a ser mejor un sistema que tenga un edge débil, no va a representar una cualidad en el resultado final.

Por otro lado, la probabilidad de reducir el ruido con técnica variable (mayor número de variables ante un señal), es un entorno clave, para tener una mayor varianza en el resultado, debido al aumento del exponente en el número de variables y la determinación de debilidad de las mismas. Al final el resultado es uno, y la incidencia de mayor número de variables incidirá de igual modo en la variabilidad del resultado. Esto es un hecho que ya esta comprobado, pero también es obvio de considerar y dejar constancia.


2º factor de probabilidad sobre eventos vs curva de precios (históricos), al considerar un evento no dependiente de la totalidad de la curva del precio, lo que estamos haciendo es restringir el radio de probabilidad y por consiguiente el número de variables que van a intervenir, el diseño de un evento, tiene una particularidad, es un proceso discreto , que se puede ensayar desde un prisma más objetivo, lo que incide de forma clara en un menor acople a una curva de precio general o histórico, lo que me lleva a pensar que es un proceso de mayor robustez, teniendo en cuenta que la mayoría de sistemas tienen esta problemática más indefinida.


3º El segmentar procesos de mayor incidencia en nuestras decisiones, como pueden ser la volatilidad, el sesgo, la tendencialidad o factores que incidan en una mayor probabilidad de suceso para nuestros intereses, es un estudio que radica más en un esquema estratégico de nuestra toma de decisiones, dicho de otro modo, poner a nuestro alcance unas herramientas que tengan como objetivo, ayudarnos a una mejor toma de decisiones como un factor estratégico fuera de la operativa va a incidir de forma clara a nuestra operativa, estamos poniendo de nuestra parte una visión más clara de porque operar un sistema o porque no operarlo o que consecuencias positivas tenemos a favor a la hora de operarlo o en contra como reflexión general.

Alguna cosa más quiero comentar al respecto (sobretodo por la experiencia de las simulaciones aleatorias que me obligarán a tomar cuenta de situación no observadas, como el número máximo de eventos fallidos, que más adelante comentaré), pero voy a esperar a acabar este tipo de investigación personal, por así llamarlo, aunque pueda parecer pretencioso y pueda haber algún tipo de error no descrito y desconocido en la investigación, quizás el paso de los ensayos pueda ratificar más mis conclusiones o simplemente no ser concluyentes, esperaremos entonces.

Pongo el gráfico de la optimización gruesa que se ha efectuado en las 5 simulaciones, donde se ha modificado 2 parámetros, el stop y el objetivo, hemos subido el stop un 25% sobre los parámetros reales de activos, y hemos modificado el objetivo en dos fases un 20% (cuenta con 3 fases el objetivo por volatilidad, cosa que no se representa bien en los precios aleatorios). Este aumento de stop viene determinado por un algoritmo de confirmación de rotura, que en los precios reales funciona mucho mejor que en los aleatorios porque siguen caminos de estructura diferentes, ante la señal del timing. No he podido tocar el objetivo en la misma proporción porque en este caso da más problemas y si representa mejor la realidad, con lo que han mejorado todos los ratios, menos el del ratio W/L que ha bajado en más de un 16% porcentualmente hablando de un 1.07 w/L de media en las simulaciones normales, a un 0.89 en las simulaciones optimizadas. por contra hemos pasado a una fiabilidad porcentual mayor de un 50% respectivamente, como consecuencia unos mejores ratios generales.
La entrada te da la probabilidad y la salida la rentabilidad...
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

Después de realizar varias pruebas más, doy por concluido el experimento de forma satisfactoria, la tendencia de resultados sigue siendo positiva y en línea con lo expuesto anteriormente.

En un principio, la idea del experimento era ver si tenía algún sentido, exponer esta estrategia a reglas más científicas, además de poder de alguna manera inferir con más simulaciones en observaciones o un ajuste de parámetros más óptimas desde un punto de vista sin ninguna ventaja de los intervinientes del mercado.


Respecto al método científico, y sus tres pilares principales para considerarse el estudio de ámbito más científico y un proceso más quant, tendríamos;

Los experimentos deben ser reproducibles independientemente:

En este caso hemos podido reproducir en varias simulaciones independientes a los históricos, el experimento, por lo que doy por buena esta regla.

Debe descubrir leyes positivas inmutables:

El hecho de agrupar los precios en un sentido contextualizado y este ser tratado sobre unas reglas que producen unos resultados positivos en todas las simulaciones, en unas más que otras debido a la distribución de los precios, me hace pensar que también cumple este propósito, a menos que los precios no se movieran agrupados en desviaciones.

Las predicciones deben ser exactas:

En este punto, sí se debería matizar, exacto no es, hay un nivel de horquillas dentro de la predicción insalvable, incluso he tenido que modificar en las simulaciones aleatorias los parámetros de stop y objetivos, para que tuvieran un comportamiento mucho mejor en el general de las simulaciones. Dando más peso al stop y subiendo en menor proporción el objetivo. Con lo que la predicción tiene un nivel de confianza muy alto, pero no es exacto y tiene un grado de error pequeño pero destacable, quizás podría escudarme en que la exactitud en este caso viene definido por un grado de error pequeño comparativamente, y que esa predicción también tiene una horquilla insalvable obligatorio como he mencionado anteriormente.

Tampoco creo que se refiera de una forma literal en que si la predicción te dice en 1000 puntos, deba de ser los 1000 puntos exactos…esto sería realmente mágico de conseguir y muy alejada de la práctica real. Aunque este punto debido a estos matices lo dejaría en un neutral positivo, por lo que si estas matizaciones no tuvieran ningún valor, definitivamente no lo podríamos considerar de este modo, pero es que en el mundo real, esto ocurre, no hay nada seguro. Por lo tanto algo que ya sabíamos, esto no es una ciencia, aunque si tratamos el modelo sobre pilares más científicos de comprobación.



Llegados a este punto, debo decir a nivel personal, que quizás estaba errado al considerar mi edge particular de esta estrategia, en factores dependientes de los intervinientes del mercado, donde se suscitan la mayoría de anomalías que podemos explotar debido a la interacción de los participantes y descubrimiento de patrones o comportamientos que podamos sacar provecho.

Esto me lleva a pensar en ese error de entendimiento, y me lleva a otro tipo de conclusiones, si las simulaciones aleatorias han tenido un comportamiento en líneas generales similar a los precios reales, sólo puede ser debido a factores en común, como son la contextualización de escenarios como son los sesgos y procesos tendenciales, con base a la naturaleza del movimiento, modelizado en eventos independientes, y con componente extremo. Quizás todos estos hechos estén presentes tanto en precios reales como precios generados aleatoriamente, sino fuera así, tampoco tendría sentido que los resultados siguieran tendencias similares.

Saludos.
La entrada te da la probabilidad y la salida la rentabilidad...
Hermess
Mensajes: 1532
Registrado: 02 Abr 2015 14:32

Re: Lecturas olvidadas

Mensaje por Hermess »

Holas :D

No entiendo que las pruebas te den resultados similares al mercado real

El factor de persistencia direccional no es similar ni de lejos entre el mercado real y gráficos generados aleatoriamente a no ser que se creen con un sesgo y si es así dejan de ser aleatorios

El factor de asimetría en cuanto a desviación típica en ausencia de persistencia direccional es un caos total

El timeframe operativo para eliminar ruido y los ratios R/B de trabajo influyen mucho en las pruebas. En mercado real si se busca movimientos tendenciales en timeframes altos se buscan ratios mayores de 1:3 imposible de conseguir sin persistencia direccional

El factor ESTRUCTURA en movimientos direccionales en mercado real es modelable en parámetros de mínimos -máximos

El volumen y la volatilidad en mercado real siguen pautas repetitivas identificables, en graficas generadas aleatoriamente.....

Los fundamentales pesan mucho en mercado real en timeframes altos

No entiendo que quieres conseguir con esas pruebas por muchas leyes científicas que incluyas

saludos
El comercio diario es el juego del diablo. Te prometieron una olla de oro pero terminarás perdiendo tu alma. :-D
Avatar de Usuario
agmageton
Mensajes: 3596
Registrado: 30 Ene 2008 11:32

Re: Lecturas olvidadas

Mensaje por agmageton »

Hermes todo lo que dices es razonable y cierto, yo tampoco entiendo bien a que es debido, lo que los números están sesgados que importa sale de una simulación que no es real, quiero decir lo producen números aleatorios y no precios reales.

Respecto a los ratios 1:3, este sistema concreto lo que busca es una protección a sistemas de este tipo de ratios, por eso deben tener tasas altas de acierto y w/L>1, aunque sea por poco.

Pero profundizando más en este enfoque y extrayendo información de como los big datas de alta frecuencia funcionan, añadiré lo siguiente;

"los precios de los instrumentos financieros están caracterizado por un movimiento Ornstein-Uhlenbeck ((En matemáticas, el proceso de Ornstein-Uhlenbeck (llamado así por Leonard Ornstein y George Eugene Uhlenbeck ) es un proceso estocástico que, a grandes rasgos, describe la velocidad de una partícula browniana masiva bajo la influencia de la fricción. El proceso es un proceso Gauss-Markov estacionario (lo que significa que es un proceso Gaussiano y Markoviano ), y es el único proceso no trivial que satisface estas tres condiciones, hasta permitir transformaciones lineales de las variables de espacio y tiempo., debido a este hecho, podemos inferir rutas de datos (no históricos), para satisfacer una parametralización de naturaleza de movimiento, dicho de otro modo el movimiento más probable para una serie de eventos se ensayan mediante cien miles de rutas, dando como resultado los mejores parámetros para un evento discreto. Donde la rapidez de ejecución acrecienta la ventaja probable, en un mejor timing de todo el proceso. Al final como las conductas cambian y la naturaleza del movimiento no, es más fácil hacer este tipo de estudios para asignar a los sistemas un mayor grado de robustez, dentro de un ensayo constante de eventos, donde la teoría de la probabilidad y la teoría de juegos tienen un papel totalmente determinante."

Supongo que salvando la distancia, ya que yo he hecho unas 30 simulaciones y estos hacen millones de simulaciones, al final dentro de un evento discreto que solo tiene en cuenta un movimiento de extremo probable, puede que este sea su significado, aunque las diferencias sean evidentes, el proceso general guarde una serie de informaciones que me resultan muy útiles en la aplicabilidad.

También me gustaría preguntar a Alberto, si es posible este texto que he extraído de un alta frecuencia, especialista en big data., donde buscan el proceso de mejores parámetros dentro de millones de rutas de datos para identificar dentro del evento la ruta más robusta. Si esto fuera así entonces si cobraría sentido el experimento, aunque hayan diferencias evidentes.

pd; esta claro que un alta frecuencia o un big data, lo hace referenciado a arbitrajes, digamos que esa es la alimentación real de los datos que son analizados desde la perspectiva de millones de ensayos previos, y yo lo hago a sesgos que producen tendencia. Esta claro que sin algo que sume una ventaja, esto sería totalmente estéril, pero siempre me acuerdo de una palabras de Simons que decía para un particular, mirar siempre donde esta la tendencia, a partir de ahí...

saludos.
La entrada te da la probabilidad y la salida la rentabilidad...
Si te ha gustado este hilo del Foro, ¡compártelo en redes!


Responder

Volver a “Trading en General”