Feroz,Feroz escribió:Gratphill
No es que me gusten o dejen de gustar, pero comentar o debatir algo, con frases de a mi ver( piñon fijo) .. es como cuando me compre mi primera pantalla TFT.. que en el apartado/epígrafe de limpieza ponia lo siguiente:
---Limpiese con el producto adecuado ---
Ahora si que das una explicación , auque no sea gráfica
Bien, a mi personalmente no me convence lo que me dices, como a ti tampoco lo que yo comente, pero antes separemos conceptos y que que no tiene nada que ver que yo decodifique el precio o una sandia de 5 kilos, qué quien me conoce sabe bien de lo que hablo..así que comentarios irónicos, no proceden ahora....nos centramos mejor en otra cosa....
Y mi opinión es que yo necesito un muestreo entre 4.000 y 5.000 operaciones y una hibernación de 6 meses a un año por sistema...y que después pasará por un severo WF antes de aplicarlo al mercado real,
Una cosa es que un filtro te reduzca drasticamente la cantidad de operaciones...y otra cosa es usar Better timming.. pero si un periodo X de tiempo me genera 5.800 operaciones y pasa a 5.400 y yo necesito entre 4.000 a 5.000 me basta para saber de que va a cojear en principio.... Es que lo plasmas como si reducieras drasticamente la cantidad de operaciones y no es así.
No hay que confundir sobreoptimizar con usar una metodología basada en Learn Machine.
Y yo también tengo varios sistemas en mi portfolio que son multitask y multiTF adaptados con una Suite de multigestión...
En lo que coincidimos, es que contra más más tiempo lleva un sistema corriendo en real.. está claro que soportará condiciones no previstas/ calculadas, que puedan alterar resultados, pero para eso no hace falta que le pases el MSA.. es algo obvio para el que lleva corriendo sistemas hace años.Pero no tiene que ver con que en vez de tener 5.800 operaciones tengas .5.400...
Respecto a los académicos.... ganan dinero ? supongo que algunos si , y una mayoría no.. asi que como todo el mundo...
Vale, he soltado una afirmación (que no una opinión) que por supuesto es gratuíta. Solo esperaba que a la gente le haga pensar. Pero todo viene de un comentario tuyo de que para reducir el DD es conveniente filtrar las operaciones en un rango de volatilidad, es decir 2 variables nuevas al sistema. Yo, lo único que digo es que con cualquier otro filtro que se te ocurra reduces el DD, sobre todo in sample. Lo del riesgo de sobreoptimizar lo digo porque parece que construyes el sistema con sus variables de entrada y salida y al final dices voy a meterle otro filtro para reducir el DD que me da el sistema, o sea dos nuevas variables. Tampco niego que pueda ser un filtro potente es decir filtrar el ruido sin ajustarse a éste. Haré mis pruebas.
Me dices no confundir sobreoptimizar con utilizar una tecnología basada en learn machine. Yo procuro no hablar de sobreoptimizar sino del riesgo de sobreoptimizar y sí te digo que cuanto más avanzada sea tu tecnología mayores riesgos tendrás de sobreoptimizar, mayores tentaciones tendrás de que te quede una equity completamente recta y con un conveniente grado de inclinación. De todas formas en tu caso veo que sometes tus sistemas a pruebas que eviten este riesgo.
Feroz, lo de 4.500 operaciones aprox. en el training data cómo es posible? Cuantos datos dejas para probar el sistema fuera de muestra?
Saludos