Buenas noches,
Soy Alejandro soy programador y llevo unos meses investigando el tema del trading algorítmico. Ahora mismo me estoy enfocando sobre todo a probar algoritmos de aprendizaje por refuerzo con Python, me gustaría poder intercambiar ideas con otras personas que estén probando este tipo de algoritmos.
Saludos a todos!
Presentación
-
- Mensajes: 2
- Registrado: 30 Jun 2022 17:42
Re: Presentación
Hola.
Yo creo q el aprendizaje por refuerzo es una de las estrategias más prometedoras actualmente. Yo hice algunos experimentos q describo aquí por si te puede servir.
Yo tuve problemas al llevarlo a operativa en tiempo real. Mi consejo es hacer algo más simple.
Ya nos contarás q tal tu!
Un saludo
Gloria
Yo creo q el aprendizaje por refuerzo es una de las estrategias más prometedoras actualmente. Yo hice algunos experimentos q describo aquí por si te puede servir.
Yo tuve problemas al llevarlo a operativa en tiempo real. Mi consejo es hacer algo más simple.
Ya nos contarás q tal tu!
Un saludo
Gloria
Re: Presentación
Hola Gloria,
Muchas gracias por responder con este video, me ha encantado tu presentación, me hubiera venido bien haberla visto unas semanas antes ya que me hubiera ahorrado bastante tiempo de búsquedas inicales.
De momento lo que he podido crear es un entorno en Gymnasium (la versión actualizada de Gym) al cual para simplificar el entrenamiento le he pasado pocas features y una ventana de 1 , esas features tenían que llevar implícito la noción de que ha pasado velas atrás, así que he probado con por ejemplo rsi, vwap y pendientes de medias móviles. Quería que las observaciones fueran sencillas para que el algoritmo se basara totalmente en las features en cuestión y no se diluyera con otras menos relevantes.
Para el tema de la recompensa he probado tanto al final de cada episodio, como a cada vela. Es verdad que al haber tantos timesteps hay que ir guiando al modelo por el camino correcto, pero por pruebas que había hecho con algún juego que están basados en recompensa final, también he querido probar al finalizar el episodio.
De momento con mis pruebas no he sacado ninguna conclusión provechosa.
La herramienta parece muy potente, el tema está en saber que features poner, si poner directamente un indicador, una estrategía como habéis hecho ustedes, o quizás otra cosa, y la recompensa tiene también como tu dices una importancia fundamental, me parece muy atractivo buscar recompensas que minimicen por ejemplo el drawdown de otra estrategia. Hay tantas variables que se pueden modificar, hay tantos planteamientos diferentes que al final esta herramienta puede arrojar resultados muy diferentes.
También veo muy importante el tema de la capacidad de computo, en vuestro caso quizás hubierais podido obtener resultados más esclarecedores.
Yo por mi encantado de colaborar en cualquier proyecto de esta índole.
Saludos,
Alejandro.
Muchas gracias por responder con este video, me ha encantado tu presentación, me hubiera venido bien haberla visto unas semanas antes ya que me hubiera ahorrado bastante tiempo de búsquedas inicales.
De momento lo que he podido crear es un entorno en Gymnasium (la versión actualizada de Gym) al cual para simplificar el entrenamiento le he pasado pocas features y una ventana de 1 , esas features tenían que llevar implícito la noción de que ha pasado velas atrás, así que he probado con por ejemplo rsi, vwap y pendientes de medias móviles. Quería que las observaciones fueran sencillas para que el algoritmo se basara totalmente en las features en cuestión y no se diluyera con otras menos relevantes.
Para el tema de la recompensa he probado tanto al final de cada episodio, como a cada vela. Es verdad que al haber tantos timesteps hay que ir guiando al modelo por el camino correcto, pero por pruebas que había hecho con algún juego que están basados en recompensa final, también he querido probar al finalizar el episodio.
De momento con mis pruebas no he sacado ninguna conclusión provechosa.
La herramienta parece muy potente, el tema está en saber que features poner, si poner directamente un indicador, una estrategía como habéis hecho ustedes, o quizás otra cosa, y la recompensa tiene también como tu dices una importancia fundamental, me parece muy atractivo buscar recompensas que minimicen por ejemplo el drawdown de otra estrategia. Hay tantas variables que se pueden modificar, hay tantos planteamientos diferentes que al final esta herramienta puede arrojar resultados muy diferentes.
También veo muy importante el tema de la capacidad de computo, en vuestro caso quizás hubierais podido obtener resultados más esclarecedores.
Yo por mi encantado de colaborar en cualquier proyecto de esta índole.
Saludos,
Alejandro.
Re: Presentación
Muchas gracias por el video. De mucha utilidad.Gloria Pérez escribió: 10 Ago 2023 08:51 Hola.
Yo creo q el aprendizaje por refuerzo es una de las estrategias más prometedoras actualmente. Yo hice algunos experimentos q describo aquí por si te puede servir.
Yo tuve problemas al llevarlo a operativa en tiempo real. Mi consejo es hacer algo más simple.
Ya nos contarás q tal tu!
Un saludo
Gloria
Re: Presentación
Hola. Soy informático. Hice el TFG de inteligencia artificial con algoritmos tales como aprendizaje por refuerzo y técnicas bayesianas. Estoy interesado en dicho tema, y quiero avanzar en el estudio de dichas tecnicas de IA aplicadas al tradingarchocron escribió: 09 Ago 2023 22:51 Buenas noches,
Soy Alejandro soy programador y llevo unos meses investigando el tema del trading algorítmico. Ahora mismo me estoy enfocando sobre todo a probar algoritmos de aprendizaje por refuerzo con Python, me gustaría poder intercambiar ideas con otras personas que estén probando este tipo de algoritmos.
Saludos a todos!
Si te ha gustado este hilo del Foro, ¡compártelo en redes!