Entrevista a Alejandro Rodríguez (Miraltabank)

Artículo patrocinado por BisonTrade. Tu broker español de confianza.

Bisontrade Banner

Sin lugar a duda, la penetración de los métodos cuantitativos en el ámbito de los operadores institucionales es ya un hecho innegable desde hace bastantes años. Lejos quedan ya aquellos años en los que en Wall Street se contrataban economistas, siendo un panorama actualmente dominado por matemáticos, estadísticos, ingenieros y expertos en informática.

Sin embargo, no son muchos los traders que trabajan en este campo y que deseen contar desde su privilegiado mirador cómo ven los mercados y cómo es su día a día. Por este motivo, es una suerte y un privilegio contar con Alejandro Rodríguez de Miraltabank para esta entrevista en X-Trader.net.

X-Trader (XT): Hola Alejandro, ante todo, muchísimas gracias por concedernos esta entrevista, generalmente no tenemos a muchos traders quant institucionales que quieran contar al gran público como es su trabajo.

Lo primero todo, la presentación de rigor. ¿Quién es Alejandro Rodríguez y por qué te da por meterte en esto de los mercados financieros?

Alejandro Rodríguez (AR): Soy el responsable de Análisis e Investigación Cuantitativa en Miraltabank. Mi equipo tiene el mandato de proporcionar soluciones estadístico-matemático computacionales en el apoyo a la toma de decisión y generación de negocio para las diferentes divisiones de la entidad: el Banco, la Gestora de Fondos de Inversión y el Broker Online Bisontrade.

Mi interés por desarrollar una carrera profesional en los mercados financieros comienza desde muy niño, pues mi padre desarrolló una carrera exitosa como trader y gestor de carteras, y mi abuelo también como dealer de un banco. Esta exposición continúa a base de conversaciones, anécdotas y dinámicas emocionales hizo que quisiera desarrollar mi carrera en este ámbito.

Sin embargo, mi pasión por las matemáticas, la modelización y la resolución de problemas me hizo decantarme por una trayectoria diferente a la de ellos con un enfoque puramente cuantitativo. Es por ello que decidí estudiar una ingeniería superior y posteriores Masters en finanzas cuantitativas, estadística computacional, inteligencia artificial y un doctorado.

Por otro lado, he desarrollado una carrera desde el año 2012 en banca de inversión en París, Londres y Madrid, combinándola con el mundo académico, con la intención de adquirir cada vez más un conocimiento experto y científico en el ámbito del análisis cuantitativo.

XT: Seguramente muchos de nuestros lectores se pregunten cómo es el día a día de un trader quant institucional. ¿Cuánto tiempo dedicas a desarrollar y a supervisar la ejecución de las estrategias? ¿Cómo son los algoritmos que utilizas para operar en los mercados?

AR: Nuestro equipo tiene dos facetas diferenciadas, el análisis y la investigación cuantitativa.

En la faceta de análisis se engloban el desarrollo de:

  • Soluciones para la mejora en la toma de decisión en las distintas áreas de negocio.
  • Métricas para medir y monitorizar el rendimiento del negocio y poder tomar decisiones futuras.
  • Soluciones para clientes en materia de análisis de mercado, riesgos y trading.
  • Optimización del flujo de datos de la compañía y herramientas de análisis para riesgos, pricing, reporting y generación de negocio.

Otra parte de nuestro mandato consiste en desarrollo e implementación de estrategias cuantitativas, las cuales históricamente se han basado en estrategias algorítmicas en base a patrones sobre series temporales univariantes, estrategias probabilísticas basadas en inferir la trayectoria de los activos financieros en base a el análisis del mercado de derivados, y estrategias de arbitraje estadístico. Estas estrategias se han implementado en formato prop trading con la intención de ofrecérselas a los clientes.

Por otro lado, en la faceta de investigación, nos enfocamos en el desarrollo de nuevas técnicas de inteligencia artificial, estadística computacional y matemática financiera. El objetivo inicial es el de aportar valor añadido tanto en resultados experimentales como teóricos al estado del arte, corroborado por medio de publicaciones en revistas científicas para avalar dichas aportaciones.

A partir de aquí, el objetivo es el de ofrecer estas soluciones a las diferentes áreas de negocio de Miraltabank y a clientes. Nuestra investigación se centra en soluciones para:

  • La gestión de riesgos financieros: riesgo de mercado, de crédito, de liquidez.
  • Nuevas metodologías para diversificación de carteras.
  • Ejecución optima de operaciones en mercado y manejo de order book.
  • Predicción y clasificación de series temporales financieras.
  • Causalidad aplicada a riesgos e inversiones; inteligencia artificial continua y tratamiento de no estacionariedad de los mercados financieros.
  • Gestión de datos alternativos para la toma de decisiones.

Para la faceta de investigación, se requiere de bastante tiempo fuera de horario de trabajo, incluido parte de los fines de semana, y algunas noches. Primero porque los experimentos requieren una gestión 24/7 en máquinas virtuales donde cada cierto tiempo hay que monitorizar los resultados. Segundo, porque el trabajo de investigación requiere de mucho tiempo para lectura, síntesis, creación e implementación de ideas originales, coding, testing, peer-review, etc., además de que el flujo creativo requiere su tiempo y no atiende a horarios.

La faceta de análisis cuantitativo engloba la mayor parte del horario de oficina (8 horas diarias), en donde se pueden diferenciar a diario:

  • Tareas de desarrollo en código con lenguajes como Python, MySQL, o programación web para la gestión y desarrollo continuo de aplicaciones cuantitativas creadas para nuestros clientes (herramientas de análisis, riesgos y trading para el bróker, estrategias cuantitativas)
  • Tareas de optimización y diseño de la arquitectura de datos de la compañía, donde se tiene que diseñar e implementar soluciones en Python, MySQL y PowerBI para la gestión de un datalake que integra las distintas áreas de la compañía reporting regulatorio a Banco de España, libros de órdenes, análisis de las carteras del banco, gestora y de los clientes.
  • Mejora de las herramientas de gestión de inversiones para riesgos, selección de activos, diversificación por medio de creación de aplicaciones internas para gestores y especialistas. Requiere el ciclo completo de almacenado de datos, tratamiento de estos, e implementación de modelos, testeo y retroalimentación gracias al feedback del usuario.
  • En cuanto a las estrategias cuantitativas son bastante autónomas, normalmente solo requiere tiempo la ejecución de las señales por la dificultad de conectar a bajo coste diferentes plataformas. El mayor trabajo viene dado en el desarrollo de código y gestión de bases de datos para hacer que la estrategia sea lo más autónoma posible tanto en la generación de señales como en la medición de su rendimiento y reconocimiento de fallos (llamadas incidencias). Para ello se desarrolla de forma continua códigos que permitan la identificación de los fallos de la estrategia, así como su solución autónoma mediante modelos de aprendizaje por refuerzo. En caso de ser complicado este enfoque, se solucionan con soluciones ad-hoc. Aparte de las incidencias, hay un desarrollo continuo en la mejora de la estrategia en si misma, pues una estrategia es un ser vivo cambiante y también requiere de un proceso evolutivo.
  • Otra parte del trabajo requiere de la creación de Dashboards para negocio con la intención de darles insights de los datos, y también la creación de modelos internos de análisis y riesgo de crédito en el banco, de nuevo negocio, de la liquidez, soluciones de pricing e ideas de inversión a clientes. Todas ellas requieren de proyectos individuales los cuales se tratan diario.

XT: ¡La verdad es que resulta impresionante la cantidad de áreas que tocáis en vuestro departamento! Por cierto, a la vista de lo que hacéis, estoy seguro de que en tu trabajo la calidad de los datos resulta fundamental. ¿Cómo y de dónde obtienes los datos que usas para desarrollar estrategias? ¿Manejas ticks, velas intradía, datos diarios? ¿Utilizas transformaciones del precio (ie, renko)?

AR: Nuestro equipo trata con todo tipo de datos: Bloomberg; proveedores de datos de mercado, financieros, y cualitativos de las empresas cotizadas; proveedores de datos de pymes; redes sociales; webscraping; noticias. Cada una de estas fuentes se almacena y trata debidamente en función de su modelización y utilización final en base a los mandatos previamente mencionados.

En lo que respecta a las estrategias: la que usa patrones en series univariantes trabaja con velas intradiarias, las otras dos usan solo el precio final del día para la generación de alfa y también tienen unos módulos de gestión de riesgo que monitorizan datos intradiarios.

Por supuesto, tanto las series intradiarias como diarias se transforman mediante modelos matemáticos en otras series de señales de compra o venta para la estrategia, así como lo módulos de gestión del riesgo se basan en relaciones matemáticas multivariantes de los precios y otros indicadores exógenos de mercado.

En lo que respecta a modelos para el apoyo a la decisión de los gestores de fondos de renta variable y renta fija y fondos de fondos, usamos entre otros muchos:

  • Embeddings de series temporales de retornos en función de la correlación, cross-correlacion, medidas de distancias con información de distribución de retornos (cópulas), distancias entrópicas. Y realizamos clústeres jerárquicos, K-medoids, espectrales.
  • Análisis factoriales semi-supervisados no lineales para entender los verdaderos drivers de los fondos y activos.
  • Comparativa sistemática de millones de combinaciones de clústeres cualitativos y cuantitativos para encontrar anomalías en el mercado de renta fija (análisis de dispersión de spread entre clústeres de bonos). Aplicación de algoritmos cuánticos para soluciones computacionales combinatorias eficientes.
  • Análisis de sensibilidad de las carteras o posiciones individuales por medio de diferenciación automática con redes neuronales para diversificación.
  • Aplicación de la Teoría de Matrices Aleatorias para la detección de cambios reales en matrices de correlación.
  • Modelos de ensamblado y Multimodales para la predicción de series temporales y análisis de sensibilidad para tratar datos no estacionarios.

XT: ¿En qué mercados y productos operas habitualmente?

AR: Los fondos de inversión a los que damos soporte en la toma de decisión son de Renta Variable Europea, de Renta Fija global, y carteras de fondos de fondos (Versa).

La estrategia de patrones en series univariantes se usa mayoritariamente en FX y materias primas globales, con la excepción de algunos índices bursátiles. La estrategia que combina indicadores de derivados respeto de sus subyacentes usa datos del mercado de opciones, CDS, Swaps y Bonos para obtener señales que nos permiten operar en acciones cotizadas, mayoritariamente USA y Europa. La de arbitraje estadístico esta enfocada en acciones también de USA y Europa con liquidez.

XT: Cuéntanos un poco acerca de tu equipo y el software que utilizas, tanto para el desarrollo de sistemas como para su ejecución.

AR: El lenguaje de programación por excelencia que usamos es Python, combinado con herramientas como Hadoop y Sparks a demanda. Todo proyecto consta al menos de una base de datos que gestionamos con MySQL en AWS por peticiones o con Lambdas, un código implementado en Python y almacenado en una máquina virtual (Docker) con tecnologías Kubernetes y gestión vía Jenkins, y un interfaz de usuario para el proyecto, app o solución.

Para los usuarios internos de la entidad la solución programática suele culminar en un dashboard con PowerBI o similar, donde el usuario pueda interactuar con la solución. Si la solución es para clientes se requiere la implementación de una arquitectura back-to-front donde interactúan la arquitectura base previa con un desarrollo web (Laravel, PHP, Javascript, etc).

En cuanto al equipo usamos laptops con procesadores Intel Core i7 y máquinas virtuales en Amazon Web Services. De este modo, paralelizamos muchas tareas en la Nube sin necesidad de hardware.

No obstante, el equipo varía dependiendo del área de negocio. Ten en cuenta que hay un área más enfocada en soluciones internas; otra dedicada al desarrollo puro, tanto en análisis de datos como en interfaz de usuario via programación web y desarrollo de aplicaciones; y una centrada en investigación y desarrollo para la creación de soluciones originales y la implementación de las mismas como módulos en proyectos ya existentes o nuevos proyectos para clientes o de carácter interno (estrategias, modelos de riesgo, pricing, de gestión de inversiones).

Por último, tanto para la ejecución de ordenes en las estrategias de trading como para la conexión entre los distintos servicios se utilizan APIs (no usamos servidores físicos para nada).

XT: ¿Cómo le explicarías tu forma de desarrollar estrategias de trading a alguien que no sabe nada de Machine Learning?

AR: En realidad, el enfoque no solo engloba estrategias de trading sino nuestra forma de atacar muchos de los problemas que nos encontramos en la entidad y en los clientes. Nosotros diseñamos, testeamos y ponemos en producción modelos matemáticos, capaces de analizar datos de forma autónoma gracias a una función objetivo bien definida que es función de los datos que usa.

Si la función objetivo se ha definido correctamente, es decir, si uno sabe lo quiere de los datos y lo sabe plasmar en una ecuación matemática, el modelo encontrará aquellas respuestas dentro de los datos que más se acercan a dicho objetivo.

Por supuesto, para definir una función objetivo útil en función de los datos se requiere un reconocimiento total de los mismos, de sus dinámicas, relaciones entre los mismos y lo que se quiere obtener de ellos, así como ser capaz de formularlo matemáticamente.

XT: ¿Cuáles son tus algoritmos de Machine Learning favoritos? ¿Prefieres aprendizaje supervisado, no supervisado, metalearners…? ¿Utilizas Adversarial Machine Learning?

AR: Mis algoritmos favoritos son las Redes Neuronales. Muchas personas las relaciona con black boxes (cajas negras), pero es ahí donde reside su mayor potencial. Por medio del análisis de las relaciones entre las diferentes capas y neuronas por medio de los pesos de la red, y su relación con los inputs y ouputs, podemos entender los sistemas desde una perspectiva dimensional que otros modelos no permiten.

Un ejemplo de ello es la diferenciación automática, que nos permite aproximar la sensibilidad de los outputs de una red respecto a los inputs. Esto permite computar derivadas parciales sin necesidad de tener acceso a la ecuación diferencial que sigue el proceso. Dichas ecuaciones están en todos los ámbitos de la naturaleza y lo más complejo es su identificación, pero si somos capaces de por medio de datos aproximar las derivadas parciales, esto puede ser útil para coberturas de productos financieros, carteras de inversión y de riesgos financieros en general [1].

La diferenciación automática adjunta nos permite desgranar la solución de ecuaciones en derivadas parciales en una serie de funciones que luego son acopladas en una red neuronal y así poder realizar simulaciones numéricas de dichas soluciones miles de veces más rápido que otras técnicas numéricas como diferencias finitas o Montecarlo [2]. Esto supone para la banca de inversión una ventaja competitiva respecto otros modelos en pricing y Risk Management de cualquier producto financiero.

Se pueden diseñar arquitecturas de redes neuronales que incorporen información del proceso físico o matemático que están modelizado, las famosas Physics-Informed Neural Networks (PINN) [3]. Las redes neuronales se utilizan para realizar embeddings en diferentes contextos. Esto consiste en representar palabras, textos, series de retornos de activos, características de los activos o cualquier cosa que se nos ocurra en un espacio multidimensional en el que las coordenadas vienen dadas por los pesos de una red neuronal que mejor predice cada uno de dichos elementos que se pretenden representar, dado un conjunto de datos y contexto. Este es precisamente uno de los puntos clave de ChatGPT.

En nuestro equipo realizamos este tipo de usos prácticos de las redes neuronales en nuestras tareas. No tenemos preferencias entre si el enfoque debe ser supervisado o no, o semi-supervisado o de aprendizaje por refuerzo, sino que dejamos que el problema decida el enfoque.

Si queremos realizar forecasting de series temporales usamos un enfoque semi-supervisado, en el que primero se aprende sobre los datos de una forma no supervisada y las características extraídas luego se usan como inputs de un modelo supervisado.

Si deseamos monitorizar el performance de un sistema como puede ser una cartera de trading, o una aplicación de servicios de analítica para clientes, usamos aprendizaje por refuerzo con el fin de no solo de medir el éxito o fracaso sino que acciones tomar para optimizar su rendimiento.

Y si el objetivo es atacar problemas complejos en los que prima el rendimiento y no la explicabilidad, usamos ensamblados y metalearners.

No usamos Adversarial Machine Learning de momento aunque pensamos usarlo en un futuro cercano en el ámbito de generación de escenarios de mercado (series temporales, matrices de correlación, etc) como el stress-test de carteras.

XT: ¿Cuáles son tus features favoritas cuando arrancas el diseño de una estrategia?

AR: Nuestros features favoritos son aquellos que proporcionan un mayor performance de generalización del modelo (out-of-sample) y cada estrategia tiene unos diferentes. No obstante, para que puedas hacerte una idea, y pensando en un punto de partida previo para encontrar óptimos, en el caso de los riesgos las features que más me suelen gustar son las medidas de co-dependencia (lineales y no lineales), la sensibilidad de los outputs dados los diferentes inputs; además, si representas los datos en grafos, son interesantes la comunalidad y la distribución de grado, así como relaciones causales.

En cuanto a la generación de señales, me interesan los eventos extremos, ciertas propiedades estructurales de las series temporales como breaks o cointegración, y sobre todo la descomposición espectral y distribución de autovalores.

XT: ¿Cuáles serían las estadísticas de un sistema ideal? O dicho de otro modo, ¿qué parámetros y métricas te hacen decantarte por uno u otro sistema?

AR: Los parámetros que más me hacen decantarme por un modelo u otro son los siguientes:

  • Para la predicción, las métricas normadas L1, L2, etc. en el conjunto de datos de test y después de aplicar validación cruzada para múltiples simulaciones y en diferentes datasets. Esto da una primera aproximación sobre el modelo de generación de señales.
  • Para un modelo de clasificación, la curva ROC, y la matriz de confusión.
  • Después de este filtro, realizo backtest en múltiples escenarios, históricos y simulados, para computar métricas como el Sharpe Ratio probabilístico [4], análisis de drawdowns, análisis de rolling correlations históricas con diferentes drivers de mercado, estilos Smart-beta y ETFs. También distribución de éxitos, fracasos de las señales y su relación con el P&L.
  • Cuando una estrategia ya esta funcionando, analizamos el Alpha Decay, aplicamos algoritmos de aprendizaje por refuerzo, no para implementar dichas acciones, pero sí para analizar las distribuciones condicionadas de nuestra función objetivo, dado los nuevos estados de mercado.

XT: ¿Cómo controlas el riesgo en tu operativa? ¿Qué mecanismos de control tienes implementados para evitar que pasen cosas que no deben pasar con los algoritmos que has desarrollado?

AR: Todo código de implementación tiene logs que indican si algo ha fallado a nivel de código. Después hay otros algoritmos de conciliación que permiten acceder a los datos y comparar el comportamiento teórico esperado (estrategia objetivo) con el comportamiento real que ha ocurrido en la estrategia. No solo tracking error, sino también por qué se produce, identificando las causas con modelos estadísticos.

XT: ¿Utilizas algoritmos de gestión monetaria? ¿Cuáles utilizas habitualmente?

AR: Utilizamos algoritmos estadísticos y de aprendizaje automático para predecir la gestión monetaria optima. Para ello, estos modelos son entrenados sobre los datos de la propia estrategia y de sus activos. Estos modelos tienen una función objetivo diferente a la de la propia estrategia, pero complementaria con el objetivo de mejorar el rendimiento de la estrategia.

Esto nos permite por medio de aprendizaje por refuerzo identificar las mejores acciones en la ejecución y gestión de la liquidez, así como el apalancamiento en base a acciones pasadas de la estrategia y sus consecuencias.

XT: ¿Cómo realizas la diversificación de tu portfolio? ¿Utilizas técnicas de Machine Learning para determinar los pesos de cada inversión y/o algoritmo?

AR: En esta fase utilizamos herramientas como las que se pueden encontrar en nuestros papers (ver [5] y [6]). Nosotros entendemos los activos financieros como elementos de un sistema dinámico que se puede representar por medio de ecuaciones en derivadas parciales, los modeladores del Universo.

Dichas ecuaciones son desconocidas e imposibles de obtener como en la mayoría de los procesos de la Naturaleza; sin embargo, su solución y sus derivadas parciales se puede aproximar con datos por medio de redes neuronales.

Por otro lado, la diversificación no es más que la cobertura de un riesgo en una cartera, históricamente referida solo a las coberturas entre los propios activos de la cartera (diversificación idiosincrática), pero hoy en día diferenciamos entre diversificación idiosincrática y sistemática, esta última debida a agentes exógenos. Además, la diversificación al ser una cobertura de riesgo, se puede medir en un espacio vectorial al proyectar los retornos de la cartera en cualquier tipo de plano o hipersuperficie. Esto nos permite tener una visión de diversificación que depende del espacio donde los proyectamos. Si los proyectamos sobre un espacio formado por agentes exógenos de mercado estaremos midiendo diversificación sistemática, si solo los proyectamos respecto a un plano que forma el mismo portafolio de activos con sus respectivos retornos, nos estamos centrando en diversificación idiosincrática.

Más aún, si proyectamos los activos de la cartera sobre una hipersuperficie formada por los retornos de otras series con momentum, podemos encontrar un hedge o diversificación de la cartera especifica a momentum. Las proyecciones vienen dadas por las coordenadas que son las sensibilidades o derivadas parciales de los outputs de un sistema dados unos inputs.

Los inputs son los ejes del espacio donde se proyectan los outputs (activos de la cartera). Con este setup en [5], nosotros usamos esta metodología nunca antes vista en la literatura con la que por medio de redes neuronales y diferenciación automática podemos aproximar las derivadas parciales o sensibilidades de los constituyentes de la cartera.

Proyectamos la cartera en un espacio de drivers causales, los cuales obtenemos de forma sistemática por medio de la única relación existente que hay entre correlación y causalidad probabilística, que es el Principio de Causalidad Común de Reichembach [7].

Este principio, de mediados del siglo XX, nos permite aproximar causalidad común con correlaciones y así poder identificar los drivers comunes de una cartera particular (Principio de Comunalidad). Se produce una triangulación de correlaciones entre los activos de una cartera y los drivers comunes a dichos activos, siendo dicha correlación máxima respecto a la correlación con otros drivers candidatos de la cartera, de un conjunto de datos con miles de series que supone toda la información pública del mercado. Ecuaciones diferenciales parciales de los activos respecto a estos drivers causales comunes óptimos son aproximadas por medio de redes neuronales y sus derivadas parciales usadas para proyectar los activos en dicho espacio de causas comunes, una matriz de distancias en dicho espacio (matriz de sensibilidades) nos da las relaciones de dependencia de las proyecciones de los activos de la cartera en dicho espacio causal común.

Los pesos proporcionan un hiperplano (portfolio) como solución a un problema convexo de optimización el cual tiene los puntos (activos) en dicha hipersuperficie lo más separados posible. Pero con esto no basta, ya que este espacio de sensibilidades debe mapearse a una medida de riesgos como la volatilidad. Solo si mapeamos la matriz de sensibilidades con una medida de riesgo como la volatilidad, podemos buscar por el valor optimo en función del riesgo, y diversificar el riesgo en la trayectoria de los activos dada la información causal del espacio donde se realiza la optimización.

Si no se hace este mapeo, se puede estar diversificando solo en función de la trayectoria, que también es válido pero en este caso se pierde la noción de riesgo como volatilidad y se busca aquellos pesos que hagan que la cartera tenga una trayectoria contraria a la de sus drivers, esto puede no tener sentido, y por ello es necesario mapear la matriz de sensibilidades a una medida de riesgo, igual que se hace con los kernel de aprendizaje o en los Transformers en NLP, donde se transforma de un lado a otro la información.

Otra metodología de corto plazo para computar el sizing o posicionamiento en estrategias algorítmicas de corto plazo lo realizamos mediante herramientas como la de nuestro articulo [6]. En este articulo presentamos una medida de diversificación (DMD – Diversification Measure Distribution) que nos permite predecir si las trayectorias futuras próximas de los retornos de los activos van a ser similares o no y por tanto desconcentrar las apuestas en las señales de estrategia sistemáticas. Esta medida relaciona la evolución temporal de las correlaciones en el corto plazo con los retornos de los activos futuros por medio de la combinación de dos redes o grafos, uno para las correlaciones Rolling y otro para los retornos de los activos. Probamos en el paper que esta red compuesta por dos redes tiene una distribución de Dirichlet Multinomial, y la conexión entre ambas redes se demuestra por el teorema de Bayes.

XT: En los últimos meses se está planteando un debate de forma recurrente entre los traders acerca de las dudas que suscita la aplicación del Machine Learning para desarrollar estrategias de trading. En particular, se comenta que las técnicas de Machine Learning podrían no servir para predecir el comportamiento del precio por cuanto no existen patrones realmente en las series de cotizaciones, debido al elevado nivel de ruido presente en ellas. ¿Qué opinas al respecto?

AR: Opino que es importante tener en cuenta la fuente de lo que se lee para no perder la noción de la realidad. Yo he visto, leído y oído de todo, desde que es el Santo Grial hasta que no sirve, tanto a personas que no tienen experiencia en mercados como personas que llevan décadas trabajando en trading y gestión.

Si uno tiene un filtro de fuentes correcto, y coteja datos reales y sabe buscar bien la información comprobara que el Medallion Fund de Jim Simons es el más exitoso de la historia y se basa al 100% en Machine Learning. Citadel también gasta al año cientos de millones en modelos e infraestructura para Machine Learning, usando algunos de esos modelos incluso para predecir el clima e invertir en materias primas.

Si analizamos el patrón de los activos bajo gestión del mundo entero, vemos que hace 15 años solo el 5-10% eran fondos cuantitativos, después del año 2020 los fondos cuantitativos sobrepasaron la mitad de todos los activos bajo gestión, cifra muy correlacionada con el boom del Machine Learning de los últimos años. Esto son evidencias de que si bien el Machine Learning quizás no pueda predecir el futuro de los precios en el mercado, sirve para obtener estrategias rentables de trading e inversión.

Basándome en fuentes fiables, pienso que el Machine Learning puede ayudar a predecir el comportamiento de los precios en el mercado en el muy corto plazo de forma uni y multivariante. Pienso que es aún más potente en analizar la liquidez del sistema permitiendo una mejor ejecución en trading de alta frecuencia. La predicción es menos importante que la ejecución en estos casos.

Donde más puede aportar el Machine Learning a media y baja frecuencia es en la gestión del riesgo, detección de eventos extremos, cambios de régimen, hegding, optimización de carteras… Pienso que será potente en una gama de productos Smart Beta basados en causalidad y evidencias más potentes que las metodologías econométricas del pasado. Por su parte, el aprendizaje por refuerzo será clave en el crecimiento de los Investment Advisors o carteras perfiladas. Asimismo, el Machine Learning aplicado en temas de pricing y obtención de fair value de productos financieros será clave para la toma de decisiones en trading e inversión, permitiendo la obtención de medidas dinámicas frente a otros métodos de estimación puntuales.

XT: ¿Qué te parecen los builders como Strategy Quant, Expert Advisor Studio o Alphadvisor? ¿Perversión del data science aplicado al trading o herramientas que facilitan encontrar nuevas ideas de trading?

AR: Reconozco que no las conocía antes de la entrevista, pero al ver un poco por encima de qué van, me parece que pueden ser útiles si se saben usar, pero que aprender a usarlas bien debe ser complicado.

El problema de estas herramientas, al igual que pasa en otros sectores con el Auto Machine Learning (AutoML), es la falta de entendimiento de como el modelo acierta o fracasa. Esto lo compensa con un exceso de sobre-ajuste de los modelos en los backtesting para convencer al usuario. Finalmente, pueden acertar o no pero al no conocer el usuario las causas puede perfectamente ser de casualidad. Si encima viene un evento de cola puede perder mucho dinero.

Dicho esto, si uno conoce bien las herramientas, le puede servir como un filtro de selección o de calidad de modelos y estrategias. Una vez aplicado el filtro, lo lógico es hacer un due diligence de las soluciones proporcionadas por la herramienta y solo usarlas si son explicables sus decisiones, y cumplen con la función objetivo del usuario en múltiples datasets fuera de muestra.

XT: ¿Qué le dirías a un trader que opera de forma discrecional y no quiere saber nada de Machine Learning? Y ya puestos, ¿crees que las técnicas de Machine Learning llegarán a igualar la intuición del trader discrecional?

AR: Le diría que de aquí a 10 años le ocurrirá a su trabajo lo que le ocurrió a los actores del cine mudo en Hollywood en los años veinte. Pienso que las técnicas de Machine Learning ya son capaces de batir en media a traders discrecionales.

Aquí dos puntos son importantes: primero, para que un modelo de Machine Learning funcione correctamente, se requiere una gran inversión inicial de capital (salario de expertos, infraestructura tecnológica, datos, tiempo) que solo unos pocos tienen al alcance, con lo que la comparativa ya se ve sesgada si cualquiera que usa modelos en trading se mete en la comparación. Segundo, gran parte de los traders discrecionales pierden dinero y la mayoría no sabe cuantificar ni identificar las razones por las que gana o pierde, muchas veces coincidiendo la intuición con suerte, más si hablamos que los mercados suelen ser un juego de probabilidades.

Lo potente del Machine Learning no es que dé una solución correcta, que también lo debería ser, sino que te abre una ventana a entender las razones por las que el sistema gana o pierde, siendo útil para mejorar el sistema. Esta retroalimentación de conocimiento del sistema vs output en el tiempo hace que los sistemas superen al trader discrecional (y es que uno no puede aprender de sus errores si no los reconoce o no los conoce).

XT: Desde tu perspectiva como trader quant, ¿qué es lo que más te gusta del trading? ¿Y lo que menos?

AR: Lo que más me gusta es la modelización matemática como sistema dinámico, identificar los motivos por los que la estrategia gana o pierde.

Lo que menos me gusta del trading son aquellas posiciones de las que no tengo un juicio cuantificable sobre por qué se tomaron.

También lidiar con algunos datos puede ser excesivamente caro; las plataformas de ejecución pueden tener fallos en sus APIs y, en general, un buen sistema necesita un coste importante y proporcional.

XT: ¿Qué opinas del impacto de la psicología en el trading?

AR: Creo que la psicología es el aspecto más importante en el trading discrecional, y creo es una cualidad que se nace con ella, no se hace, igual que alguien es bueno en matemáticas de nacimiento, no por dedicación.

La dedicación te puede hacer mejor pero no muy bueno. El control de emociones es clave para no perder la perspectiva. Las estrategias sistemáticas no tienen esta desventaja, y los quants no necesitan las habilidades especiales de los traders discrecionales, sino que su fuerte es su capacidad matemática.

Es más, se puede estudiar el mercado desde la perspectiva del behavioral finance. Esta rama de la ciencia económica permite medir el sesgo producido por las emociones de los inversores y su impacto en el mercado, con la intención de aprovecharlo y obtener beneficios con ello.

XT: Todo trader se ha arruinado alguna vez o ha pasado por un momento realmente difícil, en el que ha estado a punto de perder hasta la camisa. Cuéntanos alguna buena “batallita” que hayas visto de este tipo en el mundillo institucional.

Ar: He visto varias. En 2008 compañeros y jefes míos de Miraltabank que trabajan para un hedge fund que llegó a ser el mayor del mundo en su época, perdió cientos de millones de dólares en sus posiciones de titulizaciones. Algunos de los empleados del hedge fund, justo después como empleados de Miraltabank recompraron estas titulizaciones a precios mínimos ganando mucho dinero en la década posterior, dada su recuperación.

Otra que vi de cerca fue la del banco Société Générale. Este banco es uno de los grandes proveedores de productos derivados de acciones, dentro de los que se encuentra los swaps de dividendos que se comprometen a pagar flujos monetarios a cambio de dividendos. Al estallar la pandemia de Covid-19, las compañías pararon los dividendos provocando unas perdidas enormes en esos swaps.

XT: ¿Qué proyectos tienes para el futuro inmediato?

AR: Como proyectos de futuro inmediato tenemos el lanzamiento de una aplicación al servicio de los clientes del bróker para ayudarles en su capacidad de análisis del mercado por medio de herramientas estadísticas y de Machine Learning.

También la publicación en una revista prestigiosa de un nuevo modelo de IA de predicción multimodal que ha resultado dar unos rendimientos sorprendentes de generalización.

Otro proyecto en el que estamos trabajando es en modelos causales con Machine Learning para trading e inversiones, con la intención de publicar un paper continuando nuestro trabajo en [5].

Finalmente, estamos también con un proyecto para el banco, enfocado en herramientas de ML para el análisis de crédito para Pymes y sus riesgos.

XT: ¿Cuáles son tus películas y libros de trading favoritos?

AR: Mi película favorita es Margin Call, porque sus escenas de la sala de trading de un banco de inversión son muy reales. En cuanto a libros de trading, no suelo leer demasiados; el único que me gustó fue Market Wizards: Interviews with Top Traders, de Jack Schwager. El motivo es que prefiero libros de ciencias aplicadas al trading, para lo cual lo mejor son libros de texto de los mejores académicos y practitioners, así como artículos académicos de ellos mismos.

En este segmento mis autores favoritos son:

  • En cuanto a temas relacionados con pricing de productos financieros: Alex Lipton, Damiano Brigo, Richard Martin.
  • En temas relacionados con riesgos: Rama Count y Jean Philippe Bouchard.
  • Y sobre Machine Learning aplicado a finanzas: Marcos Lopez de Prado, Peter Kolm e Igor Halperin.

Otros buenos recursos a mencionar son los MIT OpenCourseWare, los materiales didácticos del Oxford Mathematical Institute (especial énfasis en todo lo que publica el grupo de Finanzas Computacionales y Matemáticas), los MOOCs de la Universidad Carlos III en España, la bibliografía recomendada de los Masters de la LSE, los artículos de conferencias como ICML o IEEE, o artículos en Google Scholar.

En especial, en el apartado de modelos de ML y en finanzas cabe mencionar todo el contenido publicado en las webs de las gestoras AQR y CFM. Por su parte, Robeco en la parte de factores tiene un contenido muy potente. Y especial atención también a SSRN que es donde los practitioners siempre publican sus preprints, y donde se puede aprender muchísimo del estado del arte en finanzas cuantitativas.

XT: Danos una recomendación especial para los lectores de X-Trader.net. Ya sabes, ese pequeño truco que poca gente conoce y que nos puede ahorrar muchas horas de investigación.

AR: Creo que una recomendación buena es la de enfocar todo tu tiempo en fuentes de calidad para lo cual LinkedIn es muy potente. En la era de la información tenemos todo lo que se escribe a diario disponible en Internet, pero nuestro tiempo es superlimitado.

Un buen uso de LinkedIn nos permite identificar quienes son los practitioners más potentes. Las finanzas, incluso en el ámbito cuantitativo es una ciencia aplicada, y lo que «parte el bacalao» hablando en plata lo marcan los practitioners más reconocidos con lazos académicos. Estas personas son muy visibles in LinkedIn y, si seguís su research, puedes empezar por intentar contribuir en el estado del arte apoyado por sus publicaciones previas.

Esto te dará visibilidad de la buena, mientras que hay muchísimas publicaciones que siendo geniales nunca obtendrán la visibilidad suficiente porque se quedan en los lazos del mundo académico y esta ciencia es de practitioners principalmente.

Mi segunda recomendación es que hagas un doctorado, ya sea después del Master o años más tarde. El análisis cuantitativo requiere de un research riguroso, para lo cual un doctorado en una ciencia cuantitativa es un buen entrenamiento. Si no estás interesado en un doctorado, intenta publicar tus ideas igualmente, también es un entrenamiento similar, aunque el no tener apoyo de expertos hacer que tardes más en alcanzar buenos niveles de rigor en tus publicaciones.

También hay puestos de desarrollador cuantitativo donde lo que prima son más los conocimientos de software y no de ciencias; quizás en este caso un doctorado lo veo menos útil.

XT: Tus pensamientos finales sobre el trading y la despedida de rigor.

AR: En el ámbito del análisis y trading cuantitativos en España, pienso que nos encontramos cerca de un cambio generacional que puede durar no más de una década en la que cada vez más vamos a ver un mayor crecimiento de fondos y gestoras data-driven. Esto se debe sobre todo al crecimiento de graduados en ciencias STEM y en programas de datos e IA, y el movimiento de la riqueza del país a generaciones más jóvenes con esta formación y mentalidad.

No obstante, hoy en día es un sector complejo en España, tanto de acceder como de desarrollar una carrera, siendo más fácil si uno está dispuesto a vivir en alguna ciudad que sea centro financiero como Londres, Nueva York, Chicago, Hong Kong, etc.

En España, el análisis cuantitativo esta más enfocado en servicios de banca de inversión como riesgos y pricing, y no tanto en gestoras y fondos. Me remito al número de analistas cuantitativos en las entidades confirmado fácilmente desde LinkedIn.

Pero esto es temporal y la historia nos ha demostrado que en España las cosas llegan algo más tarde que en otros sitios, pero llegan, y cuanto antes se forme uno en estas técnicas y su aplicabilidad practica, más probabilidad tendrá de éxito en ese entorno que está por llegar y que, de hecho, en relativa medida ya ha llegado.

XT: Sin duda, excelentes reflexiones, mil gracias Alejandro por compartirlas con nosotros en esta entrevista.

Referencias

[1] Huge, B., & Savine, A. (2020). Differential machine learning. arXiv preprint arXiv:2005.02347.

[2] Savine, Antoine. (2018). Modern Computational Finance: AAD and Parallel Simulations. Wiley

[3] M. Raissi, P. Perdikaris, G.E. Karniadakis (2019), Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations,
Journal of Computational Physics, Vol. 378, pp. 686-707, ISSN 0021-9991.

[4] Bailey, David H. and López de Prado, Marcos (2012), The Sharpe Ratio Efficient Frontier. Journal of Risk, Vol. 15, No. 2, Winter 2012/13.

[5] Alejandro Rodriguez Dominguez (2023), Portfolio optimization based on neural networks sensitivities from assets dynamics respect common drivers, Machine Learning with Applications, Vol. 11, ISSN 2666-8270,

[6] A. R. Domínguez and D. Stynes, «A Clustering Algorithm for Correlation Quickest Hub Discovery Mixing Time Evolution and Random Matrix Theory,» 2022 IEEE 34th International Conference on Tools with Artificial Intelligence (ICTAI), Macao, China, 2022, pp. 1007-1014,

[7] Hans Reichenbach (1956), The Direction of Time. Dover Publications Inc.

COMPARTIR EN: