Un sistema de trading sistemático de futuros construido sobre 14 artículos de investigación revisados por pares que abarcan microestructura de mercado, momentum en series de tiempo, pronóstico de volatilidad y validación estadística.
Cuatro principios innegociables que limitan toda decisión de diseño en el sistema.
El precio es la única verdad fundamental. Cuando cualquier resultado analítico contradice el comportamiento de precio observado, el análisis es erróneo. Informado por Bouchaud, Farmer y Lillo (2009): la mayoría de la información del mercado proviene de dinámicas de oferta y demanda, no de noticias externas.
El objetivo principal es sobrevivir el tiempo suficiente para que la ventaja se capitalice. Toda estrategia debe pasar la prueba de Sharpe Deflactada (Bailey y López de Prado, 2014), que corrige el sesgo de selección bajo pruebas múltiples. El tamaño de posición usa una fracción conservadora del Criterio de Kelly, manteniendo un margen de seguridad contra la sobreestimación de ventaja.
Todo componente es independientemente testeable y reemplazable. La interfaz de procesamiento permanece invariante ya sea consumiendo datos históricos o feeds de mercado en vivo. Validado mediante CPCV (López de Prado, 2018), que exige que el desempeño sea testeable en todas las divisiones de datos combinatorias.
Una porción de cada posición toma una salida fija para rentabilidad de tasa base. El resto sigue con un stop más amplio, capturando la extensión completa de los movimientos de tendencia. Consistente con Moskowitz, Ooi y Pedersen (2012): el momentum en series de tiempo en futuros persiste por 1-12 meses. El trabajo del sistema es mantenerse en la operación el tiempo suficiente para capturar esa persistencia.
Toda operación pasa por un pipeline de múltiples capas. Ninguna señal única desencadena la ejecución, condiciones múltiples independientes deben converger antes de desplegar capital. La mayoría de señales candidatas se rechazan en la primera capa.
Múltiples marcos temporales superiores deben confirmar alineación direccional antes de que la capa de ejecución considere cualquier entrada. Este filtro se basa en investigación sobre persistencia de momentum en series de tiempo en mercados de futuros (Moskowitz, Ooi y Pedersen, 2012) y el hallazgo empírico de que el flujo de órdenes exhibe memoria larga entre marcos temporales (Bouchaud, Farmer y Lillo, 2009). El filtro es el más poderoso del sistema, la mayoría de señales candidatas nunca lo pasan.
Una vez que se confirma la alineación direccional, el sistema evalúa patrones de acción de precio estructurales para la calidad de entrada. Cada trigger candidato se puntúa contra múltiples criterios. Solo los patrones que cumplen el umbral de calidad avanzan a evaluación de confluencia.
Señales múltiples independientes deben converger antes de desplegar capital. Cada señal contribuye a una evaluación ponderada de confluencia; el sistema requiere acuerdo suficiente antes de actuar. Este enfoque multifactor reduce la probabilidad de actuar sobre señales espurias (Gu, Kelly y Xiu, 2020).
La colocación de stop-loss y el tamaño de posición se calibran a la volatilidad actual del mercado, no a parámetros fijos. El sistema usa cálculos basados en ATR que se adaptan dinámicamente, asegurando riesgo consistente por operación en términos de dólares independientemente de las condiciones del mercado (Corsi, 2009).
El sistema analiza el precio a través de una jerarquía de marcos temporales, de tendencia macro hacia contexto de ejecución. Los marcos temporales superiores tienen más autoridad, la capa de ejecución solo actúa cuando la jerarquía más amplia confirma sesgo direccional.
El filtro detecta la huella observable del fraccionamiento de órdenes institucionales. Las órdenes padre grandes de participantes institucionales se dividen en miles de órdenes hijo ejecutadas a lo largo de períodos extendidos. Esto crea una propiedad de memoria larga en el flujo de órdenes (Bouchaud, Farmer y Lillo, 2009), lo que significa que el sesgo direccional en marcos temporales superiores tiene poder predictivo genuino para el marco temporal de ejecución. No por recurrencia de patrones, sino por desequilibrio persistente de oferta y demanda que toma tiempo en absorber completamente.
Esto es consistente con investigación que muestra que el momentum en series de tiempo persiste durante 1-12 meses a través de docenas de mercados de futuros (Moskowitz, Ooi y Pedersen, 2012). El sistema no intenta predecir cuándo terminará el momentum, participa mientras la jerarquía de marcos temporales superiores confirma que la tendencia está intacta, y sale cuando no lo está.
Dentro del pipeline de decisión, tipos de señales específicas se evalúan en las capas de trigger y confluencia. Cada tipo de señal está fundamentado en investigación de microestructura de mercado.
Los barridos de precio por encima de máximos conocidos o por debajo de mínimos conocidos desencadenan clusters de órdenes de stop en reposo, proporcionando liquidez de contrapartida para entradas institucionales. Estos eventos crean una dislocación temporal entre precio y flujo de órdenes subyacente. La mecánica es consistente con el modelo de Kyle (1985) de trading informado e impacto de precio, y con el marco Almgren-Chriss (2001) para descomposición de impacto temporal versus permanente. Cuando un barrido agota la liquidez disponible en un nivel, el movimiento de precio resultante lleva información sobre el verdadero balance de oferta y demanda.
La relación lineal entre desequilibrio de flujo de órdenes y cambios de precio contemporáneos es una de las regularidades más fuertes en microestructura de mercado. Cont, Kukanov y Stoikov (2014), publicado en el Journal of Financial Econometrics, establecieron que el desequilibrio de flujo de órdenes domina el volumen crudo como predictor de precio a corto horizonte. El sistema aprovecha esta relación para evaluar la convicción direccional detrás de movimientos de precio observados.
Las órdenes padre grandes de participantes institucionales se dividen en miles de órdenes hijo, creando un patrón distintivo de flujo direccional persistente. Lillo y Farmer (2004) documentaron esta propiedad de memoria larga, y Bouchaud, Farmer y Lillo (2009) mostraron que los mercados "digieren lentamente" estos cambios de oferta y demanda durante períodos extendidos. El sistema identifica las firmas observables de este proceso de fraccionamiento institucional a través de múltiples marcos temporales.
Toda posición se divide en múltiples contratos con estrategias de salida distintas, equilibrando la tensión fundamental entre confiabilidad y magnitud.
El contrato de objetivo fijo reduce varianza asegurando ganancias en un nivel predefinido, ajustado por volatilidad. Esto establece la rentabilidad de tasa base del sistema, incluso si la porción trailing se detiene en breakeven, la salida fija ya ha capturado valor.
El contrato trailing runner captura la extensión completa de movimientos de tendencia. La investigación sobre momentum en series de tiempo (Moskowitz, Ooi y Pedersen, 2012) muestra que la persistencia de tendencia en mercados de futuros es tanto estadísticamente significativa como económicamente significativa a través de docenas de instrumentos durante décadas. El stop más amplio y adaptativo del runner está diseñado para mantenerse en la operación el tiempo suficiente para capturar esta persistencia, convierte ganancias ocasionales grandes en el principal impulsor de retornos de cartera.
La gestión de riesgo no es una característica de este sistema, es el sistema. Todo mecanismo generador de beneficio opera dentro de restricciones duras que no pueden ser anuladas por fortaleza de señal, convicción, o cualquier otro factor.
El Criterio de Kelly (Kelly, 1956) define el tamaño de apuesta teóricamente óptimo para maximizar el crecimiento geométrico a largo plazo. Sin embargo, Thorp (2008) demostró que incluso la sobreestimación modesta de ventaja en Kelly completo produce drawdowns catastróficos. El sistema usa una fracción conservadora del tamaño óptimo de Kelly, sacrificando deliberadamente la tasa de crecimiento esperada a cambio de varianza materialmente más baja y probabilidad reducida de ruina. La fracción de Kelly se reestima periódicamente a partir de estadísticas comerciales realizadas.
Los límites drawdown por operación, diario y semanal forman capas de contención anidadas. Cada capa opera independientemente, un incumplimiento en cualquier nivel desencadena acción protectora automática independientemente de lo que otras capas indiquen. Cuando se golpea un límite diario, todas las posiciones se cierran. Cuando se golpea un límite semanal, el sistema entra en modo solo observación. No hay mecanismo de anulación y sin lógica de "una operación más".
Las distancias de stop-loss y los tamaños de posición se adaptan a la volatilidad actual del mercado usando el modelo HAR-RV (Corsi, 2009). Este modelo captura persistencia de volatilidad a través de horizontes diarios, semanales y mensuales, produciendo pronósticos más precisos que enfoques de horizonte único (Andersen, Bollerslev, Diebold y Labys, 2003). En regímenes de alta volatilidad, las posiciones son más pequeñas y los stops son más amplios; en regímenes de baja volatilidad, lo opuesto se aplica. Esto asegura riesgo consistente por operación en términos de dólares.
El comportamiento del mercado no es estacionario. El sistema clasifica las condiciones prevalecientes a lo largo de dos ejes, fortaleza de tendencia y nivel de volatilidad, y adapta sus parámetros en consecuencia.
El modelo HAR-RV (Corsi, 2009) descompone la volatilidad realizada en componentes diarios, semanales y mensuales, capturando la estructura de múltiples escalas de tiempo de la agrupación de volatilidad. Esto produce pronósticos superiores comparados con modelos de familia GARCH de horizonte único, particularmente durante transiciones de régimen. La investigación de Andersen, Bollerslev, Diebold y Labys (2003) estableció que la volatilidad realizada calculada a partir de datos de alta frecuencia proporciona una medida más precisa de la verdadera volatilidad latente que los estimadores de cierre diario.
El sistema adapta stops, tamaño y umbrales de entrada basados en qué cuadrante de régimen se detecta. En entornos tendenciales de baja volatilidad, se aplican parámetros estándar. En entornos laterales de alta volatilidad, el sistema se mantiene completamente aparte, el costo esperado de pérdidas por látigo excede el beneficio esperado de operaciones intentadas. La descomposición jump-diffusion (Andersen, Bollerslev y Diebold, 2007) separa además el componente de volatilidad continua (que impulsa la predictabilidad) del componente jump (que no lo hace).
Un backtest es tan confiable como los supuestos incrustados en él. El sesgo de anticipación es la fuente más común de desempeño histórico inflado, y la más difícil de detectar. El motor de reproducción causal del sistema está diseñado para eliminarlo estructuralmente.
El motor de reproducción causal construye barras de marco temporal superior incrementalmente desde datos brutos, una barra solo "se cierra" cuando todos sus datos constituyentes han sido procesados, exactamente como lo haría en tiempo real. En ningún punto el motor tiene acceso a una barra de marco temporal superior completada antes de que los datos subyacentes hayan llegado. Las señales generadas en la barra N producen entradas en la barra N+1; no hay ejecución en la misma barra.
Todos los rellenados asumen slippage en dirección adversa con una estructura de comisión realista. Esto significa que los resultados del backtest representan una estimación conservadora del desempeño lograble. Este enfoque produce métricas de desempeño más bajas en comparación con datos precalculados, que es el comportamiento esperado y correcto cuando se elimina la ventaja de información artificial.
La significancia estadística en backtesting es necesaria pero no suficiente. El sistema debe demostrar robustez a través de múltiples marcos de validación independientes antes de que capital en vivo sea desplegado.
Los siguientes artículos forman la base empírica de este sistema. Cada cita incluye su relevancia para la arquitectura descrita arriba.
Toda afirmación en este sitio está respaldada por datos auditables. Cada algoritmo se valida de forma independiente en su propio marco temporal con cero sesgo de anticipación, las métricas principales se atribuyen por producto a continuación, con los estándares de validación del sitio más abajo.