SciELO - Scientific Electronic Library Online

 
vol.63 número4Logística del comercio internacional de la región de la Cuenca del Pacífico a través del Análisis Envolvente de Datos NetworkEfectos del crecimiento económico en el comportamiento de los costos pegajosos de las empresas pertenecientes a los países BRICS índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Contaduría y administración

versión impresa ISSN 0186-1042

Contad. Adm vol.63 no.4 Ciudad de México oct./dic. 2018

https://doi.org/10.22201/fca.24488410e.2018.1341 

Artículos

Formulación de un modelo híbrido alfa-estable para mercados con operación de alta frecuencia

José Antonio Climent Hernández1  * 

Luis Fernando Hoyos-Reyes1 

Marissa R. Martínez-Preece1 

1Universidad Autónoma Metropolitana, México.


Resumen

Las actividades de negocios requieren obtener, organizar y administrar información a partir de una gran cantidad de datos. En los fondos de cobertura, en transacciones de ventas en corto y en la valuación de derivados, los agentes cambian sus estrategias para mejorar sus beneficios, y con esto estar en posibi- lidades de mantenerse en el mercado, como consecuencia de encontrar métodos más precisos para pro- cesar volúmenes de información cada vez mayores, en el entendido que la información no se distribuye homogéneamente entre los participantes del mercado.En este artículo se formula un modelo híbrido de 3 etapas que consiste en el planteamiento de: un modelo de mercado para transacciones de alta frecuencia mediante procesos de Poisson compuestos no-estacionarios, un perceptrón multicapa entrenado con re- tro-propagación y finalmente estimadores basados en distribuciones alfα-estables, como un primer paso en el desarrollo de un sistema de operación para mercados con transacciones de alta frecuencia.

Palabras clave: procesos α-estables; procesos de Poisson compuestos no-estacionarios; perceptrón multicapa; mercados de alta frecuencia; Big Data

Códigos JEL: C14; C46; C61; D81; G12; G24

Abstract

Business activities require to obtain, organize and manage information from large amounts of data. In hedge funds, short selling trade and derivatives valuation, agents change their strategies to improve pro- fits, and therefore to increase their possibilities to remain in the market, as a result of finding more accu- rate methods to process ever larger volume of information, considering that the information is not evenly distributed among markets participants. In this paper, a hybrid three stage model is formulated consisting of: a high frequency market model through a non-stationary Compound Poisson Process, a multilayer perceptron trained by backpropagation and, finally, estimators based on alpha-stable distributions, as an initial overview to develop a high frequency trading market operating system.

Keywords: α-stable processes; non-stationary compound Poisson processes; multilayer Perceptron; High frequency markets; Big Data

JEL classification: C14; C46; C61; D81; G12; G24

Introducción

La capacidad de producir datos es mucho mayor que la capacidad para analizarlos y extraer de ellos información útil, en otras palabras, dado su gran volumen no pueden ser capturados, almacenados, manejados o analizados con procesos o herramientas tradicionales, por lo que deben crearse nuevas tecnologías que permitan un mejor aprovechamiento de éstos.

Entre las fuentes que generan datos se encuentran sensores, dispositivos inteligentes, medios sociales, usuarios de Internet, teléfonos inteligentes, aplicaciones computacionales, entre otros. Por ejemplo, un avión comercial genera a través de diferentes sensores 10 Terabytes (1 Terabyte = 1012 bytes) cada 30 minutos de vuelo (Oracle, 2012). Estas fuentes generadoras de datos están conectadas continuamente e intercambian información con otros dispositivos, los datos así creados, pueden llegar a ser útiles si son analizados utilizando los algoritmos y la tecnología adecuados (Kuznetsov et al. (2011)). El término Big Data empezó a utilizarse en los contextos de administración y manejo de información en bases de datos extremadamente grandes, como aquellos manejados por Google, Yahoo, Amazon o Facebook.

Los datos se consideran “grandes” en términos de volumen, velocidad, variedad y variabilidad (V4) Zikopoulus et al. (2013) y Vivísimo (2012). Respecto al volumen generalmente se manejan Zettabytes (1 ZB = 1021 bytes) en lugar de Terabytes (TB). Considerando que la información cambia de manera constante (en forma de streaming en lugar de batch), datos no-estructurados o semi-estructurados y diferentes aplicaciones pueden requerir métodos de acceso, protocolos de seguridad y mapeos distintos.

Existen algunos estudios que se han enfocado en diferentes aspectos de las transacciones de alta frecuencia. Labadie y Lehalle (2012) han estudiado medidas alternativas de riesgo para la optimización de los algoritmos de negociación. Por otra parte, Colliard y Foucalt (2012) analizan la relación entre el spread y la probabilidad de ejecutar las órdenes límite concluyendo que las operaciones HFT benefician a las órdenes de mercado, ya que se da una reducción en los costos de transacción de las mismas, y Menkveld (2013) caracteriza HFT mediante una estrategia de mercados cruzados considerando el mercado de estudio y un mercado pequeño de rápido crecimiento, y establece que se puede incurrir en pérdidas en el inventario que son compensadas con ganancias en el diferencial entre los precios de oferta y demanda.

Cada vez es más común encontrar estimaciones en tiempo real de precios y consumo, así como sistemas que mejoran el manejo de esta información. Por ejemplo, Google Trends mejora la capacidad predictiva de indicadores económicos de alta frecuencia a través de modelos auto-regresivos. Un ejemplo de lo anterior es el análisis, realizado entre 1991 y 2007, del comportamiento de las hipotecas individuales y los créditos e impagos por tipo de crédito. Antes de la burbuja inmobiliaria, los resultados mostraron que los condados con mayores restricciones de créditos, fueron aquellos en donde el número de créditos otorgados y los precios de la vivienda aumentaron más; después de la crisis, en esos mismos condados, los precios de los bienes inmuebles cayeron más y el número de impagos e incrementó. Se utilizaron 24 millones de créditos para analizar el impacto de la política monetaria en el supuesto de riesgo de las entidades financieras involucradas.

En los fondos de cobertura, las ventas en corto y la valuación de derivados, los agentes cambian sus estrategias para mejorar sus beneficios, y estar en posibilidades de mantenerse en el mercado, como consecuencia de encontrar métodos más precisos para procesar volúmenes de información cada vez mayores, en el entendido que la información no se distribuye homogéneamente entre los participantes del mercado.

Grandes volúmenes de datos propician ventajas ya que el acceso a éstos proporciona más información que se traduce en un proceso de toma de decisiones más robusto. Considerando lo anterior, los operadores de alta frecuencia analizan constantemente formas de obtener datos más precisos y manejables, de manera más rápida, incluso en escalas de milisegundos.

En los mercados financieros, el uso adecuado de la información permite obtener ventajas debido a que difícilmente se pueden encontrar mercados eficientes y sin fricciones. En la mayoría de los casos la información desempeña un papel crucial. Uno de ellos es el descubrimiento de precios, aquí la nueva información que llega al mercado influye en la determinación de precios. Lo anterior ocurre de manera muy marcada en los mercados de derivados, la nueva información se incorpora con gran celeridad, provocando incluso, que estos los mercados de derivados se consideren indicadores anticipados de los precios de las mercancías o de instrumentos subyacentes. Un gran número de técnicas se han utilizado para aprovechar la relación o incluso la integración que pueda existir entre diferentes mercados para el descubrimiento de precios, como Yan y Zivot (2007), que utilizan técnicas de cointegración para este fin. Sin embargo, en este trabajo, el uso de grandes volúmenes de información, más que dirigirse al descubrimiento de precios, se orienta al análisis del comportamiento de la información con un propósito predictivo.

Entre las principales características de los mercados electrónicos de alta frecuencia (HFT por su acrónimo en inglés, High Frequency Trading) cabe mencionarse que los distribuidores son anónimos y no obstante las operaciones se acumulan de manera continua, se desconoce cuántas transacciones agrega cada operador individual, únicamente se observan los volúmenes totales correspondientes a cada precio. Por cuestiones de regulación, los mercados de valores tienen un identificador por cada operador y por cada orden. Los mercados electrónicos presentan las siguientes características:

  1. Varios proveedores y operadores con órdenes límite.

  2. Varios consumidores y operadores con órdenes de mercado.

  3. Los operadores pueden pasar de ser proveedores a consumidores y viceversa.

  4. No existen distribuidores dedicados.

Considerando el contexto financiero en general y las características de los mercados electrónicos mencionadas anteriormente, la metodología que se plantea queda conformada como un modelo híbrido no tradicional, que incluye tres partes: un modelo de mercado para HFT que utiliza procesos de Poisson compuestos no-estacionarios; un perceptrón multicapa entrenado con retro-propagación; y finalmente estimadores basados en distribuciones alfa- estables. El objetivo de este trabajo es formular un modelo matemático en tres etapas bajo el supuesto que se utilizará en negociaciones de alta frecuencia, el cual tendrá el propósito de servir como el núcleo de un algoritmo predictivo para la toma de decisiones de HFT, partiendo del supuesto que los mercados financieros son altamente volátiles y, por lo tanto, se requiere de parámetros que sean monitoreados frecuentemente y ajustados de ser necesario.

Para lograr lo anterior, este trabajo quedó organizado de la siguiente forma: en la siguiente sección se presenta el modelo de transacciones de alta frecuencia mediante procesos de Poisson compuestos no-estacionario con medida de intensidad discontinua, en la tercera sección se desarrolla el modelo de red neuronal llamado Perceptrón multicapa (MLP) con cuatro salidas que permite identificar los parámetros de la distribución alfa-estable que se deben actualizar, en la cuarta sección se discuten procesos auto-similares ilustrándose la necesidad de contar con estimadores alfα-estables que se ajusten a lo largo del tiempo con un ejemplo predictivo para 2017 de las paridades del dólar estadounidense-euro con las cuales se calcularon parámetros fijos. En la última parte se ofrecen las conclusiones.

El modelo para mercados HFT

Considerando que el número de transacciones en un periodo determinado es un proceso de conteo, específicamente que es un proceso de Poisson con de tasa llegada variable la cual representa una función del tiempo, característica que permite modelar adecuadamente la especulación en mercados en donde los operadores pueden generar un número considerable de posturas y de transacciones de un producto específico, en diferentes momentos y con distintas frecuencias, este proceso de considero como la primera etapa del modelo híbrido propuesto.

Como se explicó anteriormente, dado que los mercados electrónicos, los inversionistas son anónimos y los datos en tiempo real son agregados. Todo lo que se observa son los volúmenes totales de cada precio y se desconoce cuántas posturas o activos agrega cada operador.

Para modelar el volumen se emplea la distribución empírica de las transacciones (en alguna unidad monetaria predeterminada) y el volumen total de operaciones en un horizonte de tiempo t es entonces Zt=Σn=0NtXn.

Definición 2.1. Un proceso estocástico es un proceso de conteo si:

  1. Nt ≥ 0.

  2. Nt toma valores enteros.

  3. Si s < t, entonces NsNt.

  4. Para s < t, Nt - Ns es el número de eventos que ocurrieron en el intervalo (s,t].

Definición 2.2. El proceso de conteo {Nt}t≥0 es un proceso de Poisson no estacionario con función de intensidad λ(t)>0, t ≥ 0 si:

  1. N0 = 0.

  2. {Nt}t≥0 tiene incrementos independientes.

  3. P(Nt+h -Nt ≥ 2) = o(h).

  4. P(Nt+h - Nt = 1) = λ(t)h + o(h)

Sea

a(t)=0tλtds, (1)

La medida de intensidad de {Nt}t≥0 .

Teorema 2.3. Sea {Nt}t≥0 un proceso de Poisson no estacionario y sean t,s≥0, entonces el proceso Nt-Ns se distribuye Poisson con esperanza a(t+s)-a(t).

La demostración se puede consultar en Hoyos-Reyes et al. (2011) al igual que la Proposición 2.4. El Teorema 2.3 implica que

Proposición 2.4. a(t) Es una función no decreciente y continua por la derecha.

Definición 2.5. La inversa de la medida de intensidad es:

a-1t=supsast. (2)

Se observa que a-1 es continua por la derecha. Si es continua, a-1 es creciente y

aa-1t=t,  t<a.(3)

Observación 2.6. Si se considera a N un proceso de Poisson no estacionario con medida de intensidad a continua con a(∞) = ∞. Como a-1 es creciente. Ṉ := N ◦ a-1 presenta incrementos independientes. El Teorema 2.3 implica que t -s = Na -1(t) - Na-1 (s) se distribuye Poisson con esperanza

aa-1t-aa-1s=t-s. (4)

Entonces el proceso de conteo es un proceso de Poisson estacionario con λ = 1.

Por la Proposición 2.4, se tiene que es necesariamente no decreciente y continua por la derecha, luego el límite por la izquierda

a(t)=limst=t-s. (5)

Existe para toda t. Suponiendo que para un punto particular t, a() ≠ a(t), y que además se tiene que α := a(t) - a() Entonces el número de arribos Nt -N presenta, por el Teorema 2.3, esperanza α. Aplicando la Definición 2.2 en particular los incisos 3 y 4, se tiene que Nt -N es binario: 0 o 1, entonces:

ENt-Ntˉ=0PNt-Ntˉ=0+1P(Nt-Ntˉ=1)=PNt-Ntˉ=1=at.atˉ=α. (6)

Se puede pensar en el punto t como el momento en que un arribo está programado y que puede llegar con probabilidad α y con probabilidad 1 - α complementaria no llegar. Si α tiene saltos de magnitudes α1, α2,… en los tiempos fijos t1, t2 ,…, entonces del análisis anterior existe un arribo exactamente en ti con probabilidad α1, t1, t2 ,…,.

Observación 2.7. Un proceso Poisson no estacionario N t se puede interpretar como la suma de dos procesos de conteo,

Nt=Ntf+Ntc, t0, (7)

Los tiempos de salto Ntf son fijos, estos son los puntos de discontinuidad de a y la probabilidad de que ocurra un salto en el momento fijo t es a(t) - a(). Si se define af (t).como la suma de todos los saltos de a en [0,t] , es decir:

af=stas-as- (8)

Entonces

act=at-aft,  t0, (9)

Es una función continua no decreciente y el segundo componente en la descomposición (7) es un proceso de Poisson no estacionario con medida de intensidad ac. Esto permite formular algoritmos (Hoyos-Reyes et al. 2011) para estimar mediante métodos de Monte Carlo:

  1. P(Zt < θsup) representa la probabilidad de que el volumen total de operaciones supera el umbral mínimo.

  2. P(Zt > θinf) representa la probabilidad de que el volumen total de operaciones esté por debajo del umbral máximo θsup

  3. EZt representa la esperanza del proceso.

El uso de un proceso de Poisson compuesto, tiene una ventaja adicional: si los tiempos entre transacciones no siguen una distribución exponencial es posible generalizar el modelo a un proceso de renovación con la distribución adecuada para los tiempos entre transacciones.

Perceptrón multicapa

El perceptrón multicapa (Multilayer Perceptron, MLP, por sus siglas en inglés) es una arquitectura de redes neuronales bastante conocida y utilizada, es alimentada con los tres estimadores, P^Zt>qinf, P^(Zt<qsup),y E^Zt de la sección anterior. Este tipo de redes tienen la capacidad de generalizar y de obtener rápidamente un resultado, incluso para situaciones que no se presentaron en la etapa de entrenamiento; estas particularidades resultan importantes y consistentes con las características V4 (volumen, velocidad, variedad y variabilidad) de los datos. La idea detrás del uso del perceptrón es que éste permitirá emplear estimadores actualizados, a diferencia de los estimadores con parámetros fijos, los cuales hacen que el modelo pierda precisión y, después de cierto tiempo de uso, que se produzcan errores significantivos. Por otra parte, el uso del perceptrón permite evitar las desventajas que tiene el uso de estimadores dinámicos, mismos que deben actualizarse cada cierto tiempo fijo previamente especificado, lo cual provoca que el algoritmo se vuelva ineficiente, situación que es incompatible con la naturaleza de los mercados de alta frecuencia. El perceptrón, al ser susceptible de ser entrenado, reconoce el parámetro o parámetros que requieren de actualización por la unidad de tiempo, lo cual hace que se modifiquen únicamente aquellos estimadores que lo necesiten, evitándose así, por una parte, las pérdidas de tiempo que se dan con el uso de estimadores dinámicos y, por otra, hace que el modelo sea más preciso que un modelo con estimadores fijos.

La estructura es sencilla y consta de tres capas de neuronas: capa de entrada, capas ocultas y capa de salida. Las funciones de activación pueden ser: tangente hiperbólica, sigmoidea o función escalón. La capa de entrada tiene tres entradas, una para cada estimador calculado.

De acuerdo con Hetch-Nielsen (1990) el número de neuronas en la capa oculta no requiere ser mayor que dos por el número de entradas.

Empleando el teorema de White y Gallant y formulado por Kur Hornik (1989) que establece que dos capas ocultas pueden representar funciones con cualquier forma, lo que implica que es redundante emplear redes con más de dos capas ocultas.

La arquitectura del MLP consta por lo tanto de una capa de entrada de 3 neuronas, dos capas ocultas de 3 neuronas cada una y una capa de salida de 4 neuronas (una para cada parámetro de las distribuciones α-estables αtttt).

El tamaño de la muestra para la base de datos de entrenamiento, Baum y Haussler (1989) sugieren que el número de ejemplos de entrenamiento es aproximadamente igual al número de pesos en la red multiplicado por el inverso del error, donde generalmente ε = 0.1 es el error empleado.

El algoritmo de entrenamiento para la MLP (3, 3, 3,4) es el de Retro-propagación (Backpropagation) que reduce el error cuadrático medio (MSE) de las salidas generadas respecto a las salidas reales.

De esta manera se logra que sólo los estimadores que así lo requieran sean actualizados. Formalmente, la salida indica el parámetro o los parámetros por actualizar en la distribución α-estable, por ejemplo: si es (1, 0, 0,0), se requiere actualizar αt , si es (1,1,1,1) todos los parámetros de la distribución (αt , βt , γt , δt) requieren actualizarse.

Distribuciones α-estables

El utilizar parámetros estimados con distribuciones α-estables permite detectar si los procesos son autosimilares y antipersistentes, lo cual es consistente con memoria de corto plazo, reversión a la media, correlación negativa y variación elevada. Estas características hacen que las distribuciones α-estables sean ideales para ser usadas en mercados con turbulencias y alta volatilidad, como suelen presentarse en los mercados financieros.

Definición 4.1. (Proceso auto-similar). El proceso X(t) es auto-similar con exponente H > 0 , si para toda a ϵ (0, ∞), las distribuciones finito-dimensionales de X(at) son idénticas a las distribuciones finito-dimensionales de aHX(t):

Xat1,K ,Xatnd__aHXt1K ,aHXtn (10)

Climent et. al. (2016) proponen que la relación entre el parámetro de estabilidad y el exponente de auto-similitud genera el índice que permite inferir el riesgo de eventos aleatorios α-estables e indica si los rendimientos son anti-persistentes, independientes o persistentes y representan movimientos con ruido rosa, blanco o negro, respectivamente. Estas características se pueden relacionar con series de periodos instantáneos para la valuación de instrumentos en tiempo real lo que permite que el Big Data tenga aplicaciones útiles en la ingeniería financiera, la administración de riesgos y la valuación de productos derivados en mercados con operaciones de alta frecuencia (HFT). Los autores analizan los rendimientos de las paridades de los tipos de cambio dólar estadounidense, dólar canadiense, Euro y Yen, estiman los estadísticos básicos, los parámetros α-estables, realizan las pruebas de bondad de ajuste Kolmogorov-Smirnov y Anderson-Darling, estiman los exponentes de auto-similitud, descartando que las series de las paridades sean multi-fraccionarias, estiman los intervalos de confianza de las paridades de los tipos de cambio y concluyen que las distribuciones α-estables estimadas son más eficientes que la distribución gaussiana para cuantificar los riesgos del mercado porque la distribución gaussiana es un caso particular de las distribuciones α-estables, las series son auto-similares e indican que los rendimientos de las paridades son anti-persistentes por lo que presentan memoria de corto plazo, reversión a la media, correlación negativa con riesgo elevado en el corto y mediano plazo. Rodríguez (2014) indica la utilidad de la estimación del parámetro de estabilidad de las distribuciones α-estables y del exponente de auto-similitud para estudiar la violación de supuestos a priori de distribución gaussiana e independencia, identifica características leptocúrticas en el tipo de cambio FIX; estima el exponente de Hurst y rechaza la hipótesis de independencia en el 80% de los periodos; estima el parámetro de estabilidad; y concluye que a través de un índice se mejora el modelado de series financieras.

En la sección anterior se menciona que la dinámica de los parámetros es fundamental para obtener cuantificaciones adecuadas de los riesgos financieros. Los exponentes de auto-similitud de las paridades de los tipos de cambio dólar estadounidense y euro se estimaron a través del exponente de Hurst generalizado (EHG) como proponen Climent et. al. (2016) utilizando datos de las paridades diarias de los tipos de cambio FIX obtenidas de la página del Banco de México (Banxico) del 2 de enero de 2014 al 30 de noviembre de 2016 y se concluye que las paridades son anti-persistentes porque no presentan los rendimientos esperados por series α-estables con .ℵ = αH > 1. Los estimadores obtenidos presentaron rendimientos esperados positivos de acuerdo con el promedio y el parámetro de localización con tendencia positiva, pero con reversión a la media, es decir, ℵ = αH <1.

Las estimaciones de los parámetros muestran que los dominios de atracción son α-estables, los exponentes de auto-similitud calculados a través del EHG indican que los procesos son auto-similares y anti-persistentes por lo que presentan memoria de corto plazo, reversión a la media, correlación negativa y variación elevada, con riesgo elevado en el corto y mediano plazo porque están relacionados con procesos de turbulencia (ruido rosa) que son consistentes con los resultados obtenidos por Climent et. al. (2016).

La actualización de los parámetros α-estables es fundamental para obtener estimaciones adecuadas de los riesgos financieros involucrados. En la Figura 1 se muestra un intervalo al 99% de nivel de confianza con parámetros α-estables fijos para la paridad de los tipos de cambio dólar estadounidense y del Euro para el periodo del 30 de noviembre de 2016 al 25 de diciembre de 2017, considerando los parámetros α-estables estimados con los rendimientos del periodo del 2 de enero de 2014 al 30 de noviembre de 2016 utilizando los datos de las Tablas 1, Tabla 2 y Tabla 3:

Figura 1: MLP (3, 3, 3,4) 

Tabla 1 Exponentes de auto-similitud y parámetros de estabilidad 

Paridad Min EHG(1) Max
DEUA 0.5058 0.5202 0.5588
Euro 0.4881 0.5082 0.5413
Paridad Min α Max
DEAU 1.6095 1.7181 1.8267
Euro 1.5942 1.7043 1.8144

Fuente: Elaboración propia con datos de Banco de México

Tabla 2 Paridades de los tipos de cambio y tasas de interés libres de riesgo. 

DEUA Euro
M0 20.5155 21.8418
i 0.0517 0.0517
r 0.0070 0.0125

Fuente: Elaboración propia con datos de Banco de México, Federal Reserve y www.google.com.mx

Tabla 3 Estimación de los parámetros α-estables de las paridades. 

Paridad α β γ δ
DEUA 1.7181 0.0447 0.00408471 0.000585076
Euro 1.7043 0.0101 0.00485289 0.000194362

Fuente: Elaboración propia con datos de Banco de México y el programa STABLE.

En la Tabla 1 se muestran los exponentes de auto-similitud a través del EHG (q) donde se muestra el exponente para q=1 y los mínimos y máximos se obtienen a través de las regresiones para t = 5, ..., 19 y se muestran los parámetros de estabilidad con intervalos de confianza del 95%.

Las estimaciones de los exponentes de auto-similitud obtenidos por el método EHG (1) tienen el valor esperado E(H) = α-1 como límite entre anti-persistencia y persistencia de los procesos α-estables a través del par (α,H) y saber si el proceso es anti-persistente, independiente o persistente y en ambos casos, las paridades del dólar estadounidense - euro son anti-persistentes.

Los parámetros α-estables presentados en la Tabla 1 son consistentes con los resultados obtenidos y presentados en las investigaciones de Dostoglou y Rachev (1999), Čížek et al. (2005), Scalas y Kim (2006), Climent-Hernández y Venegas-Martínez (2013), Climent- Hernández y Cruz-Matú (2017) y Climent-Hernández et. al. (2016).

En la Tabla 2 se muestran las paridades de los tipos de cambio en la fecha 30 de noviembre de 2016, las tasas de interés libres de riesgo nacional y extranjeras con las que se calculan los intervalos de confianza al 99% para el periodo del 30 de noviembre de 2016 al 30 de noviembre de 2017.

La Tabla 3 muestra la estimación de los parámetros α-estables para las paridades de los tipos de cambio del dólar estadounidense y euro a través del método de verosimilitud máxima.

En la Figura 1 se muestran los intervalos de confianza α-estables al 99% para el periodo del 30 de noviembre de 2016 al 30 de noviembre de 2017 donde se observa que el Euro es más volátil que el dólar estadounidense. También se presentan los promedios de diez mil simulaciones con los parámetros α-estables para las paridades de los tipos de cambio mencionados, donde se observa que la asimetría positiva modela la depreciación de la moneda nacional con respecto al dólar estadounidense y euro.

Fuente: elaboración propia.

Figura 2 Intervalos de confianza α-estables al 99% 

Climent et. al. (2016) indican que las distribuciones α-estables son más adecuadas para modelar series financieras con cúmulos de volatilidad elevada, valores extremos que presentan mayor frecuencia que la indicada por la distribución gaussiana y que tienen un impacto financiero y económico de mayor cuantía con respecto a estados de resultados probables derivados de los rendimientos, satisfaciendo el teorema del límite central generalizado donde la distribución gaussiana es un caso particular que no puede modelar adecuadamente los valores extremos y la asimetría, además de que, las distribuciones α-estables permiten estimar más precisa los intervalos de confianza para los proyectos de ingeniería financiera y administración de riesgos utilizando la relación entre el parámetro de estabilidad y el exponente de auto-similitud.

Las estimaciones de los parámetros α-estables y los exponentes de auto-similitud permiten inferir eficientemente los riesgos financieros de forma adecuada por lo que es importante tener la certeza de que los dominios de atracción α-estables son estacionarios a través de la propuesta del modelo híbrido que permite revisarlos mediante del perceptrón propuesto en este trabajo, y que en investigaciones futuras puede ser validado.

Conclusiones

Conforme la cantidad de datos digitales se incrementa y éstos alimentan a los distintos sistemas de Big Data se requiere crear sistemas con capacidad de realizar estimaciones y aproximaciones que permitan determinar, con cierto grado de precisión, la cantidad de información que se maneja en diferentes periodos. En este sentido, también es de gran utilidad la creación de estándares y formatos que permitan el almacenamiento, cómputo y análisis de la información que manejan diferentes organizaciones con fundamento en las necesidades específicas. El modelo aquí propuesto satisface la necesidad de un modelo más eficiente que detecte cuándo y qué parámetros requieren ser ajustados.

Para poder analizar y tomar decisiones en mercados de alta frecuencia es necesario desarrollar e implementar algoritmos de análisis escalables para sistemas distribuidos y tolerantes a fallas. El uso en tiempo real y una explotación inteligente y completa del Big Data son enfoques recientes en el análisis de escenarios y la toma de decisiones en el contexto estudiado.

El modelo híbrido propuesto facilita la sistematización de la información para obtener resultados significativos para la toma de decisiones. Constituye un modelo versátil, ya que su aplicación no se limita al mercado de divisas, sino, como se explicó anteriormente, el modelo propuesto puede utilizarse en todo tipo de mercados financieros y para la valuación de productos derivados. Las grandes ventajas del modelo híbrido propuesto es que evita que se desperdicien recursos, al tener la capacidad tanto de detectar los parámetros que requieren ser modificarlos, como de realizar los ajustes necesarios. Esta característica es su principal contribución y también constituye la característica que lo diferencia de otros modelos usados para el manejo de grandes volúmenes de información.

Como se mencionó anteriormente, la formulación del modelo contribuye con la propuesta de una metodología híbrida para el manejo de grandes volúmenes de información en mercados que tradicionalmente se han caracterizado por mantener un bajo nivel de divulgación de su metodología, como es el caso de los mercados en donde se manejan transacciones de alta frecuencia, HFT, permitiendo con esto abrir la discusión sobre la formulación y aplicación nuevas metodologías. Este es un modelo híbrido en más de un sentido. Por una parte, se emplean procesos estocásticos con comportamiento no estacionario en el volumen de las transacciones, por otro, las redes neuronales permiten obtener resultados cualitativos que pueden ser explotados en modelos predictivos de distribuciones alfa-estables con actualización neuronal de parámetros. De tal manera que esta formulación teórica sirva de base para la creación de líneas de investigación empíricas que implementen el modelo propuesto.

Referencias

Baum, E.B., Haussler, D., (1989). What size net gives valid generalization? Neural Computation, Santa Cruz, CA. [ Links ]

Banco de México (2016). Información estadística, disponible en: Información estadística, disponible en: http://www.banxico.org.mx/SieInternet/consultarDirectorioInternetAction.do?sector=6&accion=consultarCuadro&idCuadro=CF307&locale=es . Consultado: 1/12/2016. [ Links ]

Čížek, P., W. Härdle & R. Weron (2005). Stable Distributions. Statistical Tools for Finance and Insurance. Berlin, Springer: 21-44. http://dx.doi.org/10.1007/3-540-27395-6_1Links ]

Climent-Hernández, J. A. & F. Venegas-Martínez (2013). Valuación de opciones sobre subyacentes con rendimientos α-estables, Contaduría y Administración, 58(4):119-150. https://doi.org/10.1016/s0186-1042(13)71236-1Links ]

Climent-Hernández, J. A. & C. Cruz-Matú (2017). Valuación de un producto estructurado de compra sobre el SX5E cuando la incertidumbre de los rendimientos está modelada con procesos log-estables, Contaduría y Administración, 62(4): 1136-1159. https://doi.org/10.1016/j.cya.2017.06.004Links ]

Climent-Hernández, J. A., Rodríguez-Benavides, D., & Hoyos Reyes, L. F., (2016). Los procesos α-estables y su relación con el exponente de auto-similitud: paridades de los tipos de cambio Dólar americano, Dólar canadiense, Euro y Yen, Contaduría y Administración, Publicación próxima. https://doi.org/10.1016/j.cya.2017.09.003Links ]

Colliard Jean-Edouard & Foucalt T. (2012). “Trading fees and efficient in limit orders markets”, The Review of Financial Studies, 25 (11), pp. 3389-3421. https://doi.org/10.1093/rfs/hhs089Links ]

Dostoglou, S. & S. T. Rachev (1999). Stable Distributions and Term Structure of Interest Rates, Mathematical and Computer Modelling, 29(10):57-60. https://doi.org/10.1016/s0895-7177(99)00092-8Links ]

Hetch-Nielsen, R. (1990). Neurocomputing. Addison-Wesley Publishing Company. [ Links ]

Hornik, K., Stinchcombe, M., & White, H. (1989). Multilayer feedforward networks are universal approximators. Neural Networks, 2(5), 359-366. https://doi.org/10.1016/0893-6080(89)90020-8Links ]

Hoyos-Reyes L.F., Martínez-Preece M., & López-Herrera F., (2011). Estimación de la probabilidad de ruina en tiempo finito bajo un proceso de Poisson no estacionario con medida de intensidad discontinua. Capítulo del libro Administración de Riesgos. Volumen III. Modelos y entorno financiero. Páginas 231-244. Serie Estudios, UAM-AZCAPOTZALCO. ISBN 978-607-477-570-9. México. [ Links ]

Kuznetsov, A., Kyprianou, A. E., Pardo & J. C., van Schaik, K., (2011). A Wiener-Hopf Monte Carlo simulation technique for Levy processes. The Annals of Applied Probability, 21 (6): 2171-2190. Institute of Mathematical Statistics. https://doi.org/10.1214/10-aap746Links ]

Labadie, M. & L. Charles-Albert (2012). Optimal starting times, stopping times and risk measures for algorithmic trading. <hal-00705056>. Disponible en: Disponible en: https://hal.archives-ouvertes.fr/hal-00705056/ . Consultado: 24/02/2017. [ Links ]

Menkveld, Albert J. (2013). High frequency trading and new market makers. Journal of financial Markets, 16 (4), pp. 712-740. https://doi.org/10.1016/j.finmar.2013.06.006Links ]

Oracle (2012) Oracle information Architecture: An Architect’s Guide to Big Data. http://www.oracle.com/technetwork/topics/entarch/articles/oea-big-data-guide-1522052.pdf . Consultado: 11/04/2013. [ Links ]

Rodríguez Aguilar, R. (2014). El coeficiente de Hurst y el parámetro a-estable para el análisis de series financieras: Aplicación al mercado cambiario mexicano, Contaduría y Administración, 59(1):149-173 https://doi.org/10.1016/s0186-1042(14)71247-1Links ]

Scalas, E. & K. Kim (2006). The Art of Fitting Financial Time Series with Levy Stable Distributions, Munich Personal RePEc Archive August (336):1-17. https://mpra.ub.uni-muenchen.de/336/ . Consultado: 8/2/2012. [ Links ]

Shen, J., & Yu, Y. (2014). Styled Algorithmic Trading and the MV-MVP Style. Available at SSRN 2507002. [ Links ]

Vivísimo (2012). Optimizing Big Data, http://www.fstsummit.com/media/whitepapers/2012/Vivisimoi.Optimizing_Big_Data.pdf. Consultado: 11/04/2013. [ Links ]

Yan, Bingcheng & Zivot, Eric, The Dynamics of Price Discovery (2007). AFA 2005 Philadelphia Meetings. Disponible en SSRN: Disponible en SSRN: https://ssrn.com/abstract=617161 . Consultado: 23/02/2017. Disponible en SSRN: https://ssrn.com/abstract=617161. Consultado: 23/02/2017. http://dx.doi.org/10.2139/ssrn.617161 . [ Links ]

Zikopoulos, P.C., deRoos, D., Parasuraman, K., Deutsch, T., Corrigan, D. & Giles, J., (2013). Harness the Power of Big Data. The IBM Big Data Platform. McGraw-Hill. [ Links ]

La revisión por pares es responsabilidad de la Universidad Nacional Autónoma de México.

Recibido: 14 de Diciembre de 2016; Aprobado: 06 de Marzo de 2017

*Autores para correspondencia. Correo electrónico: jach@azc.uam.mx (J. A. Climent Hernández)

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons