1. Introducción
La metodología analítico-reduccionista con la que tradicionalmente se ha abordado la descripción y estudio de las fluctuaciones de precios de series de tiempo bursátiles (Bachelier 1900; Working 1934; Kendall 1953; Osborne 1959, 1962; Samuelson 1969; Fama 1965, 1970; Sharpe 1963, 1964; Jensen 1967) ha dejado fuera del espectro de observación y por lo tanto, sin explicación, algunas de las características más interesantes del fenómeno al considerarlas como anomalías (Cootner, 1962; Malkiel, 1973; Sharpe, 1991) debido a que no se ajustan a una densidad de distribución normal y que no cumplen los postulados de una marcha aleatoria tipo Wiener con propiedad de Markov, generada por agentes racionales homogéneos en respuesta al flujo de información exógena (Marschak, 1950).
Proponemos que: la distribución de colas pesadas (Mandelbrot, 1962, 1963), los cúmulos de alta volatilidad que alternan con periodos de baja volatilidad (Shiller, 1981, 1989; Engle, 1982; Bollerslev 1986; Mehra 1998), la no estacionariedad de los parámetros estadísticos (Stanley, 1996; Mantegna, 2000; Chen, 2002; Kantelhardt, 2002), la característica estructura multifractal de las series de tiempo bursátiles (Peters, 1994; Mandelbrot, Fisher y Calvet, 1997; Bouchaud, 2000; Calvet, 2002; Liu, 2007; Balankin, 2007; Morales, 2013), los recurrentes descalabros que sufren los mercados desde el Siglo XVII (Kindle-berger 2005; Sornette, 2003) y la inestabilidad financiera (Minsky, 1992), sean considerados como procesos estructurales que requieren ser explicados.
Varios autores (Mandelbrot, 1968, 1971; Green, 1977; Lo, 1988, 1991, 1999; Kovács, 2013) han probado la hipótesis de que las fluctuaciones de precios tienen memoria de corto, medio y largo plazo. Sin embargo, los hallazgos han sido contradictorios para plazos mayores a pocas horas o días. En cambio, se ha mostrado consistentemente la existencia de memoria de largo plazo en la volatilidad de las series de tiempo (Ding, 1993; Bollerslev, 1986; Eitelman, 2008).
En este trabajo se ha optado por abordar las fluctuaciones de precios con visión sistémica en un intento por explicar las supuestas “anomalías”, como fenómenos emergentes (Anderson 1998; Arthur 1999, 2013). Para ello, se ha tomado como objeto de estudio el conjunto de caídas observadas en una amplia muestra de series de tiempo de índices bursátiles internacionales.
En la Discusión General, sección 2, se plantean los antecedentes y el contexto epistemológico y conceptual dentro del cual se realizó este trabajo. En la sección 3, se describe la ley de potencia, se comenta de qué manera se relaciona esta forma de comportamiento de las variables con la auto-organización en sistemas complejos adaptativos y cómo esto puede explicar cierta forma de comportamiento de las series de tiempo financieras. En la sección 4, se muestra la metodología utilizada en este trabajo para identificar las caídas de precios y en la sección 5, se indican los parámetros que fue necesario calcular. En la sección 6, se presentan los resultados obtenidos y en la sección 7, se sugieren varias aplicaciones prácticas derivadas de los hallazgos. Por último, en la sección 8, se da sustento a las conclusiones, contrastándolas de manera crítica con los modelos convencionales en uso.
2. Discusión General
El camino recorrido para explicar y modelar las fluctuaciones de precios en los mercados financieros, uno de los fenómenos más complejos que podemos imaginar, ha sido arduo y valientemente emprendido por titanes de la estatura de Bachelier, Working, Marschak, Samuelson, Sharpe y otros. Con visión reduccionista, basada en supuestos fuertemente restrictivos y carentes de realismo, su obra no obstante dio frutos jugosos en la segunda mitad del Siglo XX y creó un marco teórico elegante, puro, bello, intemporal y en equilibrio. Sin embargo, quizás ha llegado el momento de liberar dichos supuestos para acercarnos más al fenómeno como es: orgánico, dinámico, inestable, accidentado, discontinuo, parcialmente auto-generado, difuso, capaz de sufrir crisis de origen endógeno y en estado permanente de innovación (Bachelier, 1900; Working, 1934; Marschak, 1950; Osborne, 1959; Samuelson, 1969; Sharpe, 1963).
Conceptos como holismo, entropía, sistemas abiertos, estados alejados del equilibrio, auto-organización, bucles de retroalimentación positiva y no linealidad, característicos del abordaje a la complejidad, han sido paulatinamente introducidos en el discurso teórico de la economía y las finanzas. Estos conceptos ofrecen alternativas más verosímiles que los paradigmas neoclásicos y permiten liberar las restricciones no sólo in-verosímiles sino ocasionalmente absurdas, como la perfecta racionalidad de los agentes económicos, su interés egoísta en busca de maximizar las utilidades y la supuesta homogeneidad en sus expectativas (Anderson 1998; Arthur, 1988, 1999, 2013; Holland, 1988, 1998; Farmer y Lo, 1999; Bouchaud y Potters, 2003; Beinhocker, 2006; Nicolis, 2011; Sornette, 2013).
En el modelo convencional se consideró que los inversionistas tendrían acceso irrestricto a información simétrica a la que habrían de responder de manera instantánea y sin sesgos. Al mismo tiempo, se les ubicó en un medio en el que los rendimientos futuros eran independientes de su trayectoria pasada y en el que los precios seguirían una marcha aleatoria. Todos estos supuestos apriorísticos fueron diseñados ad hoc para permitir el análisis matemático simple, pero resultan inaceptables para abordar el grado de complejidad que tienen los mercados financieros.
En la etapa “moderna” (posterior a 1980) ha sido relevante la critica a esos modelos liderada por pioneros de gran creatividad y originalidad como Benoit Mandelbrot, Robert Shiller y Nassim Taleb, entre otros, quienes han sometido a juicio los paradigmas consagrados por la academia y han abierto nuevos senderos de investigación en la modelación del fenómeno bursátil (Mandelbrot, 1997, 2004; Shiller, 2000; Taleb, 2005, 2007).
La hipótesis de eficiencia de los mercados defendida a capa y espada por Fama (1965, 1970, 2009) 1 ha sido particularmente cuestionada por Summers, Shleifer, Lo y MacKinlay, Sheikman, LeBaron y muchos otros, quienes han propuesto explicaciones tentativas a las variadas y frecuentes inconsistencias y violaciones de los paradigmas del mercado eficiente detectadas de manera empírica (Summers, 1986; Sheikman, 1989; LeBaron, 1994; Vandewalle, 1998; Lo, 1999; Shleifer, 2000; Johnson, 2003).
La perfecta racionalidad de los agentes, la independencia en sus decisiones y la homogeneidad en sus expectativas han sido atacadas en el trabajo de economistas y psicólogos destacados como Herbert A. Simon, Gerd Gigerenzer y Steven Pinker, entre otros, al ofrecer como alternativa el concepto de racionalidad acotada o bounded rationality (Simon, 1990, 1991; Gigerenzer, 2001, Pinker, 1997).
El trabajo de estos investigadores se extiende en la disciplina que conocemos como Behavioral Economics desarrollada por Daniel Kahneman (1979, 1982, 2003), Amos Tversky (1974), Paul Slovic (1987, 1993), Richard Thaler (1985, 1993, 1999, 2005), Robert Shiller (2000) y otros (Gilovich, 1985, Gaffeo, 2008; Akerlof y Shiller, 2009). Con una visión más realista de la conducta de los agentes, estos autores han invitado al discurso a un homo economicus diverso, caprichoso, brillante, pero a veces errático; apasionado, temeroso, ambicioso y a veces altruista; influenciable, pero con voluntad propia, más parecido al humano que todos conocemos que al demonio de Laplace o a un androide omnisapiente y preciso, carente de emociones y de sentimientos y capaz de proezas de cálculo instantáneo (Schirrmacher, 2013).
El trabajo de los “behavioristas” ha atacado frontalmente el proceso de la toma de decisiones de los agentes en condiciones de incertidumbre y ha puesto al descubierto la existencia de múltiples sesgos reconocibles en la forma de proceder de los inversionistas, entre los que destacan la distorsión por encuadre, el sesgo de disponibilidad y de confirmación, la falacia del costo perdido, la confianza excesiva en los pronostico elaborados y las estrategias utilizadas, el sesgo de estatus quo, el efecto de merecimiento, la toma de decisiones heurística (técnicas simples basadas en la experiencia) y muchas otras condiciones de racionalidad cuestionable que pudieran no resultar en el mejor interés financiero de quien las toma (Belsky y Gilovich, 2000).
Cuando hemos señalado la llamada “elección racional” nos referimos a la maximización de la utilidad esperada mediante la elección de la mejor opción entre todas las alternativas disponibles, dentro de ciertas restricciones económicas. La crítica que hacemos a dicha postura no implica que los agentes no tengan como intención ser plenamente racionales, sino que debido a hechos como la imposibilidad de que la distribución de la información sea instantánea, perfectamente simétrica y libre de costo, la ambigüedad ocasional de la propia información, la arquitectura cognitiva y emocional que poseen los humanos quienes frecuentemente fallan y no necesariamente toman sus decisiones pensando en maximizar el beneficio económico personal, los rezagos que ocurren en distintos nodos o escalas del sistema, hacen que esa idealización sea inalcanzable en la práctica, lo que, nos atrevemos a decir, ciertamente se nota (Grossman, 1980; Summers, 1986; Jones, 1999; Schirrmacher, 2015).
Sin duda que lo que la economía conductual (behavioral economics) nos enseña, a nivel de cada agente, que toma decisiones es importante, pero no basta para explicar el resultado agregado de la participación coordinada de todos los agentes, cada uno con sus idiosincrasias y peculiaridades. Al modelar el fenómeno bursátil, buscamos construir ese puente que conduzca desde el nivel micro, es decir, desde los agentes individuales falibles y con capacidades limitadas, responsables de la operación bursátil, hasta el resultado (output) observado a nivel macro, esto es, las fluctuaciones de precios con sus características estilizadas. Consideramos dicho output no como la suma del efecto de las partes (suma que según el modelo convencional es insesgada y capaz de corregir cualquier error en la decisión de cada agente individual), sino como algo más rico y orgánico que confiere propiedades novedosas al sistema en su conjunto; algo que no puede explicarse, preverse ni derivarse a partir de las propiedades y acciones de los agentes individuales.
Entendemos que las fluctuaciones de precios resultan de la rica interacción entre agentes autónomos, estructuralmente dispuestos en estratos sucesivos de organización (especuladores, inversionistas, arbitradores, asesores y analistas, market-makers, brokers-dealers, casas de bolsa, mercados locales, mercados nacionales, etc.), interconectados en una red en la que se comparte información de todo tipo y cuya respuesta puede ser estereotípica o más o menos independiente de la de otros agentes, pero siempre exenta de un control central (Cutler, 1990; Delli Gatti, 2010).
Asumimos que los agentes son similares pero heterogéneos en muchos aspectos, entre los que destacan: los objetivos o propósitos que persiguen individualmente (motivación, incentivos, metas); las expectativas que tienen sobre el devenir de la economía y de los precios de los activos financieros en los que invierten; el marco temporal de observación y en el que actúan; las estrategias de inversión y de administración del riesgo que utilizan; la información a la que están expuestos; aquella información que consideran relevante y a la que reaccionan; la interpretación que hacen de la información percibida; el grado de aversión al riesgo que tienen en cada momento; la cantidad de recursos de que disponen para invertir; el grado de exposición que tienen en el mercado en un momento dado; las políticas de inversión a las que está sujeta cada cartera; los costos de operación que tienen que cubrir; los resultados previos obtenidos siguiendo una estrategia dada y la susceptibilidad a ser influenciados por otros agentes que operan en su entorno, por mencionar los más relevantes.
Los nuevos caminos recorridos recientemente para modelar al fenómeno bursátil están relacionados con dos vertientes principales: A) la identificación y descripción de la microestructura estilizada de las series de tiempo de los precios de activos y de las propiedades fractales de dichas series, ámbito en el que vuelve a destacar la obra de Benoit Mandelbrot acompañado por un grupo creciente de autores (Mandelbrot, 1997; Peters, 1994; Mantegna, 1995, 2000; Vandewalle, 1998; Stanley, 1999; Mantegna y Stanley, 1996; Ausloos, 2002; Calvet, 2002; Alvarez-Ramírez, 2002; Kentelhardt, 2002; Balankin, 2003, 2007; Kim, 2004; Borland, 2005; Bouchaud, 2008; Morales O, 2002, 2005; Sornette, 2003; Muzy, 2000, 2006; Rodelico, 2012; Morales R, 2013) y B) la simulaciones basada en agentes, mediante la cual se construye un mercado sintético siguiendo las enseñanzas del modelo de segregación de Thomas Schelling (1969), es decir, dotando a los agentes individuales con las características heterogéneas que se desea investigar y permitiendo que la libre interacción de los agentes genere como resultado fluctuaciones de precios con las características estilizadas encontradas en la realidad (Holland 1991; Arthur, 1997; Page, 1997; Lux, 2000; Giardina, 2002; Delli Gatti, 2003; LeBaron, 2005; Tesfatsion, 2005; Macal & North, 2005; Hommes, 2005; Farmer, 2009). En este trabajo hemos optado por la primera forma de abordaje y los resultados nos ayudan a definir el camino que debemos seguir si decidimos abordar el segundo método.
3. Ley de Potencia y Auto-Organización.
Al buscar relacionar la distribución de colas pesadas y las propiedades de geometría fractal de las series de tiempo, con los cúmulos de alta volatilidad, la capacidad de auto-organización y las propiedades emergentes de los sistemas complejos adaptativos, hemos explorado la posibilidad de encontrar en las fluctuaciones más profundas o colas de las caídas de precios una forma de distribución llamada ley de potencia o ley de Zipf, dada la ubicuidad de ese tipo de distribución en fenómenos con propiedades estadísticas como las que encontramos en los mercados.
En 1949, el filólogo norteamericano George Zipf descubrió que al ordenar por su tamaño (valor de capitalización) las corporaciones estadounidenses, de la mayor a la menor, el tamaño s(n) de la na empresa más grande era inversamente proporcional al lugar que ocupaba en la serie de manera aproximada en la forma s(n) ∼ 1/n. Previamente este mismo autor había encontrado que la frecuencia de distribución de las palabras en un texto dado seguía la misma regla (Zipf, 1949). Esta forma de distribución es conocida ahora como la ley de Zipf. Medio siglo antes el ingeniero, sociólogo, filósofo y economista italiano Vilfredo Pareto describió un comportamiento conocido como función de cola, aplicable a varios fenómenos sociales y físicos, cuya función de distribución acumulativa de variables continuas es indistinguible de lo propuesto por Zipf para variables discretas (Pareto, 1896).2
Bajo esta óptica podemos considerar que la ley de Zipf es un caso especial de la distribución de Pareto. Ambas formas de distribución tienen propiedades estadísticas muy interesantes de contrastar con nuestros resultados, como la distribución con colas pesadas que se refleja en el registro de exceso de curtosis o distribución leptocúrtica, notable en todas las series financieras. Se dice que estos procesos están sujetos a la ley de potencia debido a que la probabilidad de obtener un valor particular en algún parámetro investigado varía inversamente como el exponente de dicho valor.
Es de destacar que los fenómenos que tienen estas propiedades no son adecuadamente representados por un valor típico o promedio aritmético, ya que los casos extremos se pueden alejar de la media en muchos órdenes de magnitud (Newman, 2006; Clauset, 2009). Ejemplos de fenómenos naturales y sociales con esta propiedad incluyen la distribución de la riqueza entre los habitantes de una comunidad (Pareto 1896, Bouchaud y Mézard, 2000; Burda 2001), la ley de Gutenberg-Richter de la frecuencia de presentación contra la intensidad de los sismos (Gutenberg, 1944), la intensidad y frecuencia de las explosiones o tormentas solares (Lu, 1991), el tamaño y frecuencia de los cráteres lunares (Neukum, 1994), el tamaño de las ciudades por número de habitantes y su frecuencia (Gabaix, 1999), la formación de redes aleatorias de diversos tipos (Barabasi, 1999) y muchas otras (Markovíc, 2013).
Debemos tener presente que muy pocas formas de distribución de fenómenos del mundo real siguen la ley de potencia en el rango completo de valores que adoptan, particularmente para valores pequeños de la variable medida. De hecho, para cualquier valor positivo del exponente α, la función p(x) = Cx−a diverge conforme x → 0. Por lo tanto, en la realidad, la distribución debe desviarse de la forma de ley de potencia debajo de cierto valor mínimo xmin . La forma de ley de potencia se manifiesta como una línea recta sólo para valores mayores a xmin (Newman 2006).
Desde el punto de vista geométrico, los fenómenos que obedecen la ley de potencia tienen propiedades fractales, es decir que dentro de cierto rango de valores hay auto-semejanza a diferente escala, por lo tanto, se dice que tiene invariancia de escala. Es característico de las fluctuaciones de precios que los eventos extremos carecen de una escala o valor típico alrededor del cual se concentren los casos individuales, tanto en su magnitud como en su duración. Genéricamente, esto es consecuencia del teorema de limite central para procesos libres de escala en los que una marcha aleatoria de Lévy reemplaza al movimiento Browniano (Bouchaud, 1990).
En el presente trabajo, hemos podido relacionar inversamente la frecuencia de presentación y el tamaño de las caídas mediante sus exponentes, de tal manera que si se construye una gráfica de dichas relaciones en escala aritmética la distribución adopta una curva en forma de J que se aproxima a ambos ejes ortogonales asintóticamente, y cuando se grafica en escala log-log, la distribución forma una línea recta con pendiente negativa. En ambos casos todos los segmentos de la curva son auto-semejantes si se representan en la escala apropiada.
Y ¿qué tiene que ver un sismo, el tamaño de los cráteres lunares, los asentamientos humanos en una ciudad o la acumulación de riqueza de una familia con las caídas de precios en los mercados? y ¿por qué habrían de tener propiedades estadísticas y geométricas similares?
Quizás, como sugieren Sornette y Cauwles, el tipo de fenómenos que se comportan con resultados a veces catastróficos, aparentemente detonados por eventos exógenos triviales, llegan a alcanzar un punto de inflexión o tipping point porque durante las fases de aparente equilibrio y tranquilidad, endógenamente se van acumulando las condiciones necesarias para un desenlace en avalancha. Para que se dé dicho desenlace, se tendrá que alcanzar un punto crítico a partir del cual el fenómeno se auto-organiza y cambia de régimen. La proverbial paja que quiebra el lomo del camello es un ejemplo en los que, tras un proceso pausado de calma y casi sin advertirlo, cuando alguna variable relevante alcanza cierto nivel crítico se manifiesta un trance en lo que se ha llamado un crossover o bifurcación (Sornette y Cauwles, 2013).
En el caso de los descensos de precios en el mercado bursátil, mientras el sistema está en el régimen aleatorio, cambios pequeños provocados por la respuesta de inversionistas a información exógena percibida como negativa son fácilmente absorbidos por el contingente de participantes optimistas quienes, quizás analizando la misma información, pero dentro de un marco temporal de observación mayor, concluyen que el reciente descenso de precios crea una condición favorable para aumentar sus posiciones. Sin embargo, de continuar el descenso, la secuencia de sucesivas perturbaciones, va incrementando la tensión generada en el sistema, es decir, ante nuevos pequeños impulsos bajistas, la presión sobre el contingente de compradores o demandantes llega eventualmente a sobrepasar la capacidad de absorber la creciente oferta hasta que súbitamente un descenso ulterior en el precio provoca un cambio de régimen en el cual son atraídos ya no nuevos compradores sino ahora nuevos vendedores, quienes desean deshacerse de sus posiciones en un intento por limitar sus pérdidas crecientes. De esta forma se construye un bucle de retroalimentación positiva en el que los descensos atraen más vendedores cuya oferta presiona los precios hacia abajo en un ciclo pernicioso que genera las crisis de venta o sell-off.
Aquí podríamos agregar una forma de acelerador del proceso: en tanto que la caída de los precios pudiera generar en un grupo de agentes la venta obligada de posiciones en forma de llamadas de margen, o debido a los criterios de administración del riesgo, al disparar señales de stop-loss. Estas dos posibilidades son ejemplos claros de mecanismo de retroalimentación positiva con capacidad de acentuar los descensos en los precios, independiente de la información exógena o del supuesto valor intrínseco de los activos. Por ello, podrían generarse sistemas auto-organizados con activación del reforzamiento de la tendencia.
Es precisamente este fenómeno auto-organizado en un régimen que se refuerza a sí mismo, lo que creemos que está sucediendo durante la fase de descensos mayores al punto crítico identificado en nuestro modelo como xmin . Queremos insistir en que lo que observamos es un proceso endógeno debido a una re-estructuración interna dependiente de la nueva relación entre los agentes componentes del sistema y en respuesta a información derivada desde el propio sistema. Esta expresión del fenómeno es un arreglo íntimo en el que el equilibrio entre fuerzas perturbadoras y fuerzas reparadoras o, en lenguaje sistémico, un estado en que los mecanismos homeostáticos son rebasados, de tal manera que el sistema adopta un nuevo régimen de respuesta, ya no estabilizador sino ahora, amplificador.
Desde un punto de vista matemático esta observación no es una sorpresa. Puede entenderse como el comportamiento gen érico de sistemas dinámicos. De acuerdo con los teoremas generales de la teoría de bifurcaciones, sólo hay un número finito de maneras en las cuales un sistema puede cambiar de régimen, cambio que ocurre en forma súbita y no progresiva (Sornette, 2013). En su excelente revisión del tema Mark Newman de Michigan University en Ann Arbor discute las distribuciones estadísticas de la ley de potencia y describe varios mecanismos propuestos para explicar la ocurrencia de la ley de potencia, destacando cuatro: 1) El mecanismo llamado tolerancia altamente optimizada de Carlson y Doyle; 2) el mecanismo de Sneppen y Newman enfocado al comportamiento de agentes bajo estrés; 3) el proceso de Udny Yule y los fenómenos críticos y 4) el concepto de estado crítico auto-organizado de Per Bak (Newman, 2006).
La tolerancia altamente optimizada (highly optimized tolerance o HOT) de Carlson y Doyle (1999) propone que, en sistemas naturales o humanos organizados para ofrecer un desempeño robusto a pesar de las incertidumbres en el ambiente, se genera un trueque entre el rendimiento, el costo de los recursos y la tolerancia al riesgo, lo que conduce a diseños altamente optimizados que predisponen a ocasionales eventos de gran magnitud. Las características principales de los sistemas con estado HOT incluyen: 1) alta eficiencia, desempeño y robustez a incertidumbres para las que están diseñados; 2) hipersensibilidad a defectos de diseño o a perturbaciones no previstas; 3) configuraciones estructurales especializadas, no genéricas; y 4) se sujetan a ley de potencia. Tiene como ejemplo clásico el de los incendios forestales y está basado en el modelo de percolación (Carlson y Doyle, 1999).
Otro mecanismo matemáticamente similar al de Carlson y Doyle es el del ruido coherente propuesto por Sneppen y Newman (1997). En este mecanismo, un cierto número de agentes o especies está sujeto a estrés de diferentes tipos y cada agente posee un umbral de estrés por encima del cual será eliminado, es decir que la especie se extinguirá. Las especies extintas son reemplazadas por nuevas especies con umbrales de stress seleccionados aleatoriamente, lo que da como resultado neto que el sistema se auto-organiza a un estado final donde muchas de las especies poseerán umbrales altos de tolerancia al estrés.
Este tipo de fenómeno muestra eventos de re-organización cuyos tamaños se distribuyen siguiendo la ley de potencia a lo largo de muchas décadas. Además, el sistema muestra replicas (aftershock events) con la misma distribución. Los autores proponen que, bajo la acción de una fuerza local lenta, algunos sistemas con interacciones de corto alcance pueden organizarse a un estado crítico sin que sea necesario el ajuste fino de algún parámetro.
El proceso de Yule es un mecanismo conocido como “el rico se hace más rico” o ley de Gibrat, principio de ventaja acumulativa o de selección preferencial. Consiste en que una alternativa que ocupa un lugar prominente como posible elección, tendrá mayor probabilidad de ser elegida, por lo tanto, tendrá un efecto amplificador matemáticamente demostrado como una distribución que sigue la ley de potencia en su cola (Newman, 2006; Yule, 1925). Probablemente este mecanismo sea adecuado para explicar que el tamaño de las empresas y su frecuencia en un mercado, la frecuencia de las palabras en un texto o el patrimonio de las familias muestre distribución de colas pesadas y se someta a la ley de potencia, sin embargo, para explicar la mecánica que determina que las caídas de precios de activos bursátiles que rebasan cierto nivel crítico se extiendan en forma auto-organizada con características como las demostradas en este trabajo, consideramos que el proceso descrito por Per Bak como una auto-organización al estado crítico o Self-Organized Criticality es la mejor opción (Bak, 1987).
Siguiendo este modelo, proponemos que cuando el descenso en los precios alcanza un nivel crítico se inicia el reclutamiento progresivo de ofertantes en el mercado, quienes buscaran limitar sus pérdidas deshaciéndose de sus posiciones. Cada uno de los agentes tendrá condiciones particulares (exposición al mercado, rendimientos acumulados previos, políticas de inversión y de control de riesgos, tolerancia o aversión al riesgo) que determinaran el nivel umbral particular que será necesario alcanzar antes de disparar un proceso de venta. Es importante anotar que la reacción de los ofertantes se dispara independiente de la información exógena del momento y de las expectativas previas del agente, en cambio estará determinado únicamente por la información endógena (del mercado) de la caída de precio de cierta magnitud. Una vez alcanzado este punto crítico el sistema diverge de su trayectoria previa y entra en un proceso dinámico distinto.
Bouchaud ha sugerido que esta dinámica errática de los mercados es en gran medida de origen endógeno y lo atribuye a que el mercado opera en un régimen de liquidez manifiesta evanescente, aunque alta liquidez latente, lo que explica su hipersensibilidad a las fluctuaciones e identifica un peligroso bucle de retroalimentación positiva con la separación entre el precio de oferta y demanda y la volatilidad que pueden conducir a crisis de micro-liquidez y saltos en los precios (Bouchaud, 2010).
4. Método
Se identificaron como unidades de estudio en series de precios de cierre diarios, cada uno de los descensos (caídas) desde un máximo reciente, seguido por un rebote (ascenso) a dicho máximo o al máximo de los últimos 6 meses, aquel de los dos que se alcanzara primero. En el conjunto de caídas de cada índice bursátil, se exploró la posibilidad de identificar un rango dentro del espacio de estados, en el que la variable que corresponde al rendimiento negativo acumulado durante los descensos (la profundidad de cada caída) pudiera ser explicada como un proceso que sigue la ley de potencia.
Se ordenaron las caídas de cada uno de 30 índices bursátiles internacionales (7 índices regionales, 5 estadounidenses, 4 de América Latina, 4 de países emergentes europeos, 5 de países europeos desarrollados y 5 de países así áticos)3 de la mayor a la menor, en orden descendente. Se graficó en escala log-log el valor absoluto de las caídas (ordenadas) contra el lugar acumulativo que ocupó cada una en la serie (abscisas). Se calculó la curtosis acumulativa de la serie de caídas, desde la más pequeña a la más grande (en orden ascendente). Se identificó el valor de caída a partir del cual el conjunto de caídas menores a dicho nivel tuviera la curtosis más cercana a cero, característica compatible con una densidad de distribución normal. Dicho nivel de caída fue identificado como el nivel crítico de transición de fase que separa el segmento que opera bajo régimen aleatorio, el conjunto de caídas pequeñas, por debajo del nivel crítico del segmento que obedece la ley de potencia, el conjunto de caídas grandes, por arriba del nivel crítico conjunto tentativamente organizado bajo régimen auto-organizado, con curtosis elevada, incompatible con una distribución normal.
Para el cálculo de los valores de este estudio se hicieron las siguientes operaciones: Se obtuvo la serie de tiempo de los precios/valores de cierre cotidianos ci de cada activo (índice bursátil) desde la fecha más antigua a la que se tuvo acceso c0, hasta el presente cn .4
Se calcularon los log rendimientos de la serie de precios ri = Ln(ci/ci−1) y con ellos se calculó la desviación estándar Sr y la curtosis Kr de la serie de rendimientos ri . El número total de rendimientos en esta serie se identificó como Nr .5
Se generó la serie de valores del máximo precio/valor de cierre del activo de los seis meses previos cMax a cada día de la serie ci (ver A y B en la Figura 1).
Se calcularon las diferencias diarias entre ci −cMax con lo que se muestra cada una de los descensos de la serie ci debajo de la serie cMax y los rebotes de la serie ci hacia la serie cMax (movimientos llamados draw-downs) para identificar la serie de los valores di (ver C en la Figura 1). Se consideró como una declinación al total de valores negativos di < 0 localizados entre dos puntos di = 0.
Se registró el valor más negativo de cada una de las declinaciones (punto más profundo de cada draw-down o dmax ), valor identificado a partir de ese momento como x i (ver Figura 2). El número total de estos valores xi se identificó como Nx .
Se ordenaron los valores de las declinaciones xi de la mayor (xMax o más negativa) a la menor (x0 o menos negativa) y se expresaron en valor absoluto (positivo).
Se generó una gráfica acumulativa de las declinaciones ordenadas xi en escala log log (valor de la caída, de mayor a menor, contra número acumulado de la caída) (ver Figura 3).
Se calculó la curtosis Kx de la serie completa de declinaciones xi así como las series de curtosis Ks de los valores acumulados progresivamente desde xMax hacia abajo hasta x0 y las curtosis Ki de los valores acumulados desde x0 hacia arriba hasta xMax .
Se identificó el nivel en que la serie de valores de la curtosis Ki que va de abajo hacia arriba (de x0 hacia xMax ) alcanzo el valor más cercano a cero (este segmento es mesocrático) y se registró el valor de la declinación xi que corresponde a dicho nivel de corte. A este valor (crítico) de xi se le designó como xmin .
Se calculó el valor de la curtosis Ks para los valores que van desde el valor de declinación más alto xMax , hasta dicho punto xmin (este segmento es leptocúrtica). El punto de retracción mínima xmin equivale al punto de transición de fase en el que el régimen cambia de aleatorio (declinaciones de dimensión menor a xmin ) a un régimen auto-organizado (declinaciones de dimensión mayor a xmin ) siendo el punto xmin el nivel crítico.
Se aislaron aquellos valores de las declinaciones que van desde el mayor xMax hasta el valor de retracción mínima xmin en una Gr'afica log-log (log del número acumulado de eventos contra log de la magnitud de la caída) y se trazó una línea de regresión potencia de dicha serie de datos. Se registró el valor del coeficiente de determinación R2 de dicha regresión potencia (ver Gráfica 4). El número de eventos de esta serie corresponde a Ns .
Se calculó el valor del exponente de la regresión α con la formula ENT#091;1ENT#093; y el valor del error estándar de dicho exponente con la formula ENT#091;2ENT#093; (Newman, 2006; Clauset, 2009):
(1)
(2)
Se registraron los siguientes 12 valores para cada uno de 30 activos (índices bursátiles):
Número total de caídas registradas en la serie Nx = N de xMax − x0
Número de datos del segmento superior Ns = N de xMax − xmin
Número de datos del segmento inferior Ni = N de xmin − x0
Porcentaje que representa Ns de Nx Ps = Ns/Nx
Curtosis (Kx ) de la serie completa de caídas Kx = (xMaxx0)
Curtosis (Ks ) de la serie superior de caídas Ks = (xMaxxmin)
Curtosis (Ki ) de la serie inferior de caídas Ki = (xminx0)
Valor de xMax
Valor de xmin
Valor de R2 de la regresión potencia de la serie superior de declinaciones
Valor del exponente α de la regresión potencia
Error estándar σ del exponente de la regresión potencia
Los siguientes esquemas muestran cómo, a partir de los precios de las acciones, se van generando las series de valores que hemos descrito anteriormente. La Gráfica 1 muestra los valores nominales de cierre de un índice (línea negra A, índice S&P500 en este caso) y la línea que representa los valores máximos de los últimos 6 meses del mismo índice (B, en azul). El trazo del panel superior (C, en rojo) representa la diferencia entre el índice y el máximo de los últimos 6 meses. En este trazo (C), se identifica cada una de las caídas como un descenso desde el valor de cero (un máximo reciente) hacia un mínimo y su regreso ascendente hasta el nivel máximo previo (o al máximo de los 6 meses anteriores), que en dicho trazo corresponde nuevamente al valor de cero.
Valor nominal del Índice S&P500, i en negro (A) y el nivel máximo de cierre de los últimos 6 meses cMax en azul (B) (panel superior, escala logarítmica) y la diferencia ci − cMax entre los dos en rojo (C) (panel inferior, escala aritmética).
Fuente: Elaboración propia con datos de Bloomberg.
En la Gráfica 2 se muestra la forma de identificar y medir cada uno de los descensos que se identificaran como caídas y que son las unidades de observación del presente estudio. Cada caída está representada por un desplazamiento descendente desde cero hasta un punto mínimo, y el regreso desde el punto mínimo hasta cero. El valor del punto mínimo de cada caída es el valor que se registra como unidad de observación.
En la Gráfica 3 se muestra una representación gráfica de la serie completa de caídas identificadas en el índice MSCI Emerging Europe Index. Los valores absolutos de la caída se representan en el eje de las ordenadas en escala logarítmica y el lugar progresivo que ocupan por su magnitud (de mayor a menor) se representan en el eje de las abscisas, igualmente en escala logarítmica.6 Se ha marcado en rojo el punto que corresponde al nivel de caída que identifica la transición de fase entre el régimen auto-organizado (que obedece ley de potencia) hacia arriba, y el régimen aleatorio hacia abajo.
Representación gráfica de las caídas individuales (dmin en valor porcentual absoluto) acumulativas desde la más profunda hasta la más pequeña en escala log-log (el punto crítico xmin en rojo, los demás en azul).
Fuente: Elaboración propia; valores calculados a partir de datos de Bloomberg.
En la Gráfica 4 se muestra una representación gráfica del segmento superior de las caídas identificadas en el índice MSCI Emerging Europe Index en la que se ha trazado una línea de regresión potencia con excelente ajuste (R2 = 0.9528). Se ha marcado en negro el punto que representa el valor absoluto de la caída mayor (xMax ) y en rojo, el punto que representa el punto crítico (xmin). Queda entendido que el exceso de curtosis de las caídas más pequeñas a dicho punto crítico (no incluidas en la gráfica) es aproximadamente de cero, mientras que la densidad de distribución de los valores de la gráfica corresponde al segmento leptocúrtica.
Subconjunto de la muestra de caídas xi (círculos azules) en escala log-log, desde la caída máxima xMax (en negro) hasta la caída en el punto crítico xmin (en rojo). Se incluye la línea de regresión potencia, la fórmula de la misma y el valor del Coeficiente R2 (en el recuadro amarillo).
Fuente: Elaboración propia; valores calculados a partir de datos de Bloomberg.
6. Resultados
En la Tabla 1 se acumulan los principales resultados del presente estudio. En la Gráfica 5 se representan gráficamente los datos de la columna i correspondientes a xmin . En el Apéndice 1 se describen los índices bursátiles utilizados y en el Apéndice 2 (Tabla 2) se anotan las características generales de cada serie estudiada (número de rendimientos diarios, desviación estándar y curtosis de los log-rendimientos diarios, fechas de inicio y final de cada serie). Aquí se comentan los hallazgos más relevantes.
Se anotan: a) total de caídas registradas [N total]; b) caídas mayores al punto crítico xmin[N sup]; c) caídas menores al punto crítico xmin[N inf]; d) porcentaje del total de caídas de dimensión mayor al punto crítico xmin[% Sup.]; e) exceso de curtosis de la serie completa de caídas [Curt tot]; f) exceso de curtosis de los datos del segmento superior al punto crítico [Curt sup]; g) exceso de curtosis de los datos del segmento inferior al punto crítico [Curt inf]; h) caída máxima xMax registrada en la serie [xMax ]; i) punto crítico xmin de la serie [x(min)]; j) coeficiente de determinación R2 de la línea de regresión potencia de la serie de caídas mayores al punto crítico [R2 ]; k) exponente de la regresión potencia [α]; l) error estándar σ del exponente de la regresión potencia [Error Est.].
El método elegido para identificar cada unidad de observación (cada caída) arrojó un total de eventos que dependió de la longitud, en días de operación, de los índices estudiados. El coeficiente de correlación entre ambas series (días de operación contra número de caídas registradas) fue de 0.972 (R2=0.945). El promedio de caídas registradas en los 30 índices fue de 323 con un mínimo de 111 para el índice de Colombia y un máximo de 1,147 para el DJIA. De dichas unidades de observación, el 23.68% corresponden, en promedio, al conjunto de eventos con caídas mayores al punto crítico con un rango de 15.95% a 32.20%. El exceso de curtosis promedio las series completas de caídas7 fue de 22.17 (7.925 a 64.709). El exceso de curtosis promedio de los segmentos superiores al punto crítico fue de 6.029 (1.76 a 21.552) mientras que el promedio de los segmentos inferiores fue de 0.001 (-0.295-0.151). El promedio del valor de la caída máxima registrada fue de -55.91% (-38.91% a -77.62%). El valor promedio de la caída en el punto crítico fue de -4.46% (-1.73% a -8.70%) y el promedio del coeficiente de determinación R2 de la regresión potencia fue de 0.9584 (0.9110 a 0.9834).
En el cálculo del exponente de escalamiento consideramos inapropiado emplear el ajuste de la línea de regresión potencia ya que, como ha sido comentado por Goldstein et al. (2004), esta forma de hacerlo introduce sesgos sistemáticos en el valor del exponente, por lo que no es confiable. Por ello empleamos el método recomendado por Newman (2006) y Clauset (2009) cuya fórmula se ha anotado en el punto 12 del apartado de cálculos realizados. El promedio del valor del exponente α fue 2.239 (1.959 a 2.239) y el error estándar de dicho exponente fue, en promedio 0.157 (0.070 a 0.281). 8
En la Gráfica 5 se muestra el nivel de los puntos críticos (xmin ) de cada uno de los índices agrupados en índices regionales, índices de mercados estadounidenses, índices de mercados emergentes europeos, índices de mercados desarrollados europeos, índices de mercados latinoamericanos e índices de mercados asiáticos. Podemos destacar que los valores más dispersos fueron los de los índices de mercados latinoamericanos mientras que los índices de mercados estadounidenses y europeos desarrollados tuvieron los valores menos dispersos. Asimismo, el promedio de valor del punto crítico fue más negativo en los índices de América Latina (-5.58%) y de Europa Emergente (-6.27%), medio en los índices de Asia (-4.66) y Europa Desarrollada (-4.12%) y menores en los índices de Regiones (-3.86%) y de EEUU (-3.062%).
7. Aplicación práctica de los conceptos
Proponemos cuatro aplicaciones potenciales de estos conceptos directamente a la práctica de las finanzas: En primer lugar, la distribución de Zipf en el tamaño de las empresas tiene una consecuencia importante en la construcción de portafolios llamados “eficientes” (Markowitz, 1959) dada la imposibilidad de hacer una diversificación adecuada del riesgo especifico cuando existe dominancia de algunas empresas de gran valor de capitalización en un mercado, dado que su efecto en el supuesto “portafolio de mercado” no puede diversificarse aunque el número de empresas sea muy grande. A esto se le considera un factor de riesgo financiero especial llamado de factor de Zipf (Malevergne, 2009).
En segundo lugar, consideramos que es posible explicar los periodos de alta volatilidad como un proceso emergente que resulta de un régimen en el que las expectativas de los agentes sobre los rendimientos o precios objetivo se hacen más heterogéneas (se dispersan más de lo habitual). Al mismo tiempo, el marco temporal de observación y reacción a eventos exógenos y endógenos, motivo habitual de estabilidad y liquidez en el mercado se hace más homogéneo, sesgándose hacia plazos más cortos. En la medida que los plazos temporales de observación son más homogéneos y menores y las expectativas de rendimientos más heterogéneas y dispersas, los mercados se hacen menos estables y más vulnerables a las perturbaciones. Aún tendremos que diseñar las pruebas apropiadas para identificar estas características en series empíricas, o replicar estos mecanismos en modelos de simulación basada en agentes.
En tercer lugar, como lo han propuesto Sornette y Scheffer, al entender mejor la forma en que se auto-organizan los mercados en escalas sucesivas y cómo se gestan los movimientos descendentes de los precios, podremos conocer los mecanismos que determinan las cascadas o avalanchas, desarrollar indicadores que permitan evaluar la situación presente de los mismos, encontrar señales tempranas de que el sistema se acerca a un nivel crítico de transición de fase y tal vez mitigar los efectos locales o generales del proceso disruptivo (Sornette,1997, 2001; Scheffer, 2009).
Haber encontrado que el exponente de las colas que siguen la ley de potencia es menor a 3 (media de 2.239 y rango de 1.959 a 2.864) podemos predecir la probabilidad y dimensión de las grandes fluctuaciones observadas en los quebrantos (stock market crash) y burbujas especulativas del tipo observado en los mercados de capitales.
Quizás la rica interacción de procesos no lineales entre los componentes del sistema genera un dinamismo inherentemente impredecible en sus detalles particulares, sin embargo, lo que nos podría interesar es predecir las grandes bifurcaciones, transiciones de fase o puntos de quiebre hacia eventos extremos, mismas que surgen al ser rebasados niveles críticos en un conjunto de parámetros a partir de los cuales se da una explosión al infinito de una variable habitualmente estable.
Tenemos que investigar cómo evolucionan los patrones de gran escala de naturaleza catastrófica, en las que suponemos hay niveles crecientes de auto-correlación de las variables relevantes, a partir de la interacción de procesos de escala inferior. Los puntos críticos que han sido identificados en el presente trabajo sugieren la posibilidad de que, en una escala mayor, puedan identificarse otros eventos que expliquen mejor los grandes descalabros bursátiles.
8. Conclusiones
Bajo el pretexto de simplificar la realidad y adaptarla a un abordaje maten ático analítico, los modelos convencionales que buscaron explicar el fenómeno bursátil siguieron la vía reduccionista. Partieron del diseño de un agente representativo que opera en un contexto aséptico mediante procesos simples basados exclusivamente en información exógena; supuestos completamente inverosímiles. A los agentes se les dotó de homogeneidad en sus expectativas, racionalidad completa y del único propósito de maximizar sus utilidades. Al contexto se le liberó de fricciones y rezagos en la transmisión de los procesos y se le otorgaron fuentes perfectas de información univoca, instantánea y simétricamente distribuida. A los mecanismos de generación del resultado la fluctuación de precios, se les hizo estacionarios, libres de bucles de retro-alimentación, sin memoria, con relaciones causales lineales y todo ello se dispuso permanentemente atraído hacia el equilibrio.
Ahora participamos en la construcción de un nuevo modelo mediante el cual se puedan explicar las fluctuaciones de precios como un proceso con distribución de colas pesadas que obedece la ley de potencia. Lo asumimos como fenómeno no estacionario, con periodos de alta volatilidad en alternancia con otros de baja volatilidad; estos últimos pueden describirse con densidad de distribución normal. Para este fin, hemos considerado las propiedades estadísticas y geométricas de las series de tiempo financieras como fenómenos emergentes resultantes de la actividad conjugada e interacción de agentes autónomos, heterogéneos en muchos aspectos, operando en un contexto de alta complejidad e inestable del que resultan procesos con tendencias a distorsión hacia estados extremos alejados del equilibrio.
En este trabajo se ha desarrollado un método para identificar en los descensos de precios un punto crítico de transición de fase a partir del cual, el régimen aleatorio da lugar a un régimen auto-organizado. Hemos encontrado que los movimientos descendentes de precios de activos del mercado de capitales pudieran explicarse como la alternancia entre periodos compatibles con una marcha aleatoria con propiedad i.i.d. y periodos sujetos a un régimen emergente auto-organizado que pudiera explicar la presencia de colas pesadas. Específicamente hemos identificado que las caídas de precios mayores a un punto crítico xmin pueden representarse como un fenómeno que obedece la ley de potencia. Partiendo de esa característica hemos hecho una explicación tentativa de cómo se genera y qué consecuencias potenciales tiene un fenómeno con las características demostradas operando mediante los mecanismos discutidos.
Consideramos que la propuesta auto-organización y la evidencia de procesos sujetos a la ley de potencia pudieran explicar, cuando menos parcialmente, la característica estructura fractal con auto-afinidad e independencia de escala observada en las series de tiempo financieras.
Los hallazgos sugieren la presencia de memoria de mediano plazo, tentativamente debida al efecto de bucles de retroalimentación positivos (Arthur 1988), e identifican un probable mecanismo de generación de los cúmulos de alta volatilidad. Proponemos identificar los movimientos descendentes sujetos a la ley de potencia como estados auto-organizados al estado crítico (Self-Organized Criticality) del tipo descrito por Per Bak (Bak, 1987, 1996; Frigg, 2003).
Sobre las bases sentadas en este trabajo, tendrá que definirse la manera de estimar la probabilidad de encontrar caídas mayores al nivel del punto crítico o nivel de transición de fase, en activos bursátiles, a partir de la definición de las características propias de cada serie, lo que resultaría en una primera aplicación práctica de estos conceptos. Queda por comprobarse la presencia de memoria de mediano y largo plazo, elementos necesarios para que se manifieste la auto-organización y la adaptación.