1. Introducción
La capacidad de anticiparse al futuro y poder actuar en consecuencia es invaluable. Como afirman Yang y Yang (2020), la predicción es la base de la decisión, y la decisión es la continuación de la predicción. No obstante, realizar predicciones acertadas (y como consecuencia tomar buenas decisiones) es una tarea compleja.
A lo largo de los años se han propuesto varios métodos de pronóstico para series de tiempo. En general, los métodos planteados tienen buenos resultados cuando se trata de series lineales y estacionarias, mientras que para el caso de series no lineales y no estacionarias los resultados son variados. La problemática radica en que en la mayoría de los datos obtenidos de fenómenos en la naturaleza predominan precisamente la no linealidad y estacionalidad (Li, Liu y Lin, 2020).
Una tarea asociada al pronóstico en series de tiempo financieras es la identificación del inicio y terminación de una crisis; este tema es de gran relevancia debido a su alto impacto negativo sobre las sociedades3. Al respecto, Jun et al. (2019) proponen una perspectiva sistémica para el estudio de las crisis; en particular, un sistema entra en crisis debido a estados de inestabilidad en sus componentes y sus relaciones, intrínsecas y exógenas; asimismo, una crisis financiera puede ser atribuida a un desbalance entre los participantes del sistema financiero y/o el entorno político y económico. En su trabajo, Jun et al. descomponen series financieras, utilizando la serie de Fourier, en elementos que pudieran estar asociados al comportamiento de sus participantes, eventos y entornos. Dos resultados sobresalen de este documento; el primero es la no estabilidad de los componentes armónicos o modos de Fourier a través del tiempo, mientras que el segundo, el cambio en amplitud y frecuencia que experimentan los componentes de la serie financiera durante una crisis, son señales que pueden ser asociadas a su inicio y término.
Así también, una buena práctica, que resulta natural para el ser humano, es dividir un problema complejo en varios más fáciles de resolver. En el caso de series de tiempo, este enfoque no es ajeno, ya que tradicionalmente se han definido por lo menos tres tipos de patrones que pueden distinguirse: tendencia, estacionalidad y cíclicos (Hyndman y Athanasopoulos, 2021). Actualmente, se utilizan nuevos métodos que representan la señal como varios componentes, cada uno con diferentes características y asociados con la naturaleza cíclica subyacente de la señal original (Furlaneto et al., 2017); uno de los métodos que ha tomado gran relevancia es la Descomposición Empírica en Modos (EMD4).
Propuesto por Huang et al. (1998), el método EMD permite descomponer la serie original como la suma de componentes cíclicos conocidos como Funciones de Modo Intrínseco (IMF5) y un residuo. La técnica es adaptativa, lo que permite su aplicación en series no lineales y no estacionarias; además, no requiere imponer creencias a priori acerca de las frecuencias que puedan presentarse en la serie, deja que los datos hablen por sí mismos (Crowley, 2012). Con el tiempo, nuevas mejoras al algoritmo han sido realizadas, siendo una de ellas la Descomposición Empírica en modos por Conjuntos (EEMD), propuesta por Wu y Huang (2009) y que se apoya en la adición de ruido para realizar la descomposición. El algoritmo y sus variantes ha sido aplicado en diversos campos como: predicción de propagación de epidemias (Feng y Wang, 2019), detección de fallas (Wang et al., 2019), procesamiento de señales biológicas (Kisa et al., 2020), predicción de ataques epilépticos (Tang et al., 2020), predicción de señales en plantas nucleares (Nguyen et al., 2021), etcétera.
En series económicas y financieras (consideradas como series de gran complejidad), destaca que el algoritmo ha sido utilizado en modelos de pronósticos híbridos6; esto es, el EMD o alguna variante es utilizada para descomponer la serie original en sus componentes más simples, estacionarias y con características regulares (Luo et al., 2021) y después utilizar un método de pronóstico sobre ellas, ya sea estadístico o de aprendizaje automático. El pronóstico final se obtiene como la suma de los pronósticos de las componentes.
Dos motivaciones justifican la realización del presente trabajo. Por un lado, la anticipación de una crisis económica y su término es de vital importancia, no solo en cuestión de inversión, sino para evaluar y minimizar los efectos económicos, sociales y políticos que ésta pueda tener. El segundo motivo es analizar el comportamiento del EEMD, antes, durante y posterior a una crisis; más aún, evaluar si es posible utilizar únicamente la propia descomposición y sus características como indicadores de inicio y término de una crisis. Para lograr este objetivo y bajo la hipótesis de que la descomposición de una serie de un periodo a otro es dinámica, se propuso como medida de estabilidad de la descomposición el coeficiente de correlación; a su vez, y en conjunto con la densidad espectral de potencia, se utilizó como indicador de cambios en el comportamiento del mercado. Asimismo, se propuso una adaptación del método EEMD original para estandarizar el número de componentes obtenidos en subseries consecutivas. El estudio se realizó sobre el índice NASDAQ Composite en dos periodos distintos, durante la crisis por SARS-CoV-2 y la crisis subprime, con la finalidad de comprobar la eficacia del método presentado.
En resumen, la originalidad del trabajo radica en el uso del EEMD modificado para la descomposición de series consecutivas en el mismo número de componentes, y la utilización del coeficiente de correlación entre componentes y el espectro de la serie original como medidas de estabilidad del sistema
El resto del artículo está organizado de la siguiente manera: La sección 2 presenta la metodología en la que está sustentado (EMD, EEMD y Análisis Espectral). En las secciones 3 y 4 se mencionan los datos utilizados, se describe la adaptación propuesta al método EEMD original, se narran las pruebas realizadas y se muestran los resultados obtenidos para las dos crisis consideradas. La sección 5 concluye acerca del trabajo realizado.
2. Metodología
2.1 Descomposición Empírica en Modos (EMD)
La Descomposición Empírica en Modos, propuesta por Huang et al. (1998), es una herramienta para procesar series de tiempo no lineales y no estacionarias. Se basa en la descomposición de la serie original en diferentes funciones, conocidas como Funciones de Modo Intrínseco (IMF) y un residuo.
La descomposición se realiza con base en las siguientes reglas que debe satisfacer cada IMF:
El número de puntos extremos y el número de cruces por cero deben diferir a lo sumo en uno.
El valor medio de las envolventes superior e inferior, definidas por los puntos extremos locales, es cero.
El EMD descompone la señal x(t) en n IMFs imfn(t) y un residuo r(t) , tal que
El método consta de los siguientes pasos (Zeiler et al., 2010):
Paso 0: Inicializar n≔1 , r0(t)=x(t) .
Paso 1: Extraer el n -ésimo IMF de la siguiente forma:
Asignar h0(t)≔rn-1(t) y k≔1.
Identificar todos los máximos y mínimos locales de hk-1(t).
Construir, por medio de interpolación usando splines cúbicas, para hk-1(t), la envolvente Uk-1(t) definida por los máximos y la envolvente Lk-1(t) definida por los mínimos.
Determinar la media mk-1(t) de las dos envolventes de hk-1(t).
Construir el componente k-ésimo hk(t)≔ hk-1(t)-mk-1(t).
Paso 2: Si rn(t) representa un residuo (es una función constante, monótona o contiene un solo extremo), detener el proceso; si no, incrementar n→n+1 y empezar en el Paso 1 de nuevo.
2.2 Descomposición Empírica en Modos por Conjuntos (EEMD)
Cuando se utiliza el EMD se espera que cada IMF tenga una frecuencia promedio que rija toda la componente; sin embargo, uno de los inconvenientes más conocidos del EMD, es la presencia de la combinación de modos, que ocurre cuando un IMF tiene diferentes frecuencias. Este problema vuelve al EMD inestable ya que, con cualquier perturbación, aunque pequeña, se pueden obtener descomposiciones diferentes. Con el objetivo de atender este problema y mantener la unicidad física7 de la descomposición, Wu y Huang (2009) propusieron el método EEMD.
Como si se tratara de un experimento físico que pudiera ser repetido varias veces, el EEMD introduce ruido a un conjunto de datos, x(t) , como si diferentes observaciones del fenómeno fueran realizadas para un mismo tiempo t. De tal forma que cada observación “artificial” es descrita como:
donde cada una de ellas está construida como la suma de la señal original y una realización diferente de ruido blanco, wi(t) . El algoritmo puede resumirse en los siguientes pasos:
Agregar ruido blanco a la serie de datos objetivo.
Descomponer los datos con el ruido blanco agregado, utilizando el algoritmo EMD.
Repetir los pasos 1 y 2 una y otra vez, pero con diferentes series de ruido blanco.
Obtener las medias (de los conjuntos) de los correspondientes IMFs de las descomposiciones como el resultado final.
La Figura 1 es una ejemplificación del algoritmo EEMD utilizando solo dos observaciones artificiales. La primera observación es construida con la señal original adicionando la serie de ruido A, mientras que la segunda consta de la señal original más otra serie de ruido B. Ambas observaciones son descompuestas por medio del EMD, obteniéndose los IMFs y residuos respectivos; para este ejemplo se asume que en ambos casos se obtuvieron 2 IMFs más la componente residual (cuando se obtienen diferentes cantidades de IMFs en las descomposiciones de las observaciones, es común que se consideren solamente las observaciones con la descomposición más frecuente). Finalmente, se obtiene la media de los IMFs 1 de ambas observaciones, lo que da como resultado el IMF 1 verdadero de la señal original. Este proceso se realiza con el resto de las componentes.
2.3 Análisis Espectral
El análisis espectral de series temporales es una herramienta utilizada comúnmente en áreas de ingeniería, ciencias exactas y sociales, en temas tan diversos como procesamiento de señales e imágenes, identificación de patrones, ajuste estacional, entre otros.
La representación espectral de un proceso es una herramienta útil para identificar componentes periódicos, ya que permite expresar el proceso como una suma de sucesiones periódicas. Esta representación, por tanto, permite centrar la atención en las frecuencias que más interesen. Una característica importante del análisis espectral es el hecho que permite identificar eventos cíclicos de manera independiente, no depende de un modelo predefinido, los datos hablan por sí mismos.
2.3.1 Transformada de Fourier
El análisis espectral requiere como primer paso la transformación de la serie original, definida en el tiempo, al espacio de frecuencias, esta transformación se realiza vía la transformada de Fourier. Definida en forma discreta como8:
y su anti- transformada
2.3.2 Espectro de Potencias
El espectro de potencias (también llamado simplemente espectro) puede ser interpretado como la cantidad de la señal contenida en la frecuencia w . Una vez obtenida la transformada de la serie se puede calcular su espectro de potencia como:
y su espectro de fase
donde atan2 es la función arcotangente.
Para realizar el análisis del espectro se pueden utilizar como estimadores el peridiograma y el correlograma.
El espectro de potencia peridiograma es definido como:
Este estimador no es consistente, en particular el fenómeno de Gibbs9 lo afecta de manera importante.
Otra manera de estimar el espectro es utilizando el correlograma. Sea x(t) un proceso estocástico, su función de densidad espectral se denota como ϕ(w) y se define como la siguiente transformada Fourier:
donde rxx es la autocorrelación de la serie original y se expresa como:
El par de ecuaciones anteriores conforman el teorema de Wiener-Khinchin; así como la función de autocorrelación caracteriza al proceso estocástico en el dominio del tiempo, la función de densidad espectral caracteriza al proceso en el dominio de la frecuencia. Las series financieras pueden presentar variaciones similares a las que producen el efecto de Gibbs, por lo que para el análisis espectral se empleó el correlograma. Este estimador atenúa el fenómeno de Gibbs.
3. Crisis por SARS-CoV-2
3.1 Datos y adaptación del método EEMD
Se utilizó la serie de precios semanales del índice NASDAQ Composite (etiqueta ^IXIC) del 28 de junio de 2019 hasta el 24 de diciembre de 2020, un total de 79 datos o semanas. El periodo fue elegido con la finalidad de observar el comportamiento del modelo antes, durante y posterior a la incidencia del virus SARS-CoV-2.
El motivo de utilizar el índice NASDAQ Composite reside en que mide el desempeño de las compañías más importantes a nivel mundial (especialmente del sector tecnológico), por lo que eventos de impacto internacional son reflejados sobre él. En particular, el efecto del SARS-CoV-2 se manifestó en la serie del índice como una caída abrupta en su valor que comienza el 14 de febrero del 2020 y termina al llegar a un valor mínimo el 20 de marzo de 2020, donde su recuperación da inicio (ver Figura 2). Por otro lado, la elección de la serie precios semanales tiene el propósito de excluir cambios en el precio de mayor frecuencia (esto es, cambios de precio diarios), para facilitar la aplicación del método EEMD, cuya base está en el EMD, el cual es sensible al ruido y efectos de frontera (Wu y Huang, 2009; Zeiler et al., 2010).
El método propuesto por Wu y Huang (2009) se aplicó por medio de una ventana móvil de 24 datos (un periodo aproximado de 6 meses) con desplazamientos de una semana sobre la serie, se construyeron un total de 56 subseries consecutivas y se estimaron sus modos con el método EEMD. Por ejemplo, el intervalo uno, tiene como fecha de inicio el 28 de junio de 2019 y como fecha final el 6 de diciembre de 2019, a esta subserie se le aplicó el algoritmo EEMD; la segunda subserie, corresponde a la ventana móvil recorrida una semana (o un dato), por lo que los datos del segundo intervalo van del 5 de julio de 2019 al 13 de diciembre de 2019, a esta nueva subserie también le fue aplicado el algoritmo. Este procedimiento se repitió hasta el último intervalo que va del 17 de julio de 2020 al 24 de diciembre de 2020.
En el algoritmo EEMD implementado se simula un total de 2000 observaciones artificiales para cada subserie, cada observación es construida como la suma de la muestra original más una serie de ruido blanco con desviación estándar equivalente al 0.2 de la desviación estándar de la subserie, como lo proponen Wu y Huang (2009). A cada una de las 2000 observaciones se les estimó sus IMFs utilizando el método EMD. Este procedimiento se aplicó a cada una de las 56 subseries, con la única restricción de tener un máximo de 10 procesos de separación en la obtención de cada IMF (secuencia de pasos del inciso b al e del algoritmo EMD), como fue propuesto por Wu y Huang. En resumen, se obtuvieron 2000 descomposiciones para cada una de las 56 ventanas consecutivas.
La cantidad de IMFs obtenidos en las descomposiciones de los conjuntos de 2000 observaciones para los periodos elegidos, osciló entre 1 y 5, sin embargo, las descomposiciones más frecuentes fueron en 3 y, en menor medida, 4 y 2 IMFs, el detalle se muestra en el Anexo 1, Tabla 3. Por ejemplo, en la ventana 1, subconjunto de datos semanales del 28 de junio de 2019 al 6 de diciembre de 2019, el 69% de las 2000 observaciones se descompuso en 3 IMFs, mientras que el 29.3% fue en 4. La misma lógica se sigue en los periodos subsecuentes.

Fuente: Elaboración propia, con datos de finanzas.yahoo.com
Figura 2 Periodo de evaluación de la serie de precios semanales del índice NASDAQ Composite (en rojo, periodo de descenso asociado al impacto del SARS-CoV-2).
Como se mencionó anteriormente, una de las formas de proceder con el algoritmo EEMD es obtener los IMFs verdaderos para la muestra utilizando los IMFs de las descomposiciones más frecuentes; por ejemplo, para la ventana 1, la frecuencia de la descomposición en 3 IMFs es la más común, por lo que entonces se utilizarían todas las observaciones que cumplan con esta descomposición para obtener la descomposición definitiva. Para la ventana 24, por su parte, se utilizarían todas las observaciones que se descompusieran en 4 IMFs, ya que esa es la descomposición con mayor frecuencia.
Realizar este procedimiento representa un problema en el análisis del índice a través del tiempo cuando la descomposición dominante cambia de periodo a periodo, por ejemplo, como sucede entre las ventanas 19 y 20, descomposición dominante de tres IMFs vs cuatro IMFs; más aún, aunque en la Tabla 3 también se puede observar que la descomposición más frecuente es 3 IMFs (79%), existen por lo menos 2 subseries (8 y 35) en las que se presentan descomposiciones con porcentajes similares. Esto resultaría en que, para comparar ventanas con descomposiciones dispares, habría que analizar las descomposiciones cuidadosamente para encontrar los IMFs que causan esta diferencia y, en su caso, tratar de procesarlos de tal forma que se tuviera el mismo número de componentes en cada ventana, es decir, las descomposiciones dejarían de ser automáticas y se requeriría mayor cantidad de tiempo para su obtención. Por este motivo se propone una modificación al método propuesto por Wu y Huang (2009), que se describe a continuación.
A diferencia del método EMD simple donde para los parámetros elegidos sólo existe una forma de descomponer la serie, el método EEMD ofrece inherentemente un abanico de descomposiciones. Para el caso particular de este estudio resulta conveniente estandarizar el número de IMFs de descomposiciones de ventanas consecutivas. Al observar que la moda del número de IMFs obtenido ventana a ventana, es de 3 más el residuo, resulta razonable pensar que justamente el fenómeno principal está representado físicamente por 4 fenómenos distintos, asociados a estas componentes; bajo esta suposición y aprovechando las observaciones artificiales ofrecidas por el método EEMD, se sustituyó el procedimiento descrito con anterioridad y se ajustó el algoritmo para tomar, para cada ventana, sólo las descomposiciones en 3 IMFs (la moda de las subseries para todo el periodo de prueba) sin importar que no fuera la más común, permitiendo así, comparar parejas de componentes individuales de ventanas adyacentes; por ejemplo, poder comparar uno a uno los componentes de la ventana 1 con los de la ventana 2 y así sucesivamente.
3.2 Pruebas y resultados
Se realizaron dos pruebas. La primera, con base en el análisis del comportamiento del coeficiente de correlación entre los componentes de ventanas consecutivas, consistió en evaluar si la descomposición por medio del EEMD modificado se mantiene estable a través del tiempo y si además es útil para estimar grandes cambios en el comportamiento de la serie de tiempo, en particular, el inicio de la crisis a causa del virus SARS-CoV-2 y su término. La segunda prueba consistió en obtener las densidades del espectro de potencia de las subseries del índice y analizar su comportamiento a través del tiempo tomando como referencia los resultados de la primera prueba.
3.2.1 Prueba 1
Con las 56 descomposiciones estandarizadas del índice, se calculó el coeficiente de correlación entre componentes homólogos de ventanas inmediatas10 y se utilizó como una medida de estabilidad del mercado de un periodo t a t+1 , bajo la suposición de que existe un coeficiente de correlación umbral que permite identificar grandes cambios en su comportamiento. En el Anexo 1, Tabla 4, se muestran los coeficientes de correlación obtenidos para cada par de componentes homólogos en ventanas consecutivas, además de su media y desviación estándar; analizando ambas mediciones se observa un comportamiento bastante claro, aunque todas las componentes muestran altas correlaciones promedio (entre 0.71 y 0.92), el valor más alto pertenece al IMF 1, el componente de mayor frecuencia, mientras que el más bajo pertenece al residuo, el de menor frecuencia; de forma inversa, la desviación estándar del IMF 1 es la más baja (0.08), mientras que para el residuo es la más alta (0.67).
Si se considera una fuerte correlación positiva (valores cercanos a 1 en el coeficiente de correlación) como un indicador de estabilidad en la descomposición ventana a ventana y una correlación nula o negativa (valores cercanos o menores a 0 en el coeficiente de correlación) como un indicador de inestabilidad en la descomposición, entonces el IMF 1 tiene una descomposición estable a través del tiempo mientras que el residuo es inestable en general, debido a su alta desviación estándar, aunque tenga periodos de alta estabilidad. En síntesis, la descomposición es más estable en el componente de más alta frecuencia, IMF 1, mientras que el más inestable es el residuo, el componente de menor frecuencia.
Tabla 1 Pares de ventanas donde el coeficiente de
Ventanas con CC<0.7 en IMFs 1 y/o 2 |
---|
12 (21-feb-20) 13 (28-feb-20) |
15 (13-mar-20) 16 (20-mar-20) |
16 (20-mar-20) 17 (27-mar-20) |
39 (28-ago-20) 40 (04-sep-20) |
48 (30-oct-20) 49 (06-nov-20) |
Fuente: Elaboración propia.

Fuente: Elaboración propia, con datos de finanzas.yahoo.com
Figura 3 Pares de ventanas donde el coeficiente de correlación de IMFs 1 y/o 2 es menor a 0.7, sobre la serie de precios.
Si bien la estabilidad de la descomposición es buena hasta el IMF 3, la validación empírica del coeficiente de correlación umbral que permite la identificación del inicio y recuperación de la crisis por SARS-CoV-2, dio como resultado que coeficientes de correlación menores a 0.7 en los IMFs 1 y/o 2 lo logran; en la Tabla 1 se muestran los 5 pares de ventanas identificados. En la Figura 3 se ubican los mismos dentro de la serie de precios. El algoritmo detecta el inicio de la crisis en la primer gran caída del índice asociada a ésta (ventanas 12-13). Asimismo, el inicio de la recuperación del índice es identificado plenamente en los pares de ventanas consecutivos 15-16 y 16-17. El algoritmo también detecta como periodo de interés el par 39-40, donde la recuperación ininterrumpida a lo largo de casi 6 meses del índice se ve sucedida por un claro periodo oscilatorio o de estabilización, cuyo término es identificado nuevamente por el método en el par de ventanas 48-49, donde se observa el inicio de una nueva fase de recuperación. En síntesis, el algoritmo no solo detectó el inicio y fin de la crisis, sino cambios claros en el comportamiento del índice durante su recuperación.
3.2.2 Prueba 2
Se utilizó el análisis espectral para determinar si existe una relación entre las alertas generadas por el algoritmo y el comportamiento del índice en el dominio de la frecuencia. Se obtuvieron los espectros de potencia durante los pares de ventanas identificados por el algoritmo, así como mes y medio antes y un mes y medio después (aproximadamente).
En la Figura 4, se muestran los espectros en tres fechas antes de la crisis, tres durante ella y tres posterior a la misma, en colores azul, rojo y verde respectivamente. Si bien podríamos profundizar en los armónicos dominantes para cada espectro, lo más notable es que los espectros de las fechas antes de la crisis son muy similares entre sí, lo mismo sucede para los armónicos dentro de la crisis y posterior a ella; asimismo, los espectros en fechas antes, durante y posterior a la crisis son visiblemente diferentes entre sí.

Fuente: Elaboración propia.
Figura 4 Densidad espectral de potencia antes, durante y después de la crisis por el virus SARS-CoV-2.
Por su parte, en las Figuras 5 y 6, asociadas a los últimos dos pares de ventanas identificados por el algoritmo durante la recuperación, se presentan los espectros en las fechas donde la alerta del algoritmo es detectada, en tres fechas anteriores y tres posteriores, en colores dorado, azul y verde respectivamente. De forma semejante a lo analizado en el párrafo anterior, los espectros de las fechas anteriores a la alerta (y no reconocidas por el algoritmo) son muy similares entre sí, lo mismo se observa para los espectros en las fechas posteriores; así también, los espectros de las fechas antes y después de la señal son muy diferentes, es posible distinguir fácilmente cambios en los eventos espectrales dominantes.
Con la finalidad de comprobar la eficacia del método presentado y la consistencia de los resultados obtenidos, se realizó el procedimiento descrito en este apartado, esta vez, sobre un periodo más extenso que contempla la crisis subprime; su desarrollo y los resultados obtenidos se describen en la siguiente sección.

Fuente: Elaboración propia.
Figura 5 Densidad espectral de potencia durante la recuperación de la crisis por SARS-CoV-2 (par 39-40).
4. Crisis subprime
4.1 Datos y adaptación del método EEMD
Se utilizó la serie de precios semanales del índice NASDAQ Composite del 4 de agosto del 2006 al 31 de diciembre de 2009, un total de 170 datos o semanas. La crisis subprime se manifestó en el índice a partir del 2 de noviembre de 2007, su punto más alto, y desde el cual sufrió una fuerte caída que no terminó sino hasta el 6 de marzo de 2009, donde una recuperación consistente dio inicio (ver Figura 7).
El método se aplicó por medio de una ventana móvil de 24 datos con desplazamientos de una semana sobre la serie de precios, se construyeron un total de 156 subseries consecutivas y se estimaron sus modos con el método EEMD. El intervalo uno, tiene como fecha de inicio el 4 de agosto de 2006 y como fecha final el 12 de enero de 2007, a esta subserie se le aplicó el algoritmo EEMD, posteriormente, la ventana móvil se recorrió un dato o semana. Este procedimiento se repitió hasta el último intervalo que va del 24 de julio al 31 de diciembre de 2009.
La cantidad de IMFs obtenidos en las descomposiciones de los conjuntos de 2000 observaciones para los periodos elegidos osciló entre 1 y 5, sin embargo, las descomposiciones más frecuentes fueron en 4 (49%) y 3 (40%); si bien las proporciones son muy cercanas, el algoritmo se ajustó para tomar, para cada ventana, sólo las descomposiciones en 4 IMFs, sin importar que no fuera la más común. El detalle se muestra en el Anexo 1, Tabla 5.
4.2 Pruebas y resultados
4.2.1 Prueba 1
Para las 156 descomposiciones del índice, se calculó el coeficiente de correlación entre componentes homólogos de ventanas inmediatas; esto se muestra en el Anexo 1, Tabla 6, donde su media y desviación estándar es también reportada. Se observa que la descomposición es más estable en el componente de mayor frecuencia, IMF 1, mientras la inestabilidad aumenta progresivamente hasta llegar al residuo, el componente de menor frecuencia.
Tabla 2 Pares de ventanas donde el coeficiente de correlación de IMFs 1 y/o 2 es menor a 0.7.
Ventanas con CC<0.7 en IMFs 1 y/o 2 |
---|
28 (20-jul-07) 29 (27-jul-07) |
30 (03-ago-07) 31 (10-ago-07) |
40 (12-oct-07) 41 (19-oct-07) |
43 (02-nov-07) 44 (09-nov-07) |
51 (28-dic-07) 52 (04-ene-08) |
76 (20-jun-08) 77 (27-jun-08) |
113 (06-mar-09) 114 (13-mar-09) |
115 (20-mar-09) 116 (27-mar-09) |
117 (03-abr-09) 118 (10-abr-09) |
131 (10-jul-09) 132 (17-jul-09) |
154 (18-dic-09) 155 (25-dic-09) |
Fuente: Elaboración propia.

Fuente: Elaboración propia, con datos de finanzas.yahoo.com
Figura 8 Pares de ventanas en las que el coeficiente de correlación del IMFs es menor a 0.7, sobre la serie de precios.
Si bien la estabilidad de la descomposición podría ser aceptable incluso hasta el IMF 4, la validación empírica del coeficiente de correlación umbral que permite la identificación del inicio y recuperación de la crisis subprime, dio como resultado que coeficientes de correlación menores a 0.7 en los IMFs 1 y/o 2 lo logran; en la Tabla 2 se muestran los 11 pares de ventanas identificados. En la Figura 8 se ubican los mismos dentro de la serie de precios. Se observa que los primeros 2 pares de ventanas consecutivos (28-29 y 30-31) anteceden a un periodo ascendente agresivo de la serie que ocurre antes del inicio de la crisis. Posteriormente el algoritmo detecta justo el inicio de la crisis (ventanas 43-44), e incluso la anticipa en una pequeña caída sucedida un par de semanas antes (ventanas 40-41). El algoritmo vuelve a detectar como periodo de interés las ventanas 51-52, otra gran caída en el índice, aunque seguida de una recuperación parcial; más importante aún, las ventanas 76-77 también son identificadas, las cuales se ven sucedidas por el periodo de mayor pérdida del valor del índice, llegando a su punto más bajo en la ventana 113 donde la recuperación da inicio. Esta recuperación también es identificada plenamente por el método en 3 pares de ventanas consecutivos (113-114, 115-116 y 117-118). Finalmente, el par 131-132 es identificado también, donde la recuperación prosigue, pero de forma menos agresiva; de igual forma el par 154-155 es marcado, al cual sucede una ligera caída y recuperación, sin embargo, esta información queda fuera del periodo de análisis.
En otras palabras, el algoritmo resultó eficaz en la detección de los puntos de interés, detectó puntualmente el inicio de la crisis y de la recuperación, e incluso dentro de la crisis, mostró una alerta acerca del recrudecimiento de la caída del índice.
4.2.2 Prueba 2
Se obtuvieron los espectros de potencia durante los pares de ventanas identificados por el algoritmo, así como un mes y medio antes y un mes y medio después (aproximadamente). En el Anexo 2 se muestran las gráficas resultado. En todos los casos se observan dos patrones consistentes: primero, los espectros de las fechas anteriores (no reconocidas por el algoritmo) son muy similares, de igual forma sucede con los armónicos de fechas posteriores; y segundo, los espectros de las fechas anteriores y posteriores a la fecha de interés son muy diferentes entre sí, es posible distinguir fácilmente cambios en los eventos espectrales dominantes.
5. Conclusiones
El comportamiento de las descomposiciones obtenidas por medio del método EEMD a lo largo del tiempo es dinámico; los IMFs para cada tiempo t cambian. En ambas crisis se observa una mayor estabilidad en el comportamiento del componente de mayor frecuencia, IMF 1, mientras que el más inestable es el residuo, el componente de menor frecuencia. En la crisis subprime se observa que la estabilidad decae progresivamente desde el IMF 1 hasta el residuo, sin embargo, esto no es observable en la crisis por SARS-CoV-2.
Al aprovechar las características del propio algoritmo EEMD, una adaptación fue propuesta para resolver el problema de descomposiciones dispares en periodos consecutivos, permitiendo comparar componentes homólogos.
El coeficiente de correlación de los IMFs entre ventanas consecutivas mostró que puede ser utilizado como una medida de la estabilidad o inestabilidad en la descomposición, más aún, cambios en el estado de la serie de cotizaciones del NASDAQ Composite. El inicio y término del efecto de las dos crisis sobre el índice, así como otros cambios relevantes en la serie, fueron detectados con base en los valores de los coeficientes de correlación. En ambas crisis, la búsqueda del coeficiente de correlación umbral demostró que valores inferiores a 0.7 en los coeficientes de correlación de los IMFs 1 y/o 2 de ventanas adyacentes pueden significar cambios importantes en el comportamiento del índice. Los procesos de cambio en la serie pueden ser rápidos, y por ende ser detectados en un solo par de ventanas adyacentes; no obstante, como se observa en la recuperación de la crisis subprime, estos procesos pueden durar más tiempo y por consecuencia, las señales de inestabilidad pueden presentarse de forma continuada.
Respecto al análisis espectral, en ambas crisis se observan dos patrones consistentes: primero, los espectros de las fechas anteriores a la señal de inestabilidad son muy similares, de igual forma sucede con los armónicos de fechas posteriores; y segundo, los espectros de las fechas anteriores y posteriores a la señal son muy diferentes entre sí, los cambios en los eventos espectrales dominantes son fácilmente distinguibles.
El coeficiente de correlación entre IMFs homólogos en periodos consecutivos complementado con el análisis de densidad espectral de potencia, mostró ser útil para identificar y anticipar grandes cambios en el comportamiento de una serie de tiempo.
Como trabajo futuro se propone aplicar el procedimiento presentado en este documento sobre otras series y durante otras crisis, con el propósito de confirmar su desempeño y eficacia.