Servicios Personalizados
Revista
Articulo
Indicadores
- Citado por SciELO
- Accesos
Links relacionados
- Similares en SciELO
Compartir
Contaduría y administración
versión impresa ISSN 0186-1042
Contad. Adm vol.58 no.2 Ciudad de México abr./jun. 2013
Riesgo operacional en el proceso de pago del Procampo. Un enfoque bayesiano
Operational risk in the payment process of Procampo. A bayesian approach
José Francisco Martínez Sánchez* y Francisco Venegas Martínez**
* Escuela Superior de Economía, Instituto Politécnico Nacional. México. marzan67@hotmail.com.
** Escuela Superior de Economía, Instituto Politécnico Nacional. México. fvenegas1111@yahoo.com.mx.
Fecha de recepción: 29.11.2011.
Fecha de aceptación: 16.01.2012.
Resumen
Este trabajo identifica y cuantifica, a través de un modelo de red bayesiana (RB), los diversos factores de riesgo operacional (RO) asociados al proceso de pago del Programa de Apoyos Directos al Campo (Procampo). El modelo de RB es calibrado con datos de eventos que se presentaron durante el periodo 2008-2011. A diferencia de los métodos clásicos, la calibración del modelo de RB incluye fuentes de información tanto objetivas como subjetivas, lo cual permite capturar de manera más adecuada la interrelación (causa-efecto) entre los diferentes factores de riesgo operativo.
Palabras clave: riesgo operacional, análisis bayesiano, simulación Monte Carlo.
Clasificación JEL: D81, C11, C15.
Abstract
This paper identifies and quantifies through a Bayesian Network model (BN) the various factors of Operational Risk (OR) associated with the payment process PROCAMPO. The BN model is calibrated with data from events that occurred during the period 2008-2011. Unlike classical methods, the BN model calibration sources include both objective and subjective ones, allowing to more adequately capture the relationship (cause and effect) between the several elements of operational risk.
Keywords: operational risk, bayesian analysis, Monte Carlo simulation.
JEL Clasification: D81, C11, C15.
Introducción
El enfoque bayesiano es una alternativa viable para el análisis de riesgos en condiciones de incertidumbre. Por construcción, los modelos bayesianos incorporan información inicial a través de una distribución de probabilidad a priori, mediante la cual se puede incluir información subjetiva en la toma de decisiones como la opinión de expertos, el juicio de analistas o las creencias de especialistas. Este trabajo utiliza un modelo de red bayesiana (RB) para examinar la interrelación entre factores de riesgo operacional1 (RO) en el proceso de pago del Programa de Apoyos Directos al Campo (Procampo). El modelo RB que se propone se calibra con datos observados en eventos que se presentaron durante el proceso de bancarización2 y con información que se obtuvo de los expertos3 o externa; el periodo de análisis es el comprendido desde 2008 hasta 2011.
A pesar de la existencia de trabajos como los de Reimer y Neu (2002, 2003), Kartik y Reimer (2003), Leippold (2003), Aquaro et al. (2009), Neil, Márquez y Fenton (2004) y Alexander (2002) que abordan de manera general la aplicación de las RB en la administración del RO, no existe una guía completa sobre cómo clasificar los eventos de RO, cómo identificarlos, cómo cuantificarlos y cómo calcular el capital económico de manera consistente.4 Este trabajo pretende cerrar estas brechas de la siguiente forma: primero, establecer estructuras de información sobre eventos de RO de manera que sea posible identificar, cuantificar y medir el RO; posteriormente, cambiar el supuesto de independencia de eventos para modelar de manera realista el comportamiento causal de los eventos de RO.
La posibilidad de utilizar funciones de distribución condicionales, discretas o continuas, calibrar el modelo con fuentes de información, tanto objetivas como subjetivas, y establecer una relación causal entre los factores de riesgo, son los rasgos que precisamente distinguen esta investigación en comparación con los modelos estadísticos clásicos.
Este trabajo se organiza de la siguiente forma. En primer lugar, se presenta la terminología que se empleará para el cálculo de RO de acuerdo con los procesos y sistemas de pago relacionados con el Procampo. Después, se analiza el marco teórico para el desarrollo del trabajo, enfatizando sobre las características y bondades de las RB. Posteriormente, se describe la problemática que se pretende resolver, así como el alcance de la aplicación de la metodología propuesta. En seguida, se construyen dos redes: una para la frecuencia y otra para la severidad; para cuantificar cada nodo de las redes y obtener las probabilidades a priori se "ajustan" distribuciones de probabilidad para los casos donde existe información histórica; en caso contrario se recurre a la opinión o juicio de los expertos para obtener las probabilidades correspondientes; una vez que se cuenta con las probabilidades a priori de las dos redes, se procede a calcular las probabilidades a posteriori a través de algoritmos de inferencia bayesiana, en específico se utiliza el algoritmo junction tree.5 A continuación, se calcula el riesgo operacional condicional a través de simulación Monte Carlo con las distribuciones a posteriori calculadas para la frecuencia y la severidad; asimismo, se calcula la máxima pérdida esperada con el modelo clásico y se comparan ambos resultados. Por último, se presentan las principales conclusiones de este trabajo.
Sistema de pagos
Antecedentes
El sistema de pagos de Procampo fue desarrollado gradualmente por Apoyos y Servicios a la Comercialización Agropecuaria (Aserca) a partir de 1993 para hacer llegar directamente a los productores los recursos federales derivados de la operación de Procampo, operado por Aserca.6 Al integrar el padrón de beneficiarios del citado Programa con más de 2.7 millones de productores y con una superficie apoyada de, aproximadamente, 14 millones de hectáreas cultivables distribuida en 4.2 millones de predios se creó la base de datos más completa del sector. Así, pues, Procampo y el sistema de pagos que lo acompaña tienen el mismo origen temporal y la misma explicación causal; pero, en forma adicional y progresiva, este sistema y su amplia base de datos fueron aprovechados para la emisión y distribución de apoyos de otros programas de la Secretaría como Programa de Estímulos a la Productividad Ganadera (Progan), apoyos al café, comercialización, rastros TIF (Tipo Inspección Federal), energéticos agropecuarios, entre otros.
Estructura del sistema de pagos
El sistema de pagos es el instrumento que tiene la Secretaría de Agricultura, Ganadería, Desarrollo Rural, Pesca y Alimentación (Sagarpa) para administrar el pago de subsidios de los diferentes programas; actualmente operado por Aserca, está estructurado en tres subsistemas: gobernabilidad, procesos sustantivos y tecnología informática.
Desde el punto de vista de la gobernabilidad, el pago de subsidios se apoya en el sistema de pagos para el cumplimiento de los objetivos y líneas de acción establecidos en el Programa Sectorial de Desarrollo Agropecuario y Pesquero, dentro de las cuales se destaca:
I. Poner en marcha los nuevos esquemas de Procampo y Progan (Programa de Producción Pecuaria Sustentable y Ordenamiento Ganadero y Apícola) con nuevas reglas de operación.
II. Establecer un sistema bancarizado.
Respecto al proceso sustantivo del sistema de pagos, éste involucra cuatro subprocesos a través de los cuales recibe, procesa, calcula y emite, anualmente, alrededor de 5.8 millones de solicitudes de pago de apoyos. El 84% corresponde a Procampo; el 1.57%, a comercialización; el 8.91%, a energéticos; y el 5.5%, a otros programas (fomento café, prooleaginosas, cítricos).
En cuanto a la tecnología informática del sistema de pagos, actualmente está conformada por una infraestructura con los siguientes componentes:
I. Desarrollo de aplicaciones (lenguajes de programación y equipos)
II. Administración de bases de datos (bases de datos y servidores)
III. Mesa de ayuda y explotación de información (sistema de control de incidencias)
IV. Soporte técnico (red de voz y datos, equipos y periféricos, correo electrónico y directorio activo)
V. Servicios informáticos (telecomunicaciones, alojamiento, mantenimiento y licenciamiento de bases de datos y servidores de cómputo)
VI. Interfaces con el sistema bancario y financiero
Bancarización
En los últimos tres años se ha logrado un avance muy significativo en sustituir los cheques, como medio de pago, por transferencias electrónicas a las cuentas de los beneficiarios que se han abierto para tal efecto a través de convenios con las instituciones financieras participantes; este proceso se conoce como bancarización. En el ejercicio fiscal de 2010, el 31% de las transferencias a los beneficiarios de Procampo se realizó a través de cheques y el 60% a través de transferencias o depósitos a las cuentas de los beneficiarios. Para 2011 la participación de las transferencias será mucho mayor, toda vez que al cierre de 2010 se habían abierto cuentas a 2 168 000 beneficiarios, de los cuales sólo a 1 552 706 se les pagó el apoyo con depósito en ese año.
Ventajas de la bancarización
La bancarización erradica prácticas no deseables que se han detectado en el proceso de entrega de los cheques a los beneficiarios; muchas veces aquéllos son endosados por el beneficiario a una tercera persona ya sea por su voluntad o mediante engaños que paga en efectivo al beneficiario una cantidad menor al importe nominal del cheque. En ciertos casos esta práctica se puede considerar un servicio que se brinda al beneficiario al darle liquidez a partir de los cheques. Estos instrumentos son líquidos si y sólo si existe una infraestructura bancaria adecuada dentro de un rango de distancia razonable. En otros casos, las prácticas de cambio de cheques por dinero en efectivo son abusos hacia los beneficiarios por parte de los prestadores de distintos servicios (tenderos, restauranteros, etc.); agentes diversos de la sociedad rural (iglesias, autoridades ejidales, organizaciones económicas, etc.); o bien, son prácticas de corrupción cuando involucran a funcionarios públicos. Estas prácticas reflejan muchas veces la existencia de factores de poder en la sociedad rural. Algunas de ellas podrían replicarse bajo el nuevo esquema de pagos mediante transferencias, a través de exacciones, chantajes y presiones a los beneficiarios.
Con la bancarización los beneficiarios pueden acceder a sus recursos en efectivo sin recurrir a ningún tipo de intermediarios al acudir a los cajeros automáticos o sucursales bancarias. Sólo en casos extremos en los que los beneficiarios no pueden hacer sus retiros por cuestiones de edad, educación, o rechazo cultural, recurren a un familiar o amigo para que les auxilie en el retiro del dinero.
Identificación de riesgos en la bancarización
Para identificar los factores de riesgo asociados a la bancarización se utilizó la técnica denominada análisis causa-efecto (Ishikawa, 1943). Al analizar los riesgos y sus factores, estaremos identificando fallas en los procesos, duplicidad de actividades, actividades que no agregan valor, fallas en los servicios de terceros, entre otros.
Con base en el análisis anterior se identificaron los nodos (variables aleatorias) que formarán parte de la RB, las cuales se describen y analizan estadísticamente más adelante.
Medición del riesgo operacional
La naturaleza de los métodos para la cuantificación y medición del riesgo operacional varía desde lo más simple hasta métodos de gran complejidad y entre modelos que consideran un solo indicador y modelos estadísticos muy sofisticados.
Métodos para medir el riesgo operacional
A continuación se describen los métodos existentes en la literatura para medir el RO (véanse, por ejemplo, Heinrich, 2006, y Basilea II, 2001).
El desarrollo de técnicas para la medición y administración de riesgo operacional es muy dinámico. Hay, sin embargo, algunas prácticas comunes surgidas entre algunos bancos. La naturaleza dinámica de las técnicas implicadas se pueden dar por dos razones: el hecho de que el acuerdo de Basilea permite un grado sustancial de flexibilidad (en el contexto de unos criterios estrictos de clasificación) en el método utilizado para evaluar los requisitos de capital, especialmente en el método de medición avanzada (AMA, por sus siglas en inglés). La medición y administración de riesgo operacional hace frente a muchos desafíos, entre los cuales están el relativo corto periodo de tiempo de datos históricos de pérdidas, el rol del ambiente de control interno el cual naturalmente cambia y hace que la pérdida de los datos históricos sea irrelevante, el importante papel de los eventos de poca frecuencia, pero con pérdidas muy grandes. Estos desafíos son manejados con varios enfoques en la práctica. El estudio de los métodos de riesgo operacional trata de separar modelos que se utilizan para cuantificar el riesgo operacional y el capital económico de aquellos que se utilizan solamente para la administración del riesgo. Esta separación, sin embargo, es muy difícil de efectuar, pues el modelo usado para cuantificar el riesgo operacional puede también ser usado por su administración. Lo que en la práctica se hace es separar los modelos que son usados por la administración de riesgos operacionales internamente de los que son usados para el cálculo del capital económico para propósitos regulatorios. Llamamos al primer grupo modelos de administración de riesgo operacional; al segundo grupo se le denomina modelos para cuantificación y asignación de capital. Hay básicamente tres diferentes modelos para la cuantificación y asignación de capital dentro del método de medición avanzada: enfoque de distribución de pérdidas, enfoque de control y enfoque de escenario-básico.
Las principales diferencias entre estos enfoques es el énfasis de los elementos comunes. El enfoque de distribución de pérdidas enfatiza el uso de pérdida de datos internos, el enfoque de control enfatiza la evaluación del entorno empresarial y el sistema de control interno, mientras que el enfoque de escenario-básico usa varios escenarios para evaluar el riesgo de la organización. A pesar de las diferencias en el énfasis, en la práctica la mayoría de los bancos está tratando de usar los elementos de estos tres enfoques.
El enfoque de distribución de pérdidas (LDA, por sus siglas en inglés) comienza con la recopilación de datos sobre pérdidas que es el indicador más objetivo de riesgos actualmente disponible. Con estos datos se estima la distribución de pérdidas; sin embargo, éstos proporcionan solamente una retrospectiva y, por lo tanto, no refleja necesariamente los cambios en el riesgo actual, ambiente de control y la pérdida de datos; en segundo lugar, no siempre está disponible en cantidades suficientes en cualquier institución financiera para permitir una evaluación razonable de exposición.
El LDA se ocupa de estas deficiencias mediante la integración de otros elementos de la AMA como datos externos, análisis de escenarios y factores que reflejen el entorno empresarial y el sistema de control interno; usa técnicas actuariales para modelar el comportamiento de las pérdidas operacionales de una empresa a través de la estimación de la frecuencia y severidad para producir una estimación objetiva de las pérdidas esperadas e inesperadas. Se inicia con la recolección de los datos de pérdidas para modelar la frecuencia y la severidad de éstas por separado; después, se agregan estas distribuciones a través de simulación Monte Carlo o técnicas estadísticas para obtener una distribución de las pérdidas totales de cada tipo de pérdida. Algunas distribuciones estadísticas de uso común son la de Poisson, distribución binomial negativa, Weibull y Gumbel para la frecuencia; y Lognormal, Gamma y la distribución logarítmica normal gamma para la severidad. El último paso consiste en ajustar una curva a la distribución de pérdidas totales obtenidos; para comprobar la bondad de ajuste se emplean técnicas estadísticas estándar como el de Pearson, Chi-cuadrado y el test de Kolmogorov-Smirnov.
Con el nuevo acuerdo de Basilea II, los bancos están obligados a calcular el capital económico; esto es cierto para los tres enfoques en la AMA. La diferencia entre el valor de la pérdida correspondiente al percentil en la cola y la media de la distribución de la pérdida total es el capital económico de los percentiles elegidos. La media se llama la pérdida esperada y la diferencia pérdida inesperada, de la que los bancos están obligados a protegerse.
En resumen:
1) Los métodos top-down de indicador simple. Este método fue elegido por el comité de Basilea como una primera aproximación al cálculo del riesgo operacional. Un solo indicador como el ingreso total de la institución, o la volatilidad del ingreso o los gastos totales se pueden considerar como el cargo total a cubrir por este riesgo.
2) Los métodos bottom-up que incluyen el juicio de un experto. La base para el análisis de un experto es un conjunto de escenarios. Los expertos identifican los riesgos y sus probabilidades de ocurrencia.
3) Medición interna. El Comité de Basilea propone el método de medición interna como un procedimiento más avanzado para calcular el costo de capital regulatorio.
4) Enfoque estadístico clásico. Análogamente a lo que se ha utilizado en los métodos de cuantificación para el riesgo de mercado y, más recientemente, el riesgo de crédito, también se ha avanzado en la investigación relativa a los métodos de cálculo para el riesgo operacional. Sin embargo, contrario a lo que sucede con el riesgo de mercado, es muy difícil encontrar un método estadístico ampliamente aceptado.
5) Modelos causales. Como alternativa a la estadística clásica surgen los modelos causales, que suponen dependencia entre eventos de riesgo; en otras palabras, cada evento representa una variable aleatoria (discreta o continua) con función de distribución condicional. Los eventos que no cuenten con registros históricos o bien que la calidad de los mismos no sea la requerida, se recurre a la opinión o juicio de los expertos para determinar las probabilidades condicionales de ocurrencia. La herramienta para modelar esta causalidad son las RB, las cuales se fundamentan en el teorema de Bayes y la topología de redes; esta herramienta es la que se desarrolla y aplica en este trabajo.
Marco teórico
En esta sección se presenta la teoría que soporta el desarrollo del trabajo. Se inicia con una discusión sobre el VaR condicional como medida de riesgo coherente en el sentido de Artzner et al. (1998). Después se utiliza el enfoque bayesiano para la construcción de RB, destacando sus ventajas con respecto del enfoque clásico en el estudio del RO.
Valor en Riesgo Condicional (CVaR)
De acuerdo con Panjer (2006), el CVaR (del término en inglés Conditional Value at Risk) o Expected Shortfall (ES, por sus siglas en inglés) es una medida alternativa al VaR que cuantifica las pérdidas que se pueden encontrar en las colas de las distribuciones. Se define como la pérdida esperada para los casos en donde la pérdida de valor del portafolio exceda el valor del VaR.
Si X denota la variable aleatoria de pérdida, el CVaR de X a un nivel de confianza del (1 p) X 100%, denotado por CVaRp(X), es la pérdida esperada dado que las pérdidas totales exceden el cuantil 100p de la distribución de X. Para distribuciones arbitrarias se puede escribir CVaRp(X) como:
donde F(x) es la función de distribución acumulada de X. Además, para distribuciones continuas se puede usar la función de densidad para escribir lo anterior como:
Así, el CVaR se puede ver como el promedio de todos los valores VaR sobre el nivel de confianza p. Además CVaR puede escribirse como:
donde e(xp) es la media de excesos de la función de pérdidas.7
El paradigma bayesiano
En el análisis estadístico existen dos paradigmas: el frecuentista y el bayesiano. La diferencia fundamental se relaciona con la definición de probabilidad. Los frecuentistas señalan que la probabilidad de un evento es el límite de su frecuencia relativa en el largo plazo, mientras que los bayesianos sostienen que la probabilidad es subjetiva, un nivel de creencias que se actualiza con la incorporación de nueva información; la probabilidad subjetiva (creencias) fundamentadas en una base de conocimientos constituye la probabilidad a priori; la probabilidad a posteriori representa la actualización de las creencias.
Un tomador de decisiones bayesiano aprende y revisa sus creencias con base en la nueva información que tenga disponible. Desde este punto de vista, las probabilidades son interpretadas como niveles de creencias. Por lo tanto, el proceso de aprendizaje bayesiano consiste en estar revisando y actualizando probabilidades. El teorema de Bayes es el medio formal para poner en práctica lo anterior.8
Teorema de Bayes
El teorema de Bayes es una regla que puede ser utilizada para actualizar creencias con base en nueva información (por ejemplo, datos observados). Si se denota por E como la evidencia y se supone que un experto cree que se puede asociar con una probabilidad P(E), el teorema de Bayes (TB) dice que después de observar los datos, D, las creencias sobre E son ajustadas de acuerdo con la siguiente expresión:
donde
1) P (D | E) es la probabilidad condicional de los datos, dado que la evidencia a priori, D, es cierta.
2) P (D) es la probabilidad incondicional de los datos, P(D) > 0; también se puede expresar como:
P(D) = P(D|E)P(E) + P(D|Ec)P(Ec).
La probabilidad de E, antes de tener los datos P(E), es llamada probabilidad a priori, una vez actualizada P(E|D) es denominada probabilidad a posteriori.
Se reescribe la forma continua del TB de la siguiente manera:
donde θ es un parámetro desconocido por estimar, y es un vector de observaciones, registradas, π(θ) es una distribución a priori que depende de uno o más parámetros, denominados hiperparámetros, L(θ | y) es la función de verosimilitud paraθ y P(θ|y) es la distribución a posteriori de θ (actualización de la a priori). Dos preguntas surgen de lo anterior: ¿cómo traducir la información a priori en su forma analítica π(θ) ?, ¿qué tan sensible es la inferencia a posteriori, a la selección de la a priori? Cabe destacar que estas preguntas han sido un amplio tema de interés en la literatura bayesiana9.
Inferencia bayesiana
La distribución a posteriori una combinación de datos y de la distribución a priori del parámetro o vector de parámetros θ, dada la información y, denotada por P(θ|y), es obtenida a través de la aplicación del teorema de Bayes y contiene la información relevante sobre el parámetro desconocido.
Redes bayesianas
Una red bayesiana (RB) es una gráfica que representa el dominio de las variables de decisión, las relaciones cuantitativas y cualitativas de éstas y sus medidas de probabilidad; asimismo, puede incluir funciones de utilidad que representan las preferencias del tomador de decisiones.
Una importante característica de las RB es su forma gráfica, lo cual permite representar en una forma visual complicados razonamientos probabilísticos. Otro aspecto por destacar es su parte cuantitativa porque permiten incorporar elementos subjetivos como lo son la opinión de expertos, así como probabilidades basadas en datos estadísticos. Tal vez la característica más importante es que son una representación directa del mundo real y no un proceso de razonamiento.
Las redes bayesianas son gráficas dirigidas acíclicas (GDA). Una gráfica es definida como un conjunto de nodos unidos por arcos. Si entre cada par de nodos hay una relación de precedencia representada por arcos, entonces la gráfica es dirigida. Un ciclo es una trayectoria que inicia y termina en el mismo nodo. Una trayectoria es una serie de nodos contiguos conectados por arcos dirigidos. Cada nodo en una RB se asocia con un conjunto de tablas de probabilidades. Los nodos representan las variables de interés, las cuales pueden ser discretas o continuas. Una red causal, de acuerdo con Pearl (2000), es una RB con la propiedad adicional de que los nodos padres son las causas dirigidas.10
Algoritmos para cálculo de inferencia en redes bayesianas
Una red bayesiana es empleada básicamente para inferencia a través del cálculo de las probabilidades condicionales dada la información disponible hasta el momento para cada nodo (creencias). Existen dos clases de algoritmos para el proceso de inferencia: el primero genera una solución exacta y el segundo produce una solución aproximada con alta probabilidad. Entre los algoritmos de inferencia exacta se tienen, por ejemplo, polytree, clique tree, junction tree, algorithms of variable elimination y method of Pear.
El uso de soluciones aproximadas es motivado por el crecimiento exponencial de tiempo de procesamiento requerido para soluciones exactas, de acuerdo con Guo y Hsu (2002) este tipo de algoritmos puede agruparse en stochastic simulation, model simplification methods, search based methods y loopy propagation methods; el más conocido es el de simulación estocástica que se divide en importance sampling algorithms y Markov Chain Monte Carlo (MCMC) methods.
Construcción de una red bayesiana para el proceso de bancarización de Procampo
En la gráfica 1 se muestra un flujograma simple para construir una RB. El primer paso es definir el dominio del problema donde se especifique el propósito de la RB. Posteriormente se identifican las variables o nodos importantes en el dominio del problema. Después se representa en forma gráfica la interrelación entre nodos o variables. El modelo resultante debe ser validado por los expertos en el tema. En caso de haber desacuerdo entre ellos se regresa a uno de los pasos anteriores hasta alcanzar el consenso. Los últimos tres pasos son incorporar la opinión de los expertos (referida como la cuantificación de la red), crear escenarios factibles con la red (aplicaciones de redes) y poner a punto las estimaciones en el tiempo (mantenimiento de la red).
Problemática
Los principales problemas a que se enfrenta un administrador de riesgo que emplea RB son ¿cómo implementar una red bayesiana?, ¿cómo modelar su estructura?, ¿cómo cuantificarla?, ¿cómo utilizar datos subjetivos (de expertos) u objetivos (estadísticos) o ambos?, ¿qué instrumentos se deben utilizar para obtener mejores resultados?, ¿cómo validar el modelo? Las respuestas a estos cuestionamientos, en su momento, se abordarán en la aplicación del modelo bayesiano.
El objetivo principal de la aplicación consiste en elaborar una guía para implementar una RB para medir el riesgo operacional en el proceso de bancarización de Procampo. Asimismo, se pretende generar una medida consistente del capital económico necesario para hacer frente a pérdidas derivadas de eventos de riesgo operacional.
Alcances de la aplicación
El caso de estudio se enfoca en el análisis de los eventos de riesgo operacional que se presentaron durante la dispersión de recursos para el pago de apoyos de Procampo por parte de los bancos contratados para este servicio. Una vez identificados los factores de riesgo asociados a cada fase del proceso, se definen los nodos que formaran parte de la red bayesiana y que son variables aleatorias que pueden ser discretas o continuas, las cuales tienen asociadas distribuciones de probabilidad.
Para el caso de que se tengan datos históricos relacionados con los nodos (variables aleatorias) se les ajusta una función de distribución; en caso contrario, se recurre a los expertos o fuentes externas para determinar las probabilidades de ocurrencia o el parámetro de alguna función de probabilidad conocida. Los datos disponibles son quincenales y abarcan el periodo de 2008 a 2011; se calcula la máxima pérdida esperada quincenal derivada de fallas en el proceso de pagos de Procampo por trasferencia electrónica.
Construcción y cuantificación del modelo
Los nodos seleccionados son conectados con arcos dirigidos (con flechas) para formar una estructura que muestra la dependencia o relación causal entre éstos. La RB se divide en dos redes: una para modelar la frecuencia y la otra para la severidad. Lo anterior facilita su análisis, pues una vez obtenidos los resultados por separado se agregan a través del método de simulación Monte Carlo para obtener la pérdida esperada.
Frecuencia
La red completa de la frecuencia se muestra en la gráfica 3, que se genera a partir del análisis de factores de riesgo vinculados con la bancarización. Estos factores se presentan durante el proceso de dispersión de recursos (transferencias electrónicas a las cuentas de beneficiarios) que se opera a través del sector bancario. Los riesgos se clasificaron de la siguiente manera:
a) Sistemas
I. Cancelación del servicio
II. Causa indefinida
III. Cuenta bloqueada
b) Recursos humanos
I. Insuficiencia de fondos
II. Cuenta inexistente
III. Cuenta no pertenece al banco receptor
c) Procesos
I. Cuenta cancelada
II. Cuenta en otra divisa
III. Cuenta inexistente
Severidad
La red de la severidad se muestra en la gráfica 4, que se integra por cuatro nodos, aunque requiere una cantidad importante de probabilidades. El nodo etiquetado como severidad de pérdida es el costo adicional que se incurre por no realizar las trasferencias de manera exitosa, lo que obliga a pagar a través de cheques; los otros nodos se consideran variables informativas.
A continuación se describen las características y estados de cada nodo de las redes de severidad y frecuencia respectivamente.
Cuantificación de la red bayesiana
Para cuantificar las redes bayesianas identificadas en la sección anterior, se utilizaron tanto datos objetivos como subjetivos. A continuación se describen las herramientas o técnicas que se emplearon para obtener, codificar y cuantificar los tipos de datos.
• Análisis estadístico de la red de frecuencia
En este apartado se analiza cada nodo de la red de frecuencia; para el caso de nodos con información histórica disponible, se ajusta11 la distribución de probabilidades correspondiente y se calculan las probabilidades requeridas. Cuando no se cuenta con datos suficientes se obtiene la información de los expertos o de fuentes externas. Los errores ocasionados por el personal interno en el desempeño de sus funciones denotado por el nodo Recurso humano tiene la siguiente distribución de probabilidades:
El buen funcionamiento de las instituciones bancarias depende del desempeño de sus procesos; la madurez de éstos se asocia a sistemas de gestión de la calidad en el nivel proceso y producto. Las probabilidades condicionales del nodo etiquetado como Desempeño de procesos son las siguientes:
Con respecto a las probabilidades del nodo etiquetado como Eficiencia del desempeño son condicionadas a las probabilidades de los nodos Desempeño de procesos y Recurso humano, con lo cual se obtiene la siguiente tabla de probabilidades condicionales:
Existe una probabilidad condicional del 20% dado que por error del recurso humano no se tengan recursos presupuestales suficientes y que por proceso se cancelé la cuenta de que el desempeño sea excelente. Las otras probabilidades condicionales se leen de manera similar.
Con respecto al nodo etiquetado como Sistemas, son errores generados por los sistemas de información del banco que tienen la siguiente distribución de probabilidades que se calcularon con información cualitativa proporcionada por los expertos en los sistemas de pago de Aserca.
Finalmente, para el nodo objetivo Frecuencia de fallas, se supone una función de distribución binomial negativa con probabilidad de éxito p=0.51 y límite de éxitos igual a 1.000; este supuesto es consistente con la práctica financiera y estudios del riesgo operacional que muestran que el número de fallas usualmente siguen una distribución de Poisson o una binomial negativa. Para estimar el valor de los parámetros se recurrió a los expertos y se complementó con resultados del análisis de los otros nodos de la red de frecuencia.
• Análisis estadístico de la red de severidad
En este apartado se analiza cada nodo de la red de severidad. Para el caso de nodos con información histórica disponible se ajusta la distribución de probabilidad correspondiente y se calculan las posibilidades requeridas. Cuando no se cuenta con datos suficientes se obtiene la información de los expertos o externa.
El nodo Falla en sistemas presenta la siguiente distribución de frecuencias y densidad exponencial ajustada para las pérdidas ocasionadas por fallas en los sistemas.
Para determinar la bondad del ajuste se realizó la prueba de Kolmogorov-Smirnov con los siguientes valores: D = 0.0811, p-value = 0.77. En otras palabras se acepta la hipótesis nula de que la muestra proviene de una Lognormal. Por lo tanto, se calcula la tabla de probabilidad para este nodo de la red de severidad misma que constituye las probabilidades a priori.
A partir del cuadro se ve que existe una probabilidad del 86% de que se pierdan hasta 500 pesos por fallas en los sistemas, 9% de probabilidad de que se pierdan entre 500 y 1 000 pesos, 2.5% de la pérdida está entre 1 000 y 1 500 pesos, y 2.5% de probabilidad de que la pérdida sea mayor a 1 500 pesos en un periodo de 15 días.
A continuación se analiza el nodo Errores humanos, el cual presenta la siguiente distribución de frecuencia y densidad Lognormal ajustada para pérdidas ocasionadas por errores humanos.
Para determinar la bondad del ajuste se realizó la prueba K-S con los siguientes resultados: D = 0.1064 y p-value = 0.6486. De esta manera se acepta la hipótesis nula de que la muestra proviene de una Lognormal. Por lo tanto, se calculan las probabilidades para este nodo de la red de severidad, las cuales constituyen las probabilidades a priori.
A partir del cuadro se observa que existe una probabilidad del 66% de que se pierdan menos de 500 pesos por fallas en errores humanos, 16% de probabilidad de que se pierdan entre 500 y 1 000 pesos, 10% de que la pérdida esté entre 1 000 y 2 000 pesos, 4% de que la pérdida esté entre 2 000 y 3 500 pesos, y 3% de probabilidad de que la pérdida sea mayor a 3 500 pesos quincenales.
Para el nodo Procesos se presenta la siguiente distribución de frecuencias y densidad Lognormal ajustada para las pérdidas ocasionadas por fallas en los procesos o procedimientos, entre otros.
Para determinar la bondad del ajuste se realizó la prueba K-S que produce los siguientes valores: D = 0.0799, p-value = 0.6575. En otras palabras se acepta la hipótesis nula de que la muestra proviene de una Lognormal; por lo tanto, se calcula la probabilidad para este nodo de la red de severidad que constituye las probabilidades a priori.
De acuerdo con los datos generados existe una probabilidad del 63% de que se pierdan menos de 5 000 pesos por eventos derivados en fallas en procesos, 20% de probabilidad de que se pierdan entre 5 000 y 15 000 pesos, 10% de que se pierdan entre 15 000 y 35 000 pesos, y 7% de probabilidad de que la pérdida sea mayor a 35 000 pesos en una quincena.
Por último, el nodo objetivo Severidad de la pérdida representa las pérdidas asociadas con los nodos Fallas en sistemas, Errores humanos y Eventos en procesos. Para el cálculo de la tabla de probabilidades condicional se utilizó una función de distribución Lognormal con parámetros media de log(x)=8.13 y desviación estándar de 1.57. A continuación se generan las probabilidades a posteriori para lo cual se utilizan técnicas de inferencia bayesiana.
Probabilidades a posteriori
Una vez analizados cada uno de los nodos (variables aleatorias continuas o discretas) de las redes tanto de frecuencia como de severidad y asignadas las correspondientes funciones de distribución de probabilidades, se generan las probabilidades a posteriori; para ello se utilizan técnicas de inferencia para redes bayesianas, en particular el algoritmo denominado junction tree.12 Las probabilidades a posteriori para los nodos de la red de frecuencia que tienen al menos un padre13 son las siguientes.
Los resultados del nodo Eficiencia del desempeño muestran que existe una probabilidad del 24% de tener un desempeño excelente. Asimismo, una probabilidad del 12% de que se presenten problemas menores con un desempeño medio y una probabilidad del 64% de que el desempeño sea deficiente. Las probabilidades calculadas están condicionadas por el desempeño de los procesos.
En cuanto al nodo Desempeño de procesos, la probabilidad de que existan cuentas canceladas es del 81%, de que la cuenta esté en otra divisa es del 10% y de que la cuenta no exista es del 9%; todo esto condicionado a que existan fallas en el recurso humano.
Por último, la distribución de probabilidades del nodo de interés Frecuencia de fallas muestra una probabilidad del 81% de que se presenten menos de 1 000 fallas, una probabilidad del 19% de que tengan entre 1 000 y 2 000 fallas, y una probabilidad nula de que se presenten más de 2 000 fallas; dichas probabilidades están condicionadas a los equívocos de sistemas y de la eficiencia de los procesos y confiabilidad de las personas.
Para el cálculo de las probabilidades del nodo de interés se utilizó una binomial negativa con parámetros número de éxitos=1000 y probabilidad de éxito p = 0.51, lo cual es consistente con la evidencia empírica de que la frecuencia de eventos de riesgo operacional tienen un ajuste adecuado bajo esta distribución.14 Para el caso de la red de severidad se tiene las siguientes probabilidades a posteriori.
Las pérdidas originadas por errores humanos en promedio son de 673 pesos quincenales; por lo que respecta a las pérdidas por eventos en los procesos son de 8 554 pesos quincenales en promedio. En cuanto a fallas en los sistemas en promedio se tiene una pérdida quincenal de 350 pesos. La distribución de probabilidades del nodo de interés Severidad de pérdida muestra una probabilidad del 59.7% de que la pérdida esté entre 0 y 5 000 pesos, una probabilidad del 15.69% de que esté entre 5 000 y 10 000 pesos, una probabilidad del 16.31% de que esté entre 10 000 y 30 000 pesos, una probabilidad del 3.93% de que esté entre 30 000 y 50 000 pesos, y una probabilidad del 4.33% de que la pérdida sea mayor a 50 000 pesos quincenales.
Cálculo del Valor en Riesgo Operacional (OpVaR)
Una vez realizada la inferencia bayesiana para obtener las distribuciones de probabilidad a posteriori de la frecuencia y severidad de pérdidas, se integran ambas distribuciones para generar la distribución de pérdidas potenciales (se utilizó una binomial negativa para la frecuencia y una Lognormal para la severidad) a través de un proceso de simulación Monte Carlo.15
Para el cálculo del OpVar se ordenan los valores obtenidos para las pérdidas esperadas en orden descendente y se calculan los percentiles correspondientes:
En consecuencia, si se considera calcular el OpVaR con un nivel de confianza del 96%, se tiene una máxima pérdida esperada de 14 691.29 pesos quincenales por riesgo operacional, relacionados con el proceso de bancarización de Procampo.
Validación del modelo bayesiano
Para validar los resultados del modelo bayesiano, se estiman con modelos clásicos la distribución de probabilidades para la frecuencia y la severidad. Posteriormente, a través de simulación Monte Carlo, se integran ambas distribuciones para obtener la distribución de pérdidas esperadas. Por último, se calcula el riesgo operacional con la distribución de pérdidas estimada en forma clásica y se comparan los resultados con los obtenidos con el modelo bayesiano.
Análisis clásico de frecuencia
Se considera el número de fallas que quincenalmente se presentan en la dispersión de los apoyos que se realizan a través de los principales bancos en México y se le ajusta una distribución binomial negativa con parámetro μ=477, según se muestra en la siguiente gráfica.
La prueba Kolmogorov-Smirnov tuvo los siguientes resultados: D = 0.058, p-value = 0.95, lo que implica aceptar la hipótesis nula de que la muestra proviene de una distribución binomial negativa.
Análisis clásico de severidad
Como pérdidas se considera el monto quincenal que se paga por reexpedición del cheque debido a que no se realizó la trasferencia electrónica a la cuenta del beneficiario y se le ajusta una distribución Lognormal con parámetro media=7.58 y desviación estándar=1.53, según se muestra en la siguiente gráfica.
Se realizó la prueba K-S con los siguientes resultados: D = 0.098, p-value = 0.44. El p-value es mayor al 5%; por tanto, se acepta que la muestra proviene de una Lognormal.
Cálculo del valor en riesgo operacional con el modelo clásico
A través de Monte Carlo se integran las distribuciones clásicas de frecuencia y severidad para generar la distribución de pérdidas potenciales (se utilizó una binomial negativa para la frecuencia y una Lognormal). Para el cálculo del OpVar se ordenan los valores obtenidos para las pérdidas esperadas en orden descendente y se calculan los percentiles correspondientes; a continuación se muestran los resultados con niveles de confianza mayor a 96.
Si se calcula el OpVaR con un nivel de confianza del 96%, se tiene una máxima pérdida esperada de 5 650 pesos quincenales por riesgo operacional con el modelo clásico. Los resultados anteriores muestran que el OpVaR calculado con el modelo bayesiano es mayor al calculado con el modelo clásico, lo cual se explica por la causalidad entre los distintos factores de riesgo, la cual no está considerada en el modelo clásico. Con base en los parámetros (media) de las funciones de distribución calculadas con el modelo bayesiano y el modelo clásico tenemos los siguientes resultados.
La pérdida promedio por evento obtenida con el modelo bayesiano es de 14 pesos, lo que se aproxima más al costo de reexpedición de un cheque cuando no se puede realizar la trasferencia electrónica de recursos a los beneficiarios; en este sentido, el resultado es consistente.
Los factores de riesgo relacionados con los procesos cuenta cancelada, cuenta en otra divisa y cuenta inexistente se traducen en un mal desempeño del proceso con probabilidad del 64% (ver gráfica 8), lo que genera pérdidas quincenales del orden de 8 554 pesos quincenales (ver gráfica 9); para mitigar estos riesgos se proponen las siguientes acciones:
• Mantener actualizado el padrón de beneficiarios.
• Evitar en la medida de lo posible pagos con ambos medios (cheque y depósito).
• Evitar la cancelación de cuentas de manera sistemática.
• Sólo trabajar con cuentas abiertas por Sagarpa.
• Incorporar la orden de pago como otro medio alternativo.
• Concluir con el proceso de bancarización.
Conclusiones
El cambio de pago por cheque a transferencia electrónica en Procampo incrementó de manera considerable la transparencia y oportunidad de la entrega de los apoyos a los beneficiarios del programa, además de reducir los costos administrativos y operativos. Sin embargo, como quedó demostrado en el desarrollo de este trabajo, existen factores de riesgo asociados al proceso de dispersión de recursos que impiden la entrega de éstos a través del depósito en la cuenta de los beneficiarios, lo que obliga a realizar el pago a través de cheques, generándose un costo adicional por cada transacción no exitosa. Los factores de riesgo que más impactan están relacionados con actividades internas para el pago de apoyos, los cuales se pueden mitigar con mejoras a los procesos de dispersión y actualización del padrón, además de continuar con la política de bancarización.
En congruencia con lo anterior, este trabajo proporciona los elementos teóricos necesarios, así como una guía práctica para identificar, medir, cuantificar y administrar el RO en el proceso de dispersión de recursos (transferencia electrónica) con un enfoque bayesiano que mostró utilizar elementos más apegados a la realidad como probabilidades obtenidas de los expertos o externos cuando no existe información histórica, distribuciones de probabilidad específicas para cada factor de riesgo que pueden ser discretas o continuas, actualización de datos que se incorporan al modelo y la interrelación (causalidad) de los factores de riesgo a través de modelos de redes. Asimismo, se mostró que las redes bayesianas son una opción viable para administrar el riesgo operacional en un ambiente de incertidumbre y de información escasa o de calidad cuestionable. El capital requerido en riesgo operacional calculado se basa en el supuesto de interrelación (causa-efecto) entre factores de riesgo, lo cual es consistente con la realidad.
Las redes bayesianas están basadas en algoritmos eficientes de propagación de evidencias, que actualizan dinámicamente el modelo con datos actuales. Para el caso del objeto de estudio de este trabajo fue posible construir la RB y calcular el capital requerido para administrar el riesgo operacional combinando datos estadísticos, así como opiniones o juicios de los expertos o información externa.
El VaR calculado con el enfoque bayesiano es consistente en el sentido de Artzner (1998), pero también resume las complejas relaciones causales entre los diferentes factores de riesgo que derivan en un evento de riesgo operacional. En resumen, debido a que la realidad es mucho más compleja que eventos independientes idénticamente distribuidos, el enfoque bayesiano es una alternativa para modelar una realidad compleja y dinámica.
Referencias
Aquaro, V., M. Bardoscia, R. Belloti, A. Consiglio, F. De Carlo y G. Ferri (2010). A Bayesian Networks Approach to Operacional Risk. Physica A: Statistical Mechanics and its Applications 389 (8): 1721-1728. [ Links ]
Alexander, C. (2002). Operational Risk Measurement: Advanced Approaches. Disponible en: http://www.dofin.ase.ro/Lectures/Alexander%20Carol/Oprisk_Bucharest.pdf. [ Links ]
Artzner, P., F. Delbaen, J. Eber y D. Heath (1999). Coherent Measures of Risk. Mathematical Finance 9 (3): 203-228. [ Links ]
Basilea II (2001). Consultative document. Operational Risk. [ Links ]
Basilea II (2001). Working Paper on the Regulatory Treatment of Operational Risk. [ Links ]
Cowell, R. (1999). Introduction to inference for bayesian networks. In Jordan: 9-26. [ Links ]
Cruz, M., ed. (2004). Operational Risk Modelling and Analysis. Theory and Practice. London: Risk Books. [ Links ]
Degen, M., P. Embrechts y D. Lambrigger (2007). The Quantitative Modeling of Operational Risk: Between g-and-h and EVT. Disponible en: http://www.actuaires.org/ASTIN/Colloquia/Orlando/Papers/Degen.pdf. [ Links ]
Embrechts, P., H. Furrer y O. Kaufmann (2003). Quantifying Regulatory Capital for Operational Risk. Derivatives Use, Trading and Regulation 9 (3): 217-233. [ Links ]
Ferguson, T. S. (1973) A Bayesian Analysis of Some Nonparametric Problems. Annals of Statistics 2 (4): 615-629. [ Links ]
Guo, H. and W. Hsu (2002). A Survey of Algorithms for Real-Time Bayesian Network Inference. Disponible en: http://aaaipress.org/Papers/Workshops/2002/WS-02-15/WS02-15-001.pdf. [ Links ]
Heinrich, G. (2006). Riesgo operacional, pagos, sistemas de pago y aplicación de Basilea II en América Latina: evolución más reciente. Boletín del CEMLA, octubre-diciembre: 191-204. [ Links ]
Ishikawa, K. (1943). Diagrama Causa-Efecto. Disponible en: http://es.wikipedia.org/wiki/Diagrama_de_Ishikawa. [ Links ]
Jensen, F. V. (1996). An Introduction to Bayesian Network. London: Taylor & Francis Group. [ Links ]
King, J. L. (2001). Operational Risk: Measurement and Modeling. West Sussex: John Wiley & Sons. [ Links ]
Kartik, A. y K. Reimer (2003). Phase transitions in operational risk, Physical Review E, 75 (1): 016111-1-016111-12. [ Links ]
Lauritzen, S.L. y D.J. Spiegelhalter (1988). Local computations with probabilities on graphical structures and their applications to expert systems. In Proceedings of the Royal Statistical Society 50: 154-227. [ Links ]
Leippold, M. y P. Vanini (2003). The Quantification of Operational Risk. Disponible en: http://papers.ssrn.com/sol3/papers.cfm?abstract_id=481742 [ Links ]
Moscadelli, M. (2004). The Modelling of Operational Risk: Experience with the Analysis of the Data Collected by the Basel Committee. Disponible en: http://papers.ssrn.com/sol3/papers.cfm?abstract_id=557214 [ Links ]
Neil, M., N. Fenton y M. Tailor (2004). Using Bayesian Networks to Model Expected and Unexpected Operational Losses. Risk Analysis 25 (4): 963-972. [ Links ]
Panjer, H. (2006). Operational Risk Modeling Analytics. New Jersey: John Wiley & Sons. [ Links ]
Pearl, J. (2000). Causality, Models, Reasoning, and Inference. Cambridge: Cambridge University Press. [ Links ]
Reimer, K. y P. Neu (2002). Adequate Capital and Stress Testing for Operational Risks. Disponible en: http://www.mth.kcl.ac.uk/~kuehn/published/12Kuhn.pdf. [ Links ]
---------- (2003). Functional Correlation Approach to Operational Risk in Banking Organizations. Disponible en: http://arxiv.org/pdf/cond-mat/0204368.pdf. [ Links ]
Svetlozar, T., J. Hsu, S. Biliana y F. Fabossi (2008). Bayesian Methods in Finance, New Jersey: Jonh Wiley & Sons. [ Links ]
Supatgiat, C., C. Kenyon y L. Heusler (2006). Cause-to-Effect Operational Risk Quantification and Management. Risk Management 8: 16-42. [ Links ]
Ramamurthy, S., H. Arora y A. Ghosh (2005). Operational Risk and Probabilistic Networks an Application to Corporate Actions Processing. Disponible en: http://www.hugin.com/cases/Finance/Infosys/oprisk.article [ Links ]
Venegas-Martínez, F. (2006). Riesgos financieros y económicos (productos derivados y decisiones económicas bajo incertidumbre. México: International Thomson Editors. [ Links ]
Zellner, A. (1971). An Introduction to Bayesian Inference in Econometrics, New Jersey: John Wiley & Sons. [ Links ]
1 También conocido como riesgo operativo.
2 La bancarización es el cambio de medio de pago de cheque a transferencia electrónica.
3 Cuando se haga referencia a expertos nos referimos a funcionarios de la Secretaría de Agricultura, Ganadería, Desarrollo Rural, Pesca y Alimentación (Sagarpa) que tienen la experiencia y conocimiento sobre la operación y administración del proceso de pago de apoyos directos de Procampo.
4 Usualmente, para medir la máxima pérdida esperada (o capital económico) por RO se utiliza el Valor en Riesgo Condicional (CVaR).
5 Ver Apéndice A.
6 Órgano desconcentrado de la Sagarpa.
7 Para un análisis completo sobre la no coherencia del VaR, se recomienda revisar Venegas-Martínez (2006).
8 Para una revisión del teorema de Bayes ver, por ejemplo, Zellner (1971).
9 Ver Ferguson (1973).
10 Para una revisión de la teoría de las redes bayesianas consulte Jensen (1996).
11 Ajustar una distribución consiste en encontrar una función matemática que represente de la mejor manera a una variable estadística. Existen cuatro pasos para llevar a cabo el ajuste: 1) hipótesis sobre el modelo, 2) estimación de parámetros, 3) evaluación de la calidad de ajuste y 4) prueba estadística de la bondad de ajuste. Para realizar este trabajo se utilizó el lenguaje estadístico R: primero se graficó la distribución de frecuencias de los datos reales para proponer un modelo de distribución, después se realizaron diferentes estimaciones para encontrar el mejor parámetro; finalmente se realizó la prueba Kolmogorov-Smirnov (K-S) para determinar estadísticamente la bondad del ajuste, que será un buen indicador si p-value > 0.05.
12 Para una consulta detallada del algoritmo revise Guo y Hsu, 2002.
13 Los nodos que no tienen padre mantienen las probabilidades a priori.
14 Ver Svetlozar et al. (2008).
15 Los resultados de la simulación están disponibles a los lectores mediante solicitud por correo electrónico.