SciELO - Scientific Electronic Library Online

 
vol.2 número4La evolución del rol del capital humano en la determinación de los ingresos en Bolivia en el período 2004-2015. Una aplicación del modelo de Mincer y regresión por cuantilesHeterogeneous Growth and Regional (Di)Convergence in Bolivia: A Distribution Dynamics Approach índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Economía Coyuntural

versión impresa ISSN 2415-0622versión On-line ISSN 2415-0630

Revista de coyuntura y perspectiva vol.2 no.4 Santa Cruz de la Sierra oct. 2017

 

DOI: 10.5281/zenodo.1211811

 

ARTÍCULOS ACADÉMICOS

 

Riesgo de mercado métodos no paramétros: caso Hong Kong.

 

 Market risk non-parametric methods: Hong Kong case

 

 

Julian Pareja Vasseurξ   Juan Giraldo CerónΨ   Santiago Zapata Valenciaρ
ξ PhD (c) en Administración Estratégica de Empresas de Centrum Católica de Perú, Profesor Asociado de Finanzas de la Universidad EAFIT,
adscrito a la Escuela de Economía y Finanzas. Correo electrónico: jparejav@eafit.edu.co

Ψ Maestria en Administración Financiera de la Universidad EAFIT, Analista de Inversiones y Asociado al Fondo Velum
Ventures. Correo electrónico: juancarlosgiraldo21@gmail.com

ρ Maestria en Administración Financiera de la Universidad EAFIT Correo electrónico: szapat14@eafit.edu.co
Recepción: 17/10/2017       Aceptación: 25/11/2017

 

 


Resumen

En el presente artículo se utilizaron las metodologías de valor en riesgo tradicional como el condicional, con el fin de examinar el comportamiento del riesgo de mercado para el índice Hang Seng. Se apropia el uso de la metodología de simulación de Monte Carlo, de métodos   no paramétricos y, además se analiza la robustez de los resultados por medio de pruebas de cobertura. El principal hallazgo indica que dos de los cuatros métodos utilizados poseen un poder predictivo de las crisis del mercado accionario de Hong Kong. Para futuras investigaciones se promueve el uso de otro tipo de metodologías, que permitan modelar de manera apropiada la situación de mercado.

Palabras clave valor en riesgo (VaR), simulación de Monte Carlo, volatilidad, índice Hang Seng (HSI).


Abstract

In this paper are used both traditional and conditional value-at-risk, in order to examine the behavior of market risk for the Hang Seng index. It is appropriated the use of the Monte Carlo simulation methodology, non-parametric methods and in addition, the robustness of the results is analyzed by means of hedge tests. The main finding indicates that, two of the four methods used, have a predictive power of the stock market crises in Hong Kong. For future research, the application of other type of methodologies it is promoted, allowing to be modeled the market situation appropriately.

Keywords value at risk (VaR), Monte Carlo simulation, volatility, Hang Seng index (HSI).


Clasificación JEL: C14; C58; G01; G12; G32.


 

 

Introducción

El llamado gigante asiático, considerado actualmente potencia mundial en el contexto político y económico, evolucionó a una estructura híbrida capitalista, donde se permite la propiedad privada, pero con administración por parte del gobierno. Este auge de la economía China, se facilitó a partir de relevantes cambios a nivel de los sistemas financieros, bursátiles, inmobiliarios y de comercio exterior, entre otros. Pero este fenómeno de “occidentalidad”, le ha generado múltiples problemas a su economía, como es la existencia de burbujas inmobiliarias y financieras, que afecta no sólo las ganancias directas de los agentes que participan en ella, sino que además incrementan de manera notoria el riesgo, que se transmite en una marcada desestabilidad económica. Como elemento detonador de esta incertidumbre y que se materializó en altos niveles de volatilidad y riesgo, fue el hecho de que grandes inversionistas institucionales han entrado a participar del mercado, una vez consumado el hecho de la entrega de parte del gobierno británico al chino del distrito especial de Hong Kong, suceso este considerado como su apertura al mundo occidental.

La volatilidad entendida como una medida de cuantificación de la incertidumbre, es un elemento útil que permite estimar las probabilidades asociadas a determinados eventos (Tarapuez Chamorro, Zapata Erazo & Agreda Montenegro, 2008; Haahtela, 2007) y ha servido además como base fundamental para un importante desarrollo en el campo de gestión de riesgo y en la cuantificación del riesgo de mercado en diferentes áreas de actuación;  por ejemplo, autores como Machinea (2009) y Koesterich (2015) demostraron la presencia de altas volatilidades en periodos de crisis financieras internacionales, hecho que generó desconfianza entre los agentes económicos y que terminó plasmando en pérdidas para el mercado. De manera más específica para la presente investigación, He, Zhang y Wang (2009) y Sin (2015) utilizaron la volatilidad bajo diferentes metodologías, con el fin de cuantificar los efectos que tiene en diferentes mercados, mientras que Da Silva y de Melo Mendes (2003) y Chan y Fung  (2006), buscaron tipificar el comportamiento de las distribuciones de las series accionarias para los mercados asiáticos. Las anteriores investigaciones no solo permitieron sentar bases para la construcción del marco teórico y de estudios recientes, sino que también sirvieron como agente motivador y de desafío para realizar esta investigación, que tiene como fin el profundizar en el tema de riesgo del mercado asiático.

El presente artículo es el resultado de una investigación que tiene como objetivo, cuantificar el riesgo en el mercado de capitales de Hong Kong utilizando como proxy el índice Hang Seng, con el fin de estimar la volatilidad que se experimentó en los recientes períodos de crisis. Lo anterior permitió predecir dichas inestabilidades en forma adecuada mediante el uso de metodologías no paramétricas, las cuales podrían ser utilizadas e incorporadas en la gestión de riesgo con el fin de pronosticar futuras crisis en otros mercados.

La presentación del artículo se hace en cinco secciones; en la primera se revisan de manera suscita algunos elementos de la volatilidad en mercado de Hong Kong, en la segunda se presenta el marco teórico de la investigación; en la tercera se hace una revisión de la literatura y los estudios previos; en la cuarta se presenta el marco conceptual de la investigación; en la quinta se describe la metodología utilizada y por último se presentan los resultados y se plantean unas conclusiones a manera de discusión.

 

1.  Breve descripción del mercado de Hong Kong

En los últimos años, los mercados de capitales chinos superaron en capitalización bursátil mediante las bolsas de Shanghái y Shenzhen a muchos de su región, cifra que se acercó a los USD 10,2 trillones a mediados del 2015, una cifra que corresponde a más de 10% de producto interno bruto mundial (World Federation of Exchanges o WFE, 2015), en comparación a los USD 400 billones para el 2005, según KPMG  (2011); otro dato relevante, es que ambas bolsas combinadas superaron hasta el año 2016 la capitalización del Nikkei en Japón. Según WFE (2015), los fondos invertidos en China en acciones llegaron a un monto de USD 131 billones, en contraste a los USD 175 billones para la NYSE, pero lo importante a resaltar corresponde al incremento de flujos para el período de 2008 a 2014 en bolsas chinas, que correspondió a un 186%, mientras para el NYSE decreció en 37,5% para el mismo período. Todos estos hechos, han permitido que la China sea reconocida como el tercer mercado en el mundo en cuanto a capitalización bursátil y el quinto en el mercado de bonos, mientras que su mercado de futuros ha llegado a un nivel alto de profundidad y desarrollo (SSE, 2015).

A partir de la liberación de tramites entre China y Hong Kong, sus economías han venido creciendo a tasas promedio de 28% anual para el periodo comprendido entre 1978 y 1997, principalmente por la transferencia laboral a través de operaciones intensivas en mano de obra a China, lo que mantuvo el desempleo en Hong Kong en niveles inferiores al 3%, gracias a la transformación de la economía de los servicios financieros  (Sin, 2015). Con la entrega oficial de la provincia de Hong Kong al gobierno chino por parte de los británicos en el año 1997, hecho a priori a la crisis asiática, la cual tuvo efectos negativos sobre los precios de las acciones, tanto en China como en Hong Kong; a raíz de este evento, en el año 2003 se firmó el Acuerdo de Relaciones Económicas Cercanas (closer economic relationship arrangement o CEPA), con el fin de mitigar en cierta medida, el efecto adverso de dicha crisis.

Dada la apertura entre estos dos mercados, es posible encontrar que existe un marcado apetito de inversionistas por el mercado chino, en tal sentido, la Bolsa de Hong Kong se cataloga como el punto de acceso por medio del cual, las empresas chinas pueden acceder al mercado de capitales, además de obtener recursos en sus ofertas públicas iniciales (initial public offering o IPO), lo que muestra un auge en las negociaciones, como se ve reflejado en el indicador de inversión extranjera hacia China, que pasa de niveles de 30%  en (para) el 2005 a 67% en el 2014  (Sin, 2015).

Según Machinea (2009), la crisis financiera internacional estuvo caracterizada por niveles nunca alcanzados en diferentes índices de riesgo e indicadores bajos en la confianza de inversionistas y ahorradores, evidenciado por ejemplo en la volatilidad del índice (Standard and Poor’s 500 o S&P500) que fue en promedio, de un 15% anual para los años comprendidos entre 1982 y 2007; mientras que a partir del 2008 ha sobrepasado en promedio el 21% (Koesterich, 2015) . Este efecto causó temor en los mercados Europeos y Chinos (Koesterich, 2015), tal como se reflejó, a través del índice del Shanghái Composite que hasta mediados de 2015 había crecido el 60% en referencia a lo que cotizaba al principio de año, efecto parecido a lo que ocurrió con el Shenzhen Composite, que aumentó en un 120% para el mismo rango de tiempo, pero que a partir de allí, el valor de los mercados accionarios chinos se redujeron en una tercera parte, es decir, más de USD 3 trillones, que equivale a más de un 3% del producto interno bruto mundial; y fue sólo después de múltiples intervenciones por parte del gobierno, que las pérdidas se pudieron estabilizar en aproximadamente 12%  (Brookings, 2015).

Entre las medidas tomadas por el gobierno chino, se cuentan en orden cronológico las siguientes: la suspensión de cotizaciones, una política monetaria expansiva, flexibilidad para invertir por parte de los fondos de pensiones, nuevas normas de operaciones colaterales principalmente en función de los activos, que sirven como respaldo para operaciones apalancadas, estímulos bancarios a través de fondos, recompras de acciones por parte del gobierno, restricciones a las ofertas públicas así como también a los grandes tenedores de acciones, estímulos a préstamos, estabilización en el precio de las acciones, un mayor gasto gubernamental y finalmente una mayor devaluación (Timmons & Kuo, 2015).

Como se puede ver en la Figura 1, existió una gran volatilidad para el índice HSI, con periodos de un mercado al alza, pero con dos grandes caídas, una entre los años 2007 a 2008 y la otra en el año 2015, lo que generó una volatilidad relevante que hizo de este hecho un interesante caso de estudio, y permitió abordar y resolver la pregunta de investigación: ¿la estimación de la volatilidad mediante índice HSI sirve como un buen predictor de las recientes crisis del mercado accionario de Hong Kong utilizando diferentes metodologías no paramétricas?

 

2.  Marco teórico

Toda actividad que realice el ser humano en su vida personal y profesional, implica un determinado nivel de riesgo, que se aplica también en las decisiones de tipo económico, estas últimas, se toman hoy en día más a menudo que antes y tienen gran importancia en su vida social, debido al riesgo inherente que ellas representan, tal y como lo demuestra la revisión de la literatura que sobre ellas se llevó a cabo en la presente investigación.

Los estudios en función de riesgo en la economía tienen sus inicios con los desarrollos estadísticos; fue a partir del surgimiento de la teoría de la decisión, que cuenta las pérdidas esperadas (Gauss, 1826), como también mediante el uso del Teorema del Límite Central planteado por Laplace (1809), que esta se evidencio, pero fue Bernoulli  (1738) el primero en plantear y desarrollar el concepto de aversión al riesgo, el cual fue de gran utilidad para diferentes autores como Von Neumann y Morgenstern (1947), Camerer  (1989), Machina  (1987) y Kahneman y Tversky  (1979), quienes buscaron representar el comportamiento humano y sus respectivos procesos de toma de decisión a partir de funciones de utilidad que representaran, entre otros aspectos, el riesgo.

La teoría de la utilidad esperada, es un primer acercamiento de tratar de incluir el factor riesgo en la toma decisiones (Maya Ochoa & Pareja Vasseur, 2014; Pareja Vasseur & Cadavid Pérez, Valoración de patentes farmacéuticas a través de opciones reales: equivalentes de certeza y función de utilidad, 2016), teoría que termina siendo aplicada con posterioridad a otros campos, como los de formación de portafolios, y es partir de estos, que se comienza a desarrollar las primeras bases para el análisis del riesgo de mercado. Leavens (1945) ofreció un ejemplo cuantitativo práctico para el cálculo de las pérdidas potenciales, mediante la construcción de un portafolio conformado por bonos, estableciendo con lo anterior el primer concepto de riesgo en dicho campo. Posteriormente, a partir de la teoría de formación de portafolios de Markowitz  (1952) y Roy (1952) se planteó la primera aproximación rigurosa a la estimación del valor en riesgo de un portafolio, utilizando metodologías cuantitativas para seleccionar portafolios que maximizaran las ganancias para un nivel determinado de riesgo; además se implementó el concepto de diversificación y cobertura a través de la medida de covarianza. Pero fue Sharpe  (1963) quien planteó a partir del modelo de Markowitz, el conocido modelo de precios de activos de capital (capital asset pricing model o CAPM) que incluso en la actualidad se emplea en muchas instancias para valorar portafolios y que ha sido fuente de un gran número de investigaciones y extensiones, entre las más conocidas se cuentan los trabajos de Fama y French (1992) y el de Campbell  (1993); este último autor, demostró que el factor de mayor preponderancia que hay en los altos retornos de las acciones, corresponde al riesgo de mercado.

Vale la pena mencionar, que a causa del limitado poder computacional, los modelos investigados hasta ese momento eran únicamente era para acciones, entre los trabajos hechos en este campo se cuentan los de Tobin (1958), Treynor  (1961), Sharpe  (1964), Lintner  (1965) y Mossin (1966), autores que condicionaron su análisis estrictamente a la teoría de portafolio, dejando a un lado otro tipo de activos (Holton, 2002); pero sólo fue con los trabajos de Schrock  (1971) y Dusak Miller (1977) cuando se amplió el espectro de la medición del riesgo, por fuera de lo tradicional, para este caso mediante el uso de futuros. Por su parte, Lietaer (1971) buscó hacer lo mismo, pero utilizando para ello, portafolios con posiciones en divisas; su trabajo empleó, en forma pionera, el uso de simulación de Monte Carlo para la medición del riesgo.

Según Holton (2002), en el período comprendido entre 1970 y 1990 se realizaron importantes desarrollos en la medición del riesgo de mercado, que cubrieron diferentes aspectos entre los que se cuentan: a) diversos tipos de activos a los que se les pudo aplicar estos modelos de medición del riesgo, b) cambios organizacionales para cuantificar y mitigar el riesgo, y c) disponibilidad tecnológica que se utilizó para aplicar metodologías en múltiples contextos. Durante esta etapa, fue común encontrar que el efecto de apalancamiento incrementó en gran medida el uso de diferentes metodologías para estimar el riesgo, especialmente para aquellas instituciones que se percibían con altos grados de este indicador  (Holton, 2002). En tal sentido, estudios como los desarrollados por Campbell, Lettau, Malkiel y Xu  (2001) evidenciaron un notable incremento en la volatilidad en los casos de empresas en comparación con su símil de mercado, para los períodos comprendidos entre 1962 y 1997, lo que creo la imperiosa necesidad de medir con mayor certeza las pérdidas potenciales.

Pero la gestión del riesgo también se aplicó al marco regulatorio del sistema financiero, como se evidenció a partir del derrumbe bursátil de 1929, cuando la Bolsa de Nueva York comenzó a exigir niveles mínimos de capital para proteger a sus inversionistas, es entonces cuando aparecen regulaciones como la regla uniforme de capital neto (uniform net capital rule o UNCR) y los Acuerdos de Basilea, el I en 1988, el II en 1992, y el III en 2010. En cada uno de ellos, se incluyeron los nuevos desarrollos académicos y de igual manera, se adaptaron a las nuevas condiciones del ambiente financiero, con reglas y métodos de medición cada vez más sofisticados y adecuados a la realidad de mercado.

Entre los desarrollos institucionales importantes de aquella época se cuenta el modelo RiskMetrics en 1980 de JP Morgan, que permitió agregar de manera recursiva, los cambios en las posiciones de todos los activos respecto a sus factores de riesgo y, a partir de lo anterior, calcular las pérdidas potenciales del portafolio, suponiendo normalidad en su construcción. Un elemento relevante fue que, se le atribuyó el término de Valor en Riesgo (value at risk o VaR), método con el cual se mide la posibilidad de pérdida de un portafolio como riesgo de mercado. Sin embargo, trabajos posteriores como los de Beder (1995) y Marshall y Siegel (1997), permitieron generar debates sobre los problemas y limitaciones del VaR como medida del riesgo, a ello se les sumaron los trabajos hechos por Taleb (1997) y Dembo (1998), quienes demostraron la dependencia del VaR sobre las expectativas de riesgo del usuario y las altas desviaciones que se presentan en su cálculo,  además  de la existencia de la subjetividad en su construcción, y del riesgo sistémico que genera su uso masivo; finalmente, dicho modelo no cumple la premisa básica de subaditividad de las medidas de riesgo coherentes, en las que tener posiciones en dos activos diferentes puede reducir el riesgo a través de la diversificación  (Artzner, Delbaen, Eber, & Heath, 1998).

A partir de estos problemas, se hacen desarrollos mediante nuevas medidas del riesgo que fueran coherentes††, como por ejemplo el VaR condicional (conditional VaR o CVaR), también conocido como el déficit esperado (expected shortfall o ES), o la teoría del valor extremo (extreme value o EV), que permite modelar de manera más acertada, las características empíricas asociadas a los comportamientos de los retornos accionarios, como por ejemplo la presencia de colas pesadas o fat tails, presentes en las distribuciones de muchos de los activos financieros (Ortiz Alvarado & Girón, 2015; Reyes Zárate, 2015; Danielsson & de Vries, 2000), al igual que la presencia de autocorrelación en largos períodos de tiempo (Ding, Granger, & Engle, 1993). Bollerslev y Mikkelsen  (1996) concluyeron que, la aparente dependencia de largo plazo en la volatilidad de mercado accionario se describe mejor para predicciones ex ante con modelos autorregresivos con reversión a la media, es decir, mediante modelos del tipo heterocedasticidad condicional autorregresiva generalizada (generalized autoregressive conditional heteroskedasticity o GARCH).

En conclusión, a partir de la crisis financiera de 2009 se creó la necesidad de robustecer las normas que regulan los requerimientos mínimos de capital de las entidades financieras, en tal sentido, se hace necesario considerar medidas que complementen al VaR, más que reemplazarlo, y con ello poder medir y estimar las pérdidas potenciales de una forma más acertada y precisa, al igual que el uso de metodologías que suministren una información más fiable sobre las pérdidas máximas que se pueden presentar por fuera de los rangos determinados por el VaR, utilizando como elementos fundamentales, la inclusión de la asimetría y la modelación de las colas con las respectivas pérdidas observadas (Danielsson & de Vries, 2000).

 

3.  Revisión de la literatura y estudios previos

En la literatura actual existen pocos estudios que han tratado la dependencia entre los mercados de la China continental y Hong Kong, y que hayan vislumbrado y cuantificado la potencial relación entre ambos. En la Tabla 1. se relacionan las investigaciones que han tratado dicho tema.

En resumen, autores como He et al. (2009) y Sin (2015), aplicaron en sus trabajos modelos de vectores autorregresivos (vector autorregresive o VAR) para analizar desde el punto de vista econométrico, la relación entre los mercados; el primero hace su análisis entre las economías de Estados Unidos, China y Hong Kong para 2009, donde cuantifico el efecto de las noticias de China continental en el mercado accionario de Hong Kong al relacionar la interdependencia entre ambas economías; mientras que el segundo se enfocó en las economías de Taiwán, Hong Kong y China hasta octubre de 2013, concluyendo que, la incertidumbre en políticas de China continental conduce a efectos únicamente en los niveles de precios, pero limita su efecto al corto plazo, pero sin embargo, resulta significativo estadísticamente, en forma similar a lo encontrado por He et al. (2009).

Por otra parte, autores como Da Silva y de Melo Mendes  (2003) y Chan y Fung  (2006) caracterizaron el comportamiento de las series accionarias para los mercados asiáticos; los primeros, tipificaron la distribución de valor extremo tipo Fréchet, que se ajusta de un modo mejor a los mercados asiáticos y llevan a cabo su análisis para Hong Kong, India, Indonesia, Japón, Malasia, Filipinas, Singapur, Taiwán y Tailandia. Según el teorema de Fisher y Tippett (Basrak, 2011), las distribuciones de valor extremo pueden ser tres, con un parámetro k  que denota el peso de las colas: a) la de Gumbel para k=0, donde está la normal y la lognormal, es decir colas delgadas; b) la de Fréchet para k>0, aplica a la t de Student y a la Pareto, que poseen colas gruesas; y c) la de Weibull para k<0, cuando no hay presencia de colas. Además, utilizaron la metodología de VaR por valor extremo (extreme value theory - value at risk o EVT-VaR) para las series presentadas, mediante la comparación de sus resultados con los métodos tradicionales de estimación del VaR (paramétrico e histórico) y encontraron que el método EVT-VaR es más conservador que los tradicionales. Los segundos, es decir Chan y Fung  (2006) determinaron el comportamiento de las volatilidades diarias para el índice Hang Seng de Hong Kong, utilizando un modelo tipo GARCH, el cual se ajustó de modo correcto y entrego volatilidades diarias proyectadas satisfactorias. Los autores concluyen que, incluir en el modelo GARCH diferentes estimaciones de las volatilidades como variables explicativas en el modelo mejora el desempeño predictivo del mismo, en especial al emplear la volatilidad realizada o la implícita (Pareja Vasseur, Giraldo, & Zapata, 2016).

 

4.  Marco Conceptual

Valor en riesgo (VaR)

El VaR se define como una estimación estadística que permite calcular la posibilidad de pérdida en un portafolio de acuerdo con una probabilidad dada en un tiempo determinado (Yu & So, 2003). También se puede concebir cómo el capital suficiente para cubrir, en la mayoría de los casos, pérdidas de un portafolio en un determinado período de tiempo (Gilli & Këllezi, 2006). En términos matemáticos, si Pt  es el precio del activo financiero en el día t , el VaR en una posición larga del activo para k  días, es definido como:

Donde α hace referencia al percentil del VaR. Para una distribución de retornos determinada, el VaR se puede expresar en términos de percentil en la distribución de retornos (Jorion, 2007). Si qa es el percentil α de la distribución de rendimientos compuestos continuos log(Pt) - log(Pt-k), entonces el VaR se puede expresar así:

 

Metodologías para el cálculo del VaR

Existen varias metodologías desarrolladas para estimar el VaR que se pueden clasificar en dos grandes grupos:

·  Métodos indirectos: donde se estima la distribución de los retornos financieros y después se calcula el VaR. La mayoría de las metodologías desarrolladas pertenecen a esta categoría, como las aproximaciones paramétricas (exponentially weighted moving average o EWMA y robust EWMA), simulación histórica, simulación de Monte Carlo y teoría de valor extremo.

·  Métodos directos: en estos se estima el VaR en forma directa, sin necesidad de estimar la función de distribución de la serie de rendimientos.

Se hace necesario considerar aquí el uso de la simulación de Monte Carlo, ya que es una técnica que “permite considerar todas las posibles combinaciones, interrelaciones y escenarios que pueda tener un proyecto o situación específica que se requiera analizar” (Bravo & Sánchez, 2007, pp. 275-276).

Método de Monte Carlo estructurado (MCE)

De acuerdo con Jorion (2007), este método permite contextualizar las series financieras ya que incorporan a una situación normal, múltiples datos incluso muchos de ellos extremos, con lo cual se modela de forma hipotética, el comportamiento que tendría un portafolio según una distribución específica y con una serie de los resultados que permiten el cálculo del VaR. Usualmente para utilizar esta metodología se recurre a un modelo con una ecuación estocástica que incorpora un movimiento geométrico browniano, que supone que los cambios en el precio de activo subyacente no tienen correlación a través del tiempo, lo cual permite finalmente construir la distribución del portafolio.

VaR condicional (CVaR)

Debido a los problemas que subyacen en la estructura del VaR, se crea, entre otras posibilidades, el VaR condicional, que aporta información sobre la cola de la distribución y hace posible estimar un valor esperado de las posibles pérdidas cuando se sobrepasa el VaR  (Rodríguez, 2015).

Metodologías de volatilidad

Entre las metodologías de volatilidad se encuentran los métodos paramétricos y no paramétricos; en los primeros, se supone una forma funcional sobre la volatilidad de los rendimientos de un activo, es decir, para su apropiada utilización se hace necesario definir una distribución determinada; por otra parte, las medidas no paramétricas, se logran a partir de datos históricos, permiten estimar la volatilidad sin suponer una distribución particular sobre la misma. La modelación de la volatilidad de forma no paramétrica, por lo general no supone condiciones funcionales y por tanto, se ajusta a estimaciones de la volatilidad nocional que se entiende como la variabilidad de los retornos históricos de una muestra sobre un intervalo fijo de tiempo, de forma que esta, se considera que es flexible pero a su vez consistente  (Andersen, Bollerslev, & Diebold, 2002).

 

5.  Metodología

Descripción de los datos

Se utilizaron las cotizaciones diarias del principal índice accionario de la bolsa de Hong Kong, es decir el índice HSI que cotiza en forma pública desde 1969. Este índice está compuesto por las empresas líquidas más grandes del mercado y agrupa cinco industrias principales: finanzas, servicios públicos, propiedad raíz, comercio e industria. Las condiciones para que una empresa haga parte del índice son las siguientes: a) estar dentro del percentil 90 en adelante, de acciones con mayor capitalización bursátil del mercado (se promedian los últimos 12 meses para dicho cálculo); b) estar del percentil 90 en adelante, de acciones con mayor retorno (se agregan y estudian los resultados para los últimos 24 meses con periodicidad trimestral); y c) haber estado como mínimo 24 meses listadas en bolsa.

A su vez, las empresas de China continental que cotizan en la bolsa de Hong Kong (H-shares) son elegibles para constituir el índice, siempre y cuando, se cumpla con alguna de las siguientes condiciones: a) el 100% de las acciones se encuentran listadas como H-shares; b) el 100% del capital accionario está listado en forma pública; y c) es un nuevo IPO de H-Shares y la compañía no tiene capital accionario público suscrito. Por último, las empresas que se seleccionan para formar parte del índice con base en: i) su capitalización bursátil y su retorno, ii) Su representación de las industrias elegidas dentro del índice, y iii) los resultados financieros de la empresa  (Hang Seng Index, 2016).

En total se utilizó una muestra de 4.977 datos, que corresponden a las cotizaciones diarias desde diciembre de 1995 hasta febrero de 2016; se emplearon los precios de apertura, de cierre, el máximo y el mínimo.

Métodos no paramétricos utilizados para estimar la volatilidad

1.     EWMA (Exponentially Weighted Moving Average): esta metodología utiliza un parámetro de suavización exponencial λ; donde la volatilidad del día t depende de la volatilidad en dicho período como también la de períodos anteriores, ofreciendo un mayor peso a las más recientes. Dicho parámetro λ varía entre 0 y 1; donde el recomendado por JP Morgan RiskMetrics™ corresponde a 0.94 para las observaciones diarias. La siguiente formula es la que define las ponderaciones para las observaciones:

Donde t  es el período de tiempo y λ corresponde al factor de ajuste.

2.     Logaritmo absoluto: utilizado como proxy de la volatilidad. Corresponde al valor absoluto de los rendimientos logarítmicos.

3.     Retornos al cuadrado: también utilizado como proxy de la volatilidad. Es el cuadrado de los retornos logarítmicos observados en el período.

4.     Rango logarítmico: que se define como el valor absoluto de la diferencia entre los logaritmos de los precios máximo y mínimo para una periodicidad definida. Es un proxy de la volatilidad con amplia trayectoria e historia en las finanzas (Garman & Klass, 1980; Parkinson, 1980; Beckers, 1983; Ball & Torous, 1984; Rogers & Satchell, 1991; Andersen & Bollerslev, 1998; Yang & Zhang, 2000; Chou, Chou & Liu, 2009). El estimador del rango logarítmico se define así:

Donde St hace referencia al precio del activo en el período t, (sup St)  es el precio máximo del rango y (inf St) corresponde al precio mínimo del rango. Se considera que el rango logarítmico es un estimador superior de la volatilidad comparado con el retorno logarítmico y el cuadrado de los retornos por dos razones principalmente: a) es más eficiente, debido a que la varianza de los errores asociados con el rango logarítmico diario, es menor a la de los errores asociados con los otros estimadores, puesto que el rango logarítmico contiene información intra día de los precios del activo, b) se considera gaussiano en términos aproximados, se destaca que este indicador refleja de mejor manera las fluctuaciones diarias en la volatilidad, porque si el precio de apertura y el precio de cierre llegaran a coincidir, tanto el retorno logarítmico como los retornos al cuadrado mostrarían una baja volatilidad, mientras que este indicador no lo haría, debido a que emplea el rango completo de cotizaciones que se presentaría en dicho período (Alizadeh, Brandt, & Diebold, 2002).

Modelos de validación

Finalmente, es importante mencionar cuales fueron los modelos de validación utilizados, también llamados pruebas backtesting, que permiten medir la idoneidad de las metodologías para cuantificar en forma adecuada el riesgo de mercado, utilizando pruebas de contraste que comparan el número de excepciones reales con las esperadas a un nivel de confianza, para un número de observaciones determinado. Se definieron las excepciones It  de la siguiente forma:

Vale la pena hacer notar que cuando se utiliza una prueba de backtesting, los resultados no deben ni sobrestimar ni subestimar el modelo, puesto que se generarían problemas en los requerimientos de capital, es decir, se provisionarían recursos de manera errónea.

Para utilizar los backtesting, se recurre a dos pruebas de contraste que sirven para validar el modelo, estas dos pruebas fueron: a) cobertura binomial: la cual tiene una hipótesis nula definida por H0: q = q*, donde q  es la cantidad de excepciones reales y q*es la que sigue una distribución binomial. En esta prueba se obtiene un rango para el que se cumple P(x1,x2) ε, con x1 y x2 que denotan los rangos mínimo y máximo de aceptación, en su orden, y ε que corresponde al nivel de confianza definido, que usualmente es de 1% a 5%. Se espera entonces, que las probabilidades correspondientes sean menores o iguales que el nivel de confianza definido por el VaR (Holton, 2014); y b) test de Kupiec: que consiste en una prueba de contraste de dos colas, donde la prueba de hipótesis nula es la misma de la cobertura binomial, pero difiere al emplear una distribución Chi-Cuadrado. Lehemann y Romano  (2005) propusieron el estadístico (LR), que permite calcular el rango de aceptación para el test de Kupiec y que se distribuye como Chi-Cuadrado con un grado de libertad, definido por: LR = -2 ln ((1 - p)n-m(p)m)+2ln((1 - m/n)n-m(m/n)m) , donde p  es la probabilidad de fracaso, m  es el número de fallos, n  son las observaciones y m/n  es la tasa de fallos.

Método de solución

Se procedió a estimar el VaR y CVaR diario con un nivel de significancia del 5% y 1%, por el método de simulación de Monte Carlo estructurado, para el índice Hang Seng, definiendo tres períodos de estudio, que recogen las principales crisis y facilitan, en términos generales, un análisis de ajuste a las metodologías ante cambios estructurales posteriores a cada crisis. Los períodos analizados fueron de: a) diciembre de 1995 a diciembre de 1999; b) enero de 2000 a diciembre de 2005; y c) enero de 2006 a febrero de 2016.

 

6.  Resultados

Principales tendencias

Para el VaR al 5% y al 1% para las medidas de volatilidad utilizadas, se observan picos en la crisis asiática de 1997 y en la financiera mundial de 2008; en dichos períodos, el VaR presenta niveles similares, como se observa en la Figura 2. Cabe resaltar que la estabilización del mercado llegó con mayor rapidez en la última crisis que con respecto a la de 1997. Se evidencia un período de estabilidad en el riesgo, comprendido entre 2002 y 2007. A partir del segundo semestre de 2007 se evidencia un incremento en el riesgo de mercado, como resultado de la creciente desconfianza e impulsado por la quiebra de Lehman Brothers en septiembre de dicho año. En 2009 se recuperan los mercados mundiales, como consecuencia de las políticas implementadas por diferentes gobiernos; entre otras medidas, se establecieron tasas de intervención en rangos cercanos a cero, lo que en consecuencia incrementó la liquidez al disminuir el costo de endeudamiento. Para el año 2011 ocurre la crisis de la deuda europea, en la que España, Italia y Grecia entraron en cesación de pagos de su deuda soberana y fueron rescatadas por el Banco Central Europeo. En el periodo comprendido entre 2012 y hasta mediados de 2015 se observó un período de estabilidad de los mercados financieros, gracias a los buenos datos económicos de los países emergentes, liderados por el rol creciente de China en la economía global. Finalmente, en junio de 2015, la ralentización de la economía China generó un ambiente de incertidumbre sobre los mercados, que condujo a incrementos en la volatilidad y a posteriores respuestas del gobierno chino para recuperar la confianza, como se observa en la Figura 2., en la que se percibió tendencia creciente en el riesgo con el uso de todas las metodologías para este último período.

Resultados de VaR

La Tabla 2 muestra los valores máximos encontrados mediante las diferentes metodologías de volatilidad en los períodos de análisis definidos y el de volatilidad más reciente (junio de 2015 a febrero de 2016) para el VaR al 5% y al 1%, mediante el uso de mil simulaciones diarias. Los datos se presentan en valor absoluto.

Para el VaR al 5% se presentaron picos de magnitud similar en 1997 y 2008, de alrededor de 10% para el EWMA, mientras que para las otras metodologías hubo diferencias entre ambos períodos. Tanto para el método de logaritmo absoluto como para los retornos al cuadrado, la crisis de 1997 tuvo un mayor impacto en el riesgo que la pasada crisis financiera de 2008, mientras para el rango logarítmico la situación fue inversa. En términos generales el VaR al 1% para las mismas fechas, arrojó los mismos resultados.

Resultados del VaR condicional

El VaR condicional se halló de modo directo para el EWMA y el rango logarítmico; ambas metodologías son las más eficientes según backtesting. Para el CVaR al 5% bajo EWMA, se encontró que las pérdidas potenciales máximas para 1997 y 2008 fueron cercanas al 14%, como se puede observar en la Figura 3a; el resultado al 1% fue similar y para este caso fue de un 18% aproximadamente. Para el periodo comprendido entre junio de 2015 y febrero de 2016, la pérdida potencial se encontraba en un rango entre el 1.5% al 4.5% para el CVaR al 5%. Utilizando el rango logarítmico, el CVaR al 5% tuvo picos en ambas crisis ya mencionadas, de 25% y de 30%, respectivamente, como se observa en la Figura 3b; el resultado al 1% se ubicó en 30% y 35% para los mismos períodos. Para el rango entre junio de 2015 a febrero de 2016, la pérdida potencial se ubicó en un rango entre el 1% y el 13%, para el CVaR al 5% con el método de rango logarítmico.

Modelos de validación

La Tabla 3 muestra los rangos de aceptación para las metodologías empleadas.

La Tabla 4 muestra las excepciones para las distintas metodologías en los períodos definidos. Un asterisco indica aceptación por el test de Kupiec, dos por cobertura binomial y tres por ambas metodologías. Las que tuvieron mejor ajuste fueron el EWMA y el rango logarítmico.

La Figura 4 muestra la concentración de las excepciones bajo las metodologías EWMA y rango logarítmico. En ambas se presenta aglomeración alrededor de las crisis financieras de 1997, 2001 y 2008. De igual manera, se observa mayor concentración en el período más reciente, soportando la tesis de alto riesgo de mercado.

 

7.  Hallazgos

Se observó que en la metodología EWMA hubo menor sensibilidad, al comparar el delta existente entre los valores de VaR al 5% y al 1%, en contraste con los métodos de logaritmo absoluto y el rango logarítmico, en donde para cada uno, la distribución presentó una mayor desviación con datos extremos más altos. Por otra parte, es importante mencionar que los resultados obtenidos en el VaR calculado con las volatilidades de retornos al cuadrado y logaritmo absoluto, presentaron un comportamiento similar, puesto que la volatilidad por retornos al cuadrado fue la misma que la del logaritmo absoluto, pero con escalamiento geométrico. Es de anotar que el método de rango logarítmico, al recoger mayor información con base en valores máximos y mínimos, permitió deducir que el riesgo de mercado en la crisis de 2008 fue más profundo que la de 1997, dado que este método posee una capacidad de capturar el rango total de variación en la volatilidad, lo que le permite ajustarse de mejor manera a la estructura de mercado, en la que los volúmenes transados son cada vez mayores, puesto que existe una mayor tipología de agentes que intervienen y que poseen cada vez mayor cantidad de información sobre los activos que cotizan.

Al analizar los resultados de las pruebas de cobertura es evidente que las metodologías de logaritmo absoluto y retornos al cuadrado no son adecuadas para la medición del VaR, porque la primera lo sobrestima y la segunda lo subestima; el problema se agrava para la última mencionada, debido a que presenta el efecto de escalar los retornos. Por su parte, el EWMA presenta buenos resultados, tanto para el período de 1995 a 1999 como para el de 2000 a 2005, pero no para el tercer y último periodo. Lo anterior podría ocurrir a causa del incremento súbito en las volatilidades, tal como se evidenció en la crisis de 2008, puesto que, al depender este método de las volatilidades pasadas necesitaría un incremento en un período mayor para reflejarlo de modo correcto. Lo anterior refleja el hecho de que el parámetro lambda haya cambiado para el último período estudiado y, por tanto, valdría la pena actualizarlo a la situación actual del mercado.

Finalmente, el análisis del CVaR muestra que el período actual de volatilidad, que se inició en junio de 2015, se esconden pérdidas potenciales que podrían llegar a tener los mismos niveles de la crisis de la deuda europea de 2011.

 

Conclusiones

Una vez analizadas las metodologías empleadas con mayor frecuencia en la literatura para el cálculo de la volatilidad histórica (volatilidad ex ante), se puede concluir que cada una de ellas presenta ventajas y desventajas, que las hacen más o menos acertadas de acuerdo con la situación del mercado a la hora de su análisis. En este orden de ideas, los métodos no paramétricos, como el rango logarítmico y el EWMA, se ajustan en forma adecuada al mercado accionario de Hong Kong en los períodos de crisis recientes, aunque en algunos períodos se sobrestime el cálculo, caso contrario se presenta para las dos metodologías restantes, que lo subestiman y sobrestiman de manera amplia.

La coyuntura que actualmente se presenta ha llevado a una alta volatilidad y, por ende, a un incremento en el riesgo de mercado en Hong Kong, el cual fue propicio para analizar gracias a su transparencia y a los altos estándares internacionales en cuanto a su regulación sobre el cual se fundamentó la presente investigación; caso contrario al del de China continental, que se encuentra intervenido en gran medida por el gobierno, con restricciones, como la limitación diaria de pérdidas en un 10%; es por esto que se esperaría, que el riesgo de mercado para éste, sea igual o mayor al encontrado para el de Hong Kong.

Dada la persistencia del riesgo de mercado para el período actual (2015-2017), y las recientes noticias sobre la debilidad en el crecimiento económico chino, se espera que continúen altas tasas de volatilidad e incertidumbre, que se reflejan en un alto riesgo para los mercados de capitales.

Finalmente, se exhorta para futuras investigaciones emplear más o mejores técnicas que permitan calcular la volatilidad, como es el empleo de la familia tipo ARCH-GARCH, y estimar de nuevo el parámetro lambda para ajustarlo a la situación actual del mercado.

 

Notas

†† Los métodos de medición de riesgo coherentes cumplen las siguientes premisas: i) monotonicidad: no hay riesgo en no tomar posición; ii) subaditividad: tener posiciones en dos activos diferentes puede reducir el riesgo; iii) homogeneidad: doblar la posición en un activo duplica el riesgo, y iv) invarianza traslacional: añadir efectivo a una posición reduce el riesgo.

 

Referencias

Alizadeh, S., Brandt, M. W., & Diebold, F. X. (2002). Range-based estimation of stochastic volatility models. The Journal of Finance, 57(3), 1047-1091.         [ Links ]

Andersen, T. G., & Bollerslev, T. (1998). Answering the skeptics: yes, standard volatility models do provide accurate forecasts. International Economic Review, 39(4), 885-905.        [ Links ]

Andersen, T. G., Bollerslev, T., & Diebold, F. X. (2002). Parametric and nonparametric volatility measurement. En Hansen, L. P. & Ait-Sahalia, Y. (eds). Handbook of financial econometrics, pp. 67-137. Amsterdam: North-Holland.         [ Links ]

Artzner, P., Delbaen, F., Eber, J.-M., & Heath, D. (1998). Coherent measures of risk. Mathematical Finance, 9, 203-228.         [ Links ]

Ball, C. A., & Torous, W. N. (1984). The maximum likelihood estimation of security price volatility: theory, evidence, and application to option pricing. Journal of Business, 57, 97-112.        [ Links ]

Basrak, B. (2011). Fisher-Tippett Theorem. International Encyclopedia of Statistical Sciences, 525-526.        [ Links ]

Beckers, S. (1983). Variance of security price returns based on high, low, and closing prices. Journal of Business, 56(1), 97-112.        [ Links ]

Beder,T. S. (1995). VaR: seductive but dangerous. Financial Analysts Journal, 51(5), 12-24.        [ Links ]

Bernoulli, D. (1738). Exposition of a new theory on the measurement of risk. Papers of the Imperial Academy of Sciences in Petersburg), tomo V, pp. 175-192. También en Econométrica, 22(1), 1954.         [ Links ]

Bollerslev, T., & Mikkelsen, H. O. (1996). Modeling and pricing long memory in stock market volatility. Journal of Econometrics, 73, 151-184.         [ Links ]

Bravo, O & Sanchez, M (2007). Gestión integral de riesgos, Tomo I. Bogotá: Bravo & Sanchez        [ Links ]

Brookings (2015, 22 de julio). Why the real Chinese economy is more important than the stock market.         [ Links ]

Camerer, C. F. (1989). An experimental test of several generalized utility theories. Journal of Risk and Uncertainty, 2, 61-104.         [ Links ]

Campbell, J. Y. (1993). Intertemporal asset pricing without consumption data. American Economic Review, 83(3), 487-512.         [ Links ]

Campbell, J. Y., Lettau, M., Malkiel, B. G., & Xu, Y. (2001). Have individual stocks become more volatile? An empirical exploration of idiosyncratic risk. The Journal of Finance, 56(1), 1-43.         [ Links ]

Chan, H. T.-W., & Fung, D. W.-H. (2006). Forecasting volatility of Hang Seng index and its application on reserving for investment guarantees. Hong-Kong: Actuarial Society of Hong-Kong.         [ Links ]

Chou, R. Y., Chou, H., & Liu, N. (2009). Range volatility models and their applications in finance.         [ Links ]

Danielsson, J., & de Vries, C. G. (2000). Value-at-risk and extreme returns. Annales d’Économie et de Statistique, 60, 239-270.         [ Links ]

Da Silva, A. L. C., & de Melo Mendes, B. V. (2003). Value-at-risk and extreme returns in Asian stock markets. International Journal of Business, 8(1), 17-40.        [ Links ]

Dembo, R. (1998). Excerpt from roundtable discussion: the limits of VAR. Derivatives Strategy, 3(4), 14-22.        [ Links ]

Ding, Z., Granger, C. W., & Engle, R. F. (1993). A long memory property of stock market returns and a new model. Journal of Empirical Finance, 1, 83-106.         [ Links ]

Dusak Miller, K. (1977). The relation between volatility and maturity in futures contracts. The Chicago Mercantile Exchange.         [ Links ]

Fama, E. F., & French, K. R. (1992). Common risk factors in the returns on stocks and bonds. The Journal of Financial Economics, 33, 3-56.         [ Links ]

Garman, M. B., & Klass, M. J. (1980). On the estimation of price volatility from historical data. Journal of Business, 53, 67-78.         [ Links ]

Gauss, C. F. (1823-1828). Theoria combinationis observationum erroribus minimus obnoxiae (in two parts and supplement). C~immenrutines Suciefufis Regiae Scienrurum Gortingensis Recenriores, 5, 33-62 & 63-90, 6, 57-93 (reimpresión, traducción y notas). Stewart, G. W. (ed.). (1995). Philadelphia, PA: SIAM.        [ Links ]

Gilli, M., & Këllezi, E. (2006). An application of extreme value theory for measuring financial risk. Computational Economics, 27(1), 1-23.         [ Links ]

Haahtela, T. J. (2007). Separating ambiguity and volatility in cash flow simulation based volatility estimation. SSRN Electronic Journal, 968226, 1-20.         [ Links ]

Hang Seng Index (2016, 25 de febrero). Recuperado el diecisiete de septiembre de 2015, de: http://www.hsi.com.hk/HSI-Net/HSI-Net

He, D., Zhang, Z., & Wang, H. (2009). Hong Kong's financial market interactions with the US and Mainland China in crisis and tranquil times. Hong Kong: Hong Kong Monetary Authority working paper Nº 10.        [ Links ]

Holton, G. A. (2002, 25 de julio). History of value-at-risk: 1922-1998. Philadelphia, PA: The Wharton School, University of Pensylvania, working paper.         [ Links ]

Holton, G. A. (2014). Value at risk, 2ª ed., e-book. Recuperado el quince de febrero de 2016, de: http://value-at-risk.net        [ Links ]

Jorion, P. (2007). Value at risk: the new benchmark for managing financial risk, 3ª ed. Nueva York: McGraw-Hill.        [ Links ]

Kahneman, D., & Tversky, A. (1979). Prospect theory: an analysis of decision under risk. Econometrica, 47(2), 263-291.         [ Links ]

Koesterich, R. (2015, 28 de enero). Swimming with black swans: the volatile decade ahead, part 1/6. Market volatility increased since 2007- It’s here to stay.         [ Links ]

KPMG (2011). China's capital markets. Hong Kong. The changing lanscape. Hong Kong: KPMG.         [ Links ]

Laplace, P. S. (1809). Mémoire sur les approximations des formules qui sont fonctions des très grands nombres et sur leur applications aux prabilités. Mémoires de l'Académie Royale des Sciences de Paris, 353-415.        [ Links ]

Leavens, D. H. (1945). Diversification of investments. Trusts and Estates, 80, 469-473.        [ Links ]

Lehemann, E. L., & Romano, J. P. (2005). Testing statistical hypotheses, 3ª ed. Nueva York: Springer.        [ Links ]

Lietaer, B. A. (1971). Financial management of foreign exchange: an operational technique to reduce risk. The Economic Journal, 82(326), 749-751.         [ Links ]

Lintner, J. (1965). The valuation of risk assets and the selection of risky investments in stock portfolios and capital budgets. Review of Economics and Statistics, 47(1), 13-37.         [ Links ]

Machina, M. J. (1987). Choice under uncertainty: problems solved and unsolved. Economic perspectives, 1(1), 121-154.        [ Links ]

Machinea, J. L. (2009). La crisis financiera internacional: su naturaleza y los desafíos de política económica. Revista Cepal, 97, 33-56.        [ Links ]

Markowitz, H. M. (1952). Portfolio selection. Journal of Finance, 7(1), 77-91.         [ Links ]

Marshall, C., & Siegel, M. (1997). Value at risk: implementing a risk measurement standard. The Journal of Derivatives, 4(3), 91-111.        [ Links ]

Maya Ochoa, C., & Pareja Vasseur, J. A. (2014). Valoración de opciones reales a través de equivalentes de certeza. Ecos de Economía, 18(39), 49-72.         [ Links ]

Mossin, J. (1966). Equilibrium in a capital asset market. Econometrica, 34(4), 768-783.         [ Links ]

Ortiz Alvarado, A., & Girón, L. E. (2015). Predicción de volatilidad de la rentabilidad diaria del mercado del azúcar y su aplicación en la razón de cobertura. Semestre Económico, 18(38), 105-136.        [ Links ]

Pareja Vasseur, J., & Cadavid Pérez, C. (2016). Valoración de patentes farmacéuticas a través de opciones reales: equivalentes de certeza y función de utilidad. Contaduría y administración, 61(4), 794-814.        [ Links ]

Pareja Vasseur, J., Giraldo, J. C., & Zapata, S. (2016). Análisis del riesgo de mercado de acciones de Hong Kong mediante VaR: Análisis de la evolución de riesgo de mercado para el mercado de acciones en Hong Kong mediante la metodología VaR. Editorial Académica Española.        [ Links ]

Parkinson, M. (1980). The extreme value method for estimating the variance of the rate of return. Journal of Business, 53(1), 61-65. Reyes Zárate, F. J. (2015). Estimación de modelos multivariados GARCH en los mercados accionarios de China y México. Estocástica: Finanzas y Riesgo, 5(2), 187-210.        [ Links ]

Reyes Zárate, F. J. (2015). Estimación de modelos multivariados GARCH en los mercados accionarios de China y México. Estocástica: Finanzas y Riesgo, 5(2), 187-210.        [ Links ]

Rodríguez, R. (2015, 26 de junio). Notas de clase, curso de verano, Gestión del Riesgo de Mercado. Medellín: Universidad EAFIT, Maestría en Administración Financiera.        [ Links ]

Rogers, L. C., & Satchell, S. E. (1991). Estimating variance from high, low, and closing prices. Annals of Applied Probability, 1, 504-512.        [ Links ]

Roy, A. D. (1952). Safety first and the holding of assets. Econometrica, 20(3), 431-449.        [ Links ]

Shanghai Stock Exchange, SSE (2015, 19 de julio). China capital market overview.         [ Links ]

Schrock, N. W. (1971). The theory of asset choice: simultaneous holding of short and long positions in the futures market. Journal of Political Economy, 79, 270-293.        [ Links ]

Sharpe, W. F. (1963). A simplified model for portfolio analysis. Management Science, 9(2), 277-293.         [ Links ]

Sharpe, W. F. (1964). Capital asset prices: a theory of market equilibrium under conditions of risk. Journal of Finance, 19(3), 425-442.         [ Links ]

Sin, C.-Y. (2015). The economic fundamental and economic policy uncertainty of Mainland China and their impacts on Taiwan and Hong Kong. International Review of Economics & Finance, 40, 298-311.         [ Links ]

Taleb, N. N. (1997). Dynamic hedging. Managing vanilla and exotic options. Nueva York: John Wiley & Sons.        [ Links ]

Tarapuez Chamorro, E., Zapata Erazo, J. A., & Agreda Montenegro, E. (2008). Knight y sus aportes a la teoría del emprendedor. Estudios Gerenciales, 24(106), 83-98.        [ Links ]

Timmons, H., & Kuo, L. (2015, 28 de julio). A complete list of the Chinese government’s stock market stimulus (that we know about). Quartz.         [ Links ]

Tobin, J. (1958). Liquidity preference as behavior towards risk. The Review of Economic Studies, 25(2), 65-86.         [ Links ]

Treynor, J. (1961, 8 de agosto). Towards a theory of market value of risky assets. Manuscrito no publicado.        [ Links ]

Von Neumann, J., & Morgenstern, O. (1947). Theory of games and economic behavior. Princeton: Princeton University Press.        [ Links ]

World Federation of Exchanges, WFE (2015, 19 de julio). Monthly reports.         [ Links ]

Yang, D., & Zhang, Q. (2000). Drift-independent volatility estimation based on high, low, open, and close prices. Journal of Business, 73, 477-491.         [ Links ]

Yu, P. L. H., & So, M. K. P. (2003). Estimating value at risk using GARCH models: can we do better if long memory exists? Gloria-Mundi. All about value at risk.        [ Links ]

 

 

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons