LA VALUE AT RISK - QUELQUES BONNES PRATIQUES


La VaR ou Value At Risk permet de mesurer le risque de marché de manière extrêmement agrégée : c’est à la fois séduisant et inquiétant.


Séduisant car contrairement à des mesures de sensibilités unitaires où il faut rajouter une couche d’interprétation pour bien appréhender le risque, la VaR est auto-suffisante pour exprimer le risque : La VaR représente la perte maximale prévue sur une période de temps donnée avec un intervalle de confiance donné(1). La VaR est donc une mesure qui conjugue plusieurs facteurs de risque et capture leur dynamique jointe. Elle prend en compte la structure des portefeuilles, probabilise le risque et permet de fournir des informations synthétiques concernant non seulement l’exposition globale aux facteurs de risque mais également leurs contributions marginales (taux, action, crédit, inflation…etc.) et leurs évolutions dans le temps.​


Mais exprimer toute la complexité du risque de marché à travers la production d’un ou plusieurs chiffres(2) très agrégés de VaR est également inquiétant car le chiffre produit est par définition très dépendant de la modélisation. Il faut donc rester vigilant lors du calcul de la VaR et veiller à toujours mener une analyse précise et critique des résultats avant leur utilisation.

Mesure réglementaire et de communication, la VaR est aussi un outil de contrôle du risque. Dans le cas des sociétés de gestion par exemple, les gérants de fonds doivent souvent respecter une limite interne en VaR afin de ne pas dépasser in fine un certain niveau de risque cible (traduit par une classe de SRI ou SRRI donnée).

Par ailleurs, la VaR est un paramètre significatif qui entre en ligne de compte dans les prises de décision stratégiques ayant trait aux activités d’investissement dans de nouvelles classes d’actifs, devises, industries ou zones géographiques. Si l’on reprend le cas d’une société de gestion, il est difficilement concevable d’effectuer une opération de lancement de nouveaux fonds sans que des calculs de VaR sur des portefeuilles de simulation soient menés au préalable.


Dans cet article, nous abordons quelques bonnes pratiques de production et d’utilisation de la VaR dans l’industrie financière et en particulier par les sociétés de gestion.


Enjeux liés au calcul de la VaR Monte Carlo


Dans cet article, nous abordons quelques bonnes pratiques de production et d’utilisation de la VaR dans l’industrie financière et en particulier par les sociétés de gestion.​


Pour projeter les cours des actifs risqués, deux familles de modélisation sont traditionnellement utilisées. La première famille projette les facteurs de risque à terme sur la base de modèles statistiques, souvent calibrés sur l’historique des rendements des actifs risqués et des courbes de taux. La seconde fait référence au cadre risque neutre et diffuse des processus stochastiques souvent calibrés sur des données de marché (courbes de forwards, structures de volatilités implicites, matrices de corrélation, etc.).​


En pratique, le premier type de modélisation est le plus souvent utilisé sur des portefeuilles de structure stable dans le temps, dans un contexte où l’on cherche à obtenir des chiffres de VaR relativement peu variable. Une calibration historique lorsqu’elle est bien conduite rend cela possible étant donné qu’elle lisse naturellement les tendances puisque l’ensemble des observations ont le même poids ce qui atténue davantage les variations de marché historiques.


La deuxième famille a une réactivité directement liée à l’évolution des données de marché et est utilisée par des acteurs ayant des positions pouvant être ajustées quotidiennement et qui ont généralement une politique de suivi quotidien du risque.


Que ce soit dans l’une ou l’autre modélisation, il est capital de rester vigilant quant au choix des modèles représentatifs des facteurs de risques, la corrélation entre ces facteurs de risque et la gestion des données de calibration.


La Modélisation des facteurs de risque individuels


En vue de modéliser les facteurs de risque, l’approche naïve consiste à adopter des représentations gaussiennes soit directement sur ces facteurs comme c’est le cas pour les courbes de taux ou les spreads de crédit ou alors indirectement comme sur les rendements actions notamment.


Or, si les modèles normaux peuvent relativement bien s’ajuster aux risques de taux et de crédit, la modélisation gaussienne du risque action a été depuis longtemps abandonnée en faveur de modèles plus complexes, en particulier à queues épaisses. De ce fait, le choix et la calibration de ces derniers sont devenus indubitablement un exercice épineux pour la plupart des acteurs.


A notre sens, il y a trois problématiques clés en ce qui concerne la modélisation du risque actions :


- La présélection d’une famille de modèles ayant suffisamment de degrés de liberté pour bien représenter les zones de risque.


- La paramétrisation du solver dans le cadre de la calibration des modèles et en particulier le choix de l’algorithme de minimisation.


- La convergence de la calibration et la validation du modèle calibré.


La première question est relativement simple à régler tant la littérature scientifique fuse en termes de modèles plus ou moins complexes capables de gérer le smile de volatilité ou la fréquence des scénarii extrêmes. Parmi les modèles de marché, on retrouve les modèles à volatilité locale, à volatilité stochastique et certains modèles de diffusion à sauts. Dans la vision historique, les modèles les plus utilisés sont les distributions de Student, la loi de Pareto et, de plus en plus, la loi NIG(3).


Que ce soit dans la vision historique ou marché, ces modèles4 se distinguent certes par leur grand degré de liberté mais posent le plus souvent la question de la qualité de leur calibration.


Calibrer un modèle consiste techniquement à trouver le minimum d’une fonction généralement dans un espace multidimensionnel. Pour cela, il faut faire appel à un ou plusieurs algorithmes de minimisation. Or la question du choix de ces algorithmes est le plus souvent reléguée au second plan voire n’est pas traitée du tout pour plusieurs raisons :


- Il est souvent pratique de faire confiance à un solver généraliste et à ses paramétrages par défaut alors qu’il faut au contraire maitriser l’algorithme de minimisation et produire des indicateurs de convergence adaptés.


- Choisir un algorithme adéquat est compliqué car cela nécessite non seulement la connaissance des différentes techniques de minimisation (descente du gradient, simplex…etc.) mais passe également par l’étude de la fonction objectif (régularité, conditions au bord, conditions intrinsèques ou contrainte, etc.) étant donné que chaque algorithme possède un domaine d’utilisation bien précis.


- Quand bien même l’on ait choisi un algorithme de minimisation en adéquation avec la fonction à minimiser, paramétrer les autres réglages du solver reste une tâche difficile. Il faut prêter une attention particulière au choix du point initial, au paramètre de tolérance, au pas de convergence et aux conditions d’arrêt du solver.


En somme, le choix des solvers et la connaissance des réglages correspondants sont des choix complexes pour la plupart des acteurs mais il s’agit là d’une étape indispensable en amont de la calibration des modèles étant donné que l’ensemble de la modélisation en dépend.


Par ailleurs, la plupart des solvers utilisés dans l’industrie ne sont pas programmés de façon à obtenir des minima globaux mais conduisent généralement à des minima locaux. Cela veut dire qu’il est presque impossible (sauf dans des cas très particuliers) de garantir à coup sûr lors d’une calibration, la convergence du solver vers la solution optimale (si elle existe) du problème de minimisation.


Face à cette problématique, il peut y avoir plusieurs réponses.


La première, que l’on peut qualifier de puriste, consiste à développer des processus permettant de garantir toujours l’obtention du minimum global (i.e. l’optimum). Il s’agit d’un problème majeur du domaine de l’optimisation et qui revient assez souvent dans la littérature dédiée. Certaines techniques existent mais sont extrêmement complexes à mettre en œuvre (comme le recuit-simulé ou Simulated Annealing qui s’inspire de la thermodynamique) et elles peuvent être par ailleurs très chronophages étant donné qu’il faut par définition explorer l’univers des possibles.


D’autres acteurs en revanche peuvent faire le choix de s’abstraire complétement de cette problématique et utiliser sans réserve les solutions du solver sans se soucier de leur nature (optimum local ou global) ni de la qualité de la convergence vers ces optimums. Or, dans cette pratique, le risque d’obtenir in fine des modélisations fallacieuses est significatif car il est tout à fait possible que le solver renvoie une (pseudo) solution sans avoir convergé.


Une voie médiane pourrait être d’accepter l’utilisation d’un optimum local sous réserve que celui-ci soit capable de passer suffisamment de tests pour qu’on puisse le considérer comme fiable. Dans cette optique, l’un des moyens simples pouvant être employé pour s’assurer de la bonne convergence de la solution consiste à relancer le solver une nouvelle fois en prenant comme point de départ la solution initialement retournée. Ainsi, si celui-ci renvoie après une nouvelle itération une solution trop éloignée de la précédente c’est qu’il y a potentiellement un problème de convergence. Il est finalement possible d’activer dans certains cas le renvoi par le solver d’indicateurs mesurant la qualité de la convergence (il s’agit en général d’un réglage optionnel de l’outil de programmation) et de les analyser. En outre, des tests statistiques peuvent et doivent être mis en place pour valider l’adéquation de la loi aux données historiques en particulier le test de Kolmogorov Smirnoff qui est le plus utilisé en statistique.

La modélisation de la corrélation entre les actifs


Il s’agit sans aucun doute de l’un des paramètres les plus délaissés dans la modélisation de la VaR alors même qu’il revêt une importance capitale en particulier dans la simulation des risques extrêmes. En effet, lorsqu’il s’agit de modéliser la corrélation entre les actifs, il existe plusieurs écoles.


La première suppose que les facteurs de risques sont indépendants entre eux, ce qui revient à dégrader significativement le modèle en déformant la distribution jointe des facteurs de risque à l’ordre 2 au risque d’obtenir un chiffre de VaR potentiellement déconnecté de la réalité. Si cette modélisation offre l’avantage de la simplicité au niveau de la modélisation et la rapidité d’implémentation, elle se révèle la plupart du temps inadaptée.


La seconde considère une structure de dépendance linéaire entre les actifs, généralement calibrée sur l’historique. Si cette modélisation est parfaitement adéquate dans le cadre normal, celle-ci tend à sous-estimer le risque à la baisse lorsque les actifs ne suivent plus un modèle gaussien. De plus, cela revient à supposer que les interactions entre les actifs sont similaires, qu’il s’agisse de niveaux extrêmes ou non.


Or, de nombreuses études mettent en évidence la rupture de corrélation en période de stress.


La troisième utilise la théorie des copules, en particulier celle de Student, pour une meilleure simulation des régimes de corrélation mais pose beaucoup de problèmes que ce soit au niveau de la convergence de la calibration ou au niveau de la simulation qui peut devenir extrêmement gourmande en temps de calcul. C’est la raison pour laquelle, peu d’acteurs utilisent des modèles de VaR avec un tel degré de sophistication.


On est donc en droit de se demander s’il existe une quatrième voie mariant à la fois la précision de la théorie des copules et la simplicité du cadre gaussien ? Il existe une réponse assez satisfaisante : L’utilisation des variables latentes gaussiennes.


Pour résoudre cette problématique, une des techniques consiste en effet à trouver une correspondance (bijection) entre les distributions des facteurs de risque potentiellement à queue épaisse et le monde gaussien. Cela est mathématiquement possible à condition que l’on connaisse l’inverse de la fonction de répartition des facteurs de risque, ce qui est souvent le cas. En effet, pour une grande partie des lois statistiques habituellement utilisées dans le calcul de VaR, l’inverse de la fonction de répartition a une expression fermée. Dans les autres cas, celle-ci peut être estimée par des méthodes numériques ou de simulation. Ainsi, on peut toujours se ramener via cette technique d’inversion à des variables gaussiennes dont la distribution jointe est relativement simple à caractériser.


Conclusion


La VaR est un outil puissant d’expression du risque exprimé de manière universelle et très explicite. Elle constitue cependant un outil à manier avec précaution et sens critique.


La validité du calcul dépend de manière déterminante des choix réalisés sur la modélisation, de la calibration des lois, et de la représentation des corrélations entre facteurs de risque. Certaines méthodes permettent de combiner sophistication des lois et facilité de gestion des interdépendances entre les lois.


Spécialiste des risques de marché, ESTER est à vos côtés pour faire évoluer votre dispositif de calcul de la VaR et d’analyse des risques.​


1 - Par exemble, la VaR 99% 1 jour est le chiffre de perte quotidienne qui ne doit statistiquement être dépassé qu’un jour sur cent, ce qui donne une vision très parlante du risque.

2 - Si la VaR se résule à un chiffre global il est néanmoins possible de calculer une VaR par morceaux et d’identifier la contribution de chaque facteur de risque.

3 - Normal Inverse Gaussian

4 - Dans certains cas, ces modèles peuvent être assortis d’ajustements tenant compte de certains effets exogènes comme l’autocorrélation qui ressort fortement pour les instruments non liquides par exemple.

309 vues