0% found this document useful (0 votes)
31 views39 pages

Article RA IFRS 17-4

This document compares different approaches for calculating the risk adjustment (RA) under IFRS 17 for euro-denominated savings contracts. It finds that the RA from a shock-based approach is generally lower and more volatile than from stochastic approaches. A new stochastic approach is developed using Gaussian process regression to model generational mortality tables stochastically. This approach yields more homogeneous RA results between contract groups than the shock approach. The stochastic approach is also effective for estimating initial RA in the modified retrospective transition method by extrapolating RA estimates from future periods back to inception.

Uploaded by

ahmed
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
0% found this document useful (0 votes)
31 views39 pages

Article RA IFRS 17-4

This document compares different approaches for calculating the risk adjustment (RA) under IFRS 17 for euro-denominated savings contracts. It finds that the RA from a shock-based approach is generally lower and more volatile than from stochastic approaches. A new stochastic approach is developed using Gaussian process regression to model generational mortality tables stochastically. This approach yields more homogeneous RA results between contract groups than the shock approach. The stochastic approach is also effective for estimating initial RA in the modified retrospective transition method by extrapolating RA estimates from future periods back to inception.

Uploaded by

ahmed
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 39

IFRS 17 Risk Adjustement

Une étude comparative sur le périmètre des contrats


d’épargne en euros
Nexialog Consulting, Paris, France
15 avril 2021

Résumé
L’ajustement pour risque (Risk Adjustment) est un élément du passif d’assurance introduit
dans la norme comptable IFRS 17 parmi d’autres principes sans spécification particulière.
Suite à une première étude sur la mise en oeuvre d’IFRS 17 (voir Nexialog (2019)), nous
comparons ici différentes approches d’évaluation du Risk Adjustment dans le cadre des contrats
d’épargne en euros. Après analyse des différentes approches héritées de la Directive Solvabilité
2 (Cost of Capital, approche par chocs), nous détaillons une nouvelle approche stochastique
conforme aux principes présentés dans la norme pour le RA. Notre approche stochastique
s’inspire de la modélisation du Current Estimate. L’évaluation de l’ajustement pour risque
est réalisée sur la base de scénarios stochastiques des facteurs de risques non financiers. En
particulier, nous utilisons la regression par Gaussian Process (ou krigeage universel) comme
approche d’estimation et de projection stochastique des tables de mortalité générationnelles.
Une illustration du calcul du RA dans l’approche stochastique est réalisée à la date de transi-
tion de la norme. Enfin, une approche d’extrapolation du Risk Adjustment est proposée pour
le calcul du RA initial (à la date de souscription du contrat) dans l’approche rétrospective
modifiée.

L’étude comparative des différentes approches de calcul de RA sur le périmètre de l’épargne


fait ressortir les conclusions suivantes :
• l’incertitude calculée dans l’approche par chocs (ajustement des chocs de la formule
standard S2) est ‘globalement’ inférieure à celle obtenue dans les approches stochastiques ;
• le RA obtenu dans l’approche par choc est plus ‘volatile’ d’un groupe de contrats à un
autre alors qu’une certaine homogénéité des résultats est observée entre les différentes
approches stochastiques étudiées ;
• l’approche stochastique s’avère efficace pour estimer le RA en date initiale dans la
méthode transitoire dite rétrospective modifiée, après extrapolation dans le passé des
RA estimés aux exercices futurs.

1
Table des matières
1 Introduction 3

2 Modèle ALM pour le contrat d’épargne en euro 3


2.1 Les hypothèses de l’actif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.1 Modélisation du taux d’intérêt . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.2 Modélisation de l’action . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.3 Valorisation du portefeuille actif . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Les hypothèses du passif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1 Taux minimum garanti et participation aux bénéfices . . . . . . . . . . . . 7
2.2.2 Provision mathématique - Revalorisation des contrats . . . . . . . . . . . . 7
2.3 Interactions Actif - Passif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4 Calcul du Current Estimate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 Modélisation stochastique du Risk Adjustment 10


3.1 Le concept Risk Adjustment et les approches alternatives . . . . . . . . . . . . . . 10
3.2 Risk Adjustment dans l’approche stochastique . . . . . . . . . . . . . . . . . . . . . 11

4 Modèle Gaussian Process pour les tables de mortalité 13


4.1 Régression par processus gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.2 Table de mortalité générationnelle par processus gaussien . . . . . . . . . . . . . . 15
4.2.1 Collecte et pré-traitement des données . . . . . . . . . . . . . . . . . . . . . 15
4.2.2 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2.3 Résultats et validation du modèle . . . . . . . . . . . . . . . . . . . . . . . . 19

5 Application du calcul du Risk Adjustment sur le portefeuille de Models Point


épargne euro 22
5.1 Risk Adjustment dans l’approche par chocs . . . . . . . . . . . . . . . . . . . . . . 23
5.2 Risk Adjustment dans l’approche rachat binomial - décès binomial . . . . . . . . . 23
5.3 Risk Adjustment dans l’approche rachat binomial - taux de décès Lee-Carter Random
Forest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.4 Risk Adjustment dans l’approche rachat binomial - taux de décès GP . . . . . . . . 24
5.5 Comparaison des méthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.5.1 Comparaison des différentes méthodes . . . . . . . . . . . . . . . . . . . . . 24
5.5.2 Comparaison du RA pour les modèles stochastiques . . . . . . . . . . . . . 24
5.5.3 Validation du proxy du scénario financier équivalent au Current Estimate . 25
5.5.4 Avantages du ratio RA/CE . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.5.5 Analyse de la qualité des projections stochastiques par dataviz . . . . . . . 26
5.6 Estimation du RA à la date de souscription dans l’approche retrospective modifiée 28

6 Conclusion 30

A Hypothèses des flux actif 31


A.1 Univers risque neutre et univers historique . . . . . . . . . . . . . . . . . . . . . . . 31
A.2 Prix des swaptions européennes dans le modèle G2++ . . . . . . . . . . . . . . . . 32
A.3 Prix des calls européens dans le modèle Heston . . . . . . . . . . . . . . . . . . . . 33

B Hypothèses des flux passif 34


B.1 Prime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
B.2 Prestation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
B.3 Frais et Chargement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

C Tables 36

Contacts 39

2
1 Introduction
En mai 2017, la Fondation IFRS publiait la nouvelle norme IFRS 17 « Contrats d’assurance »
qui entrera en vigueur le 1er janvier 2023 (Board IASB, mars 2020). Cette nouvelle norme remplace
la norme IFRS 4 qui avait été publiée en 2004 et qui autorisait les sociétés à continuer d’utiliser les
référentiels comptables locaux en matière de contrats d’assurance. Cela a conduit à une multitude
d’approches différentes d’un pays à un autre rendant donc difficile les comparaisons financières
entre sociétés.
L’objectif de la nouvelle norme est d’assurer qu’une entité cotée ou ayant émis des obliga-
tions cotées puisse fournir une information comptable représentant fidèlement la valeur de ses
contrats d’assurances et donc de son bilan, d’uniformiser les pratiques d’évaluation pour faciliter la
comparaison des états financiers entre sociétés.
Cependant, la nouvelle norme étant fondée sur des principes, elle donne des définitions mais ne
spécifie pas la méthode de calcul. Ainsi, les assureurs devront soumettre leur propre interprétation
de calcul des composantes de la norme au cours de sa mise en place initiale. Suite à notre première
publication (Nexialog, 2019) qui illustre la construction des bilans comptables d’IFRS 17 pour
des contrats d’épargne mono support en Euro, nous étudions dans cet article l’évaluation de
l’ajustement pour risque, qui est un concept nouveau et différent de la marge pour risque du bilan
Solvabilité 2.
Selon IFRS 17, l’ajustement pour risque non financier ou Risk Adjustment (RA) représente la
couverture de l’incertitude entourant le montant et l’échéancier des flux de trésorerie contingents
aux risques non financiers. Dans le contexte de l’épargne, on peut citer par exemple le risque de
rachat, le risque de frais 1 , le risque de mortalité et le risque de versement.
Plusieurs approches de calcul du Risk Adjustment ont été proposées dans la littérature et ont fait
l’objet d’études, notamment
• l’approche Cost of Capital (CoC)
• l’approche par chocs (VaR, Tvar)
• l’approche stochastique
Les objectifs de cette étude sont multiples : définir et formaliser le RA dans l’approche stochastique,
introduire une modélisation stochastique du risque mortalité adaptée au calcul du RA dans cette
approche, comparer le niveau de RA obtenu avec celui obtenu dans l’approche par chocs.
Afin d’atteindre nos différents objectifs, nous présenterons d’abord, le modèle Asset Liability
Management(ALM) utilisé pour la valorisation des contrats d’épargne en euros. Ensuite, nous
définirons l’approche stochastique pour l’évaluation du Risk Adjustment. Cette approche a été
réalisée en utilisant le modèle Gaussian Process (krigeage), un modèle canonique permettant la
modélisation et la projection stochastique de la surface de mortalité. Enfin, Nous ferons une analyse
comparative des résultats numériques dans différentes approches stochastiques et dans l’approche
par chocs dans le cadre du modèle VFA pour les fonds euro et nous proposons une piste pour
l’extrapolation du RA à la date de souscription des contrats afin de déterminer le RA à la date de
souscription, qui est indispensable au calcul de la CSM à la date de transition.

2 Modèle ALM pour le contrat d’épargne en euro


Dans cette note, nous nous intéressons à la mise en œuvre d’IFRS 17 sur un fonds en euros.
Rappelons qu’un fonds en euros est, par définition, un support financier à capital garanti. L’assuré
recevra à la date de maturité le montant de l’épargne acquise grâce aux primes capitalisées et
aux rendements accumulés. Le rendement du fonds euro se calcule à chaque fin d’année, il se
compose donc d’un taux technique (taux minimum garanti) et de la participation aux bénéfices
sur la période (voir 2.2.1).
Afin de construire le bilan et le compte de résultat IFRS 17 pour un groupe de contrats
d’épargne en euros, il est nécessaire de définir un modèle ALM (Asset and Liability Management)
qui détermine le mouvement des flux de l’actif, ainsi que des flux du passif. Le modèle décrit ci-après
pour l’épargne euro est une version simplifiée du modèle ALM présenté dans Corlosquet-Habart
et al. (2015).

1. IFRS 17.B86

3
Remarque :
• La modélisation décrite ci-dessous est réalisée en considérant le 1er janvier, 2017 comme date
initiale d’évaluation. Pour les besoins de l’étude, nous supposons que cette date correspond à
la date de transition d’IFRS 17.
• Afin de faciliter la comparaison des différentes approches de calcul du RA, nous supposons
que, le passif d’assurance est constitué d’un unique Model Point (MP) d’épargne en euros (cf.
section 2.2) correspondant à un groupe d’assurés ayant un profil de risque homogène et donc
le même âge à la date d’évaluation. Dans la suite, le calcul du RA sera comparé sur différents
groupes de contrats IFRS 17, définis comme différents MP, donc différents profils de risque.

2.1 Les hypothèses de l’actif


Cette section présente la partie actif du modèle ALM. Plus précisément, nous exposons la
modélisation des actifs adossés au passif d’assurance.
Le portefeuille d’actif étudié se compose d’actions et d’obligations Zéro Coupon (ZC) dont la
maturité est la première des durées suivantes :

T = min(50, 110 − Age) (1)

où la variable Age représente l’âge des assurés du Model Point considéré à la date d’évaluation 2 .
Nous avons retenu des obligations de maturité fixe T correspondant à l’horizon de couverture du
passif d’assurance. En particulier, la durée jusqu’à maturité des ZC ne peut excéder 50 ans et l’âge
de l’assuré 110 ans. En effet
• 50 ans correspond à l’horizon de projection dans notre modèle ALM. Tous les contrats seront
totalement rachetés après 50 ans (voir 2.2)
• 110 est l’âge maximal modélisé. Le taux de décès à l’âge 110 est supposé égale à 1 (voir 4.2.1)
De plus, nous supposons que la compagnie investit 10% des primes en actions (CAC 40) et
le reste (90%) en obligation ZC France T ans. En outre, nous supposons que l’assureur souhaite
conserver la même proportion d’actifs en portefeuille dans la projection, soit 10% CAC 40 et 90%
en ZC. A chaque arrêté, une réallocation des actifs est réalisée afin de respecter ces proportions
cibles. Cette stratégie est appellée constant mix (Roncalli, 2010).
La modélisation des flux d’actif s’appuie sur la projection des facteurs de risque dans le futur.
Ainsi, nous définissons un générateur de scénarios économiques (GSE). Le GSE est un ensemble de
projection future des facteurs de risque financier. Le GSE se compose de divers facteurs de risque
tels que les indices d’actions, d’immobilier et la courbe des taux d’intérêt, etc. Pour les deux classes
dans notre portefeuille d’actif, les deux facteurs des risques principaux retenus sont la courbe des
taux sans risque et l’action CAC 40.

2.1.1 Modélisation du taux d’intérêt


Pour le modèle stochastique du taux d’intérêt, nous utilisons le modèle de taux court G2++ en
monde risque neutre. Le modèle G2++ fait partie des modèles de taux court multifactoriels 3 . Ce
modèle a pour avantage de reproduire la structure initiale de la courbe des taux et de permettre
des simulations de taux à des niveaux négatifs, adaptés au contexte actuel.
Le taux court rt est alors défini par l’équation différentielle suivante :

drt = φ(t) + xt + yt dxt = −axt dt + σdWt1


dyt = −bxt dt + ηdWt2
(2)
dWt1 dWt2 = ρdt,

où x0 = y0 = 0 ; (Wt1 )t≥0 et (Wt2 )t≥0 sont des mouvements browniens standards corrélés, de
coefficient de corrélation constante ρ. φ est une fonction déterministe qui dépend du de la courbe
2. L’âge des assurés est le même pour tous les contrats d’un même MP
3. Au lieu de définir la dynamique du taux court par une équation différentielle stochastique (EDS), les modèles
multifactoriels utilisent une fonction (souvent la somme) de plusieurs processus stochastiques

4
des taux forward instantanés à la date d’évaluation. Les paramètres a, b, σ, η sont supposés être
positifs. Selon Brigo and Mercurio (2007), la solution de cette équation s’écrit :
Z t Z t
rt = xs e−a(t−s) + ys e−b(t−s) + σ e−a(t−u) dWu1 + η e−b(t−u) dWu2 + φ(t) , pour s ≤ t (3)
s s

Pour garantir la compatibilité du modèle avec la courbe des taux initiale, la fonction φt doit être
définie comme suit :
σ2 2 η2 2 ση
φ(t) = f M (0, t) + 1 − e−at + 2 1 − e−bt + ρ 1 − e−at 1 − e−bt
 
2a2 2b ab
où f M (0, t) est le forward rate instantané à la date initiale (d’évaluation) pour la maturité t. Ce
taux se déduit des prix des obligation Zero Coupon par :

∂lnP M (0, t)
f M (0, t) = −
δt
où P M (0, t) le prix marché de l’obligation Zéro Coupon à maturité t. Dans notre étude, la courbe
d’obligation Zéro Coupon française 4 au 31 janvier 2017 sera considérée.
La calibration du modèle G2++ consiste à optimiser un modèle de 5 coefficients : a, b, σ, η, ρ
avec une fonction de perte qui mesure la distance de la surface de volatilité de la swaption du
modèle (voir A.2 pour plus de détails) et de la surface de volatilité des taux intérêts sur le marché 5 .
Les paramètres optimaux trouvés au cours du processus de calibration sont :

a σ b η ρ
0,00716 0,00693 0,00764 0,00693 -0,64758

Table 1 – Les paramètres calibrés du modèle de G2++

2.1.2 Modélisation de l’action


La valeur de l’indice CAC40 au cours de la projection est modélisée en utilisant le modèle de
Heston. Il prend en compte le caractère stochastique de la volatilité ce qui constitue une avancée
dans l’amélioration des performances du pricing d’action par rapport au modèle Black & Scholes.
Dans un environnement risque neutre, les dynamiques du sous-jacent et de sa volatilité sont données
par : √
dSt = µSt dt + vt St dWt1

dvt = κ(θ − vt )dt + σ vt dWt2
(4)
dWt1 dWt2 = φdt

Tel que :
• µ le rendement du taux sans risque.
• Les deux mouvements browniens standard (Wt1 )t≥0 et (Wt2 )t≥0 sont corrélés avec un coefficient
φ qui représente la corrélation entre le prix de l’actif et sa volatilité instantanée. Par ailleurs,
Le paramètre de corrélation φ affecte (positivement) l’asymétrie du rendement du sous-jacent,
au moment où l’écart type de la volatilité instantanée σ contrôle son kurtosis.
• Le modèle fait apparaître un coefficient κ qui représente la vitesse du retour de la volatilité
vt vers θ après de possibles hausses ou baisses.
• D’après Albrecher et al. (2007), S0 , σ, θ, κ doivent être positives. La volatilité vt est toujours
positive et ne peut pas atteindre zéro lorsque 2κθ ≥ σ 2 .
• En d’autres termes, dans le modèle Heston, la modélisation de l’action suit le modèle B&S,
tandis que la variance est un processus Cox-Ingersoll-Ross (CIR).
4. http://www.cnofrance.org/fr/courbes-des-taux-zero-coupon.cfm
5. La surface de volatilité de la swaption Euribor 1 an peuvent être collectée sur https://www.bloomberg.com

5
Bien qu’il n’existe pas une solution explicite pour le prix d’action dans le modèle Heston, Cui
et al. (2017) propose une formule fermée pour le pricing du call (voir A.3). La calibration des
paramètres du modèle consiste à minimiser la distance entre la surface de volatilité implicite du
modèle et la surface de volatilité observée du marché 6 . Les paramètres calibrés sont donnés dans
le tableau suivant :

θ κ σ φ v0
0,0506 12,92019 0,49384 0,99531 0,00441

Table 2 – Les paramètres calibrés du modèle d’Heston

2.1.3 Valorisation du portefeuille actif


Comme précisé ci-dessus, le portefeuille d’actifs dans notre modèle est composé de 10% d’indice
CAC40 et de 90% d’obligation. Ainsi, après chaque rebalancement de portefeuille en t, la valeur
du portefeuille d’actifs est telle que :
10%πt 90%πt
πt = St + P (t, T )
St P (t, T )
Avec
• St : le valeur de CAC 40 à la date t. Cette valeur est simulée dans le modèle de Heston (4)
• P (t, T ) : le prix d’obligation zero coupon à la date t et expirée en T . Selon Brigo and Mercurio
(2007), le prix de Zero Coupon dans le modèle G2++ est évalué par une formule analytique :
P M (0, T )
P (t, T ) = exp{A(t, T )}
P M (0, t)
Avec
1
A(t, T ) := [V (t, T ) − V (0, T ) + V (0, t)]
2
1 − e−a(T −t) 1 − e−b(T −t)
− x(t) − y(t)
a b

σ2
 
2 −a(T −t) 1 −2a(T −t) 3
V (t, T ) = T − t + e − e −
a2 a 2a 2a
η2
 
2 −b(T −t) 1 −2b(T −t) 3
+ 2 T −t+ e − e − (5)
b b 2b 2b
−a(T −t) −b(T −t)
− 1 e−(a+b)(T −t) − 1
 
ση e −1 e
+ 2ρ T −t+ + −
ab a b a+b

2.2 Les hypothèses du passif


Nous allons maintenant présenter l’ensemble des hypothèses prises en compte au sein du
modèle de projection du passif telles que les prestations (mortalité, rachat), les frais, ainsi que la
revalorisation du contrat. L’horizon de projection retenu au sein du modèle est de 50 ans, avec un
pas de temps annuel. Si la maturité d’un contrat excède 50 ans, ce contrat sera totalement racheté
à 50 ans.
Dans le but de comparer les calculs du RA selon plusieurs approches, nous modélisons sépa-
rément 10 Model Points (MP). Le Model Point est une technique de regroupement de contrats
largement rependue pour l’analyse des risques d’un portefeuille d’assurance, lorsque la volumétrie
des données est importante. Chaque Model Point représente un sous-ensemble de contrats dont
les risques associés (caractéristiques) sont similaires. Les hypothèses de ces 10 MP sont émises
arbitrairement, mais peuvent refléter une structure de passif réelle et sont illustrées dans la Table
10. De plus, Les hypothèses sur les flux du passif des contrats étudiés sont expliquées dans l’Annexe
B.

6. La surface de volatilité du marché des options sur CAC40 peut être déduite à partir des prix des calls donnés
sur le site de référence : https://live.euronext.com/fr/product/index-options/PXA-DPAR

6
2.2.1 Taux minimum garanti et participation aux bénéfices
Un contrat d’épargne en euros est soumis à un taux minimum garanti. L’assureur s’engage
à verser à l’assuré, un rendement annuel au moins égal à ce taux. Le TMG est redéfini chaque
année par l’assureur et doit être conforme à la réglementation en vigueur. Dans notre projection,
le TMG de chaque MP (voir table 10) est supposé être constant.
La participation aux bénéfices (PB) est la deuxième composante du taux servi qui nous permet
de calculer le rendement annuel afin de revaloriser le contrat. En pratique, la participation aux
bénéfices est au moins égale à 85% du solde financier et au moins 90% du solde technique de
l’assureur. Si l’assureur enregistre un résultat négatif, il n’a pas d’obligation de reverser la PB,
sauf disposition contractuelle.
Dans le but de simplifier le modèle ALM, nous ne tenons compte que du rendement financier
dans le calcul de la PB. Plus précisément, une fois le rendement des actifs déterminé, l’assureur
versera de manière chronologique la TMG, puis la participation aux bénéfices. Cette dernière est
obtenue avec la formule suivante :

taux PBt = max(90% × ρt − T M Gt , 0)

où ρt est le taux de rendement du portefeuille d’actifs adossé sur le passif d’assurance.

2.2.2 Provision mathématique - Revalorisation des contrats


En pratique, l’assureur prend en compte plusieurs types de provision dans sa modélisation
interne dont la provision mathématique. En effet cette dernière se calcule par la valeur probable
actuelle des flux représentant l’engagement de l’assureur en enlevant la valeur probable actuelle des
flux représentant l’engagement de l’assuré. Autrement dit, la provision mathématique est évaluée
comme étant la différence entre l’estimation des flux sortants et l’estimation des flux entrants.

P M = V APassureur − V APassuré

Dans le cadre des fonds en euros, la PM représente le capital ou l’épargne acquise des assurés.
Notons P Mt la provision mathématique à la fin d’année t (égale à la provision mathématique au
début d’année t + 1), alors :

P Mt = P Mt−1 + V ersementt − P restationt − Chargementt + taux servit × P Mt−1

avec
• taux servit = T M Gt + taux PBt
• V ersementt : Versements programmés et enregistrés au début d’année t (voir Annexe B.1)
• P restationt : Règlement des sorties en cours d’année t (voir Annexe B.2)
• Chargementt : Le chargement au cours d’année t (voir Annexe B.3)
Cette formule récursive correspond à la revalorisation des contrats.

2.3 Interactions Actif - Passif


De manière générale, le modèle actif - passif introduit une dépendance entre la dynamique
du passif et celle de l’actif. Les interactions actif - passif concernent notamment la revalorisation
des contrats, les rachats conjoncturels et la stratégie d’investissement qui peut se résumer par le
schéma décrit à la Figure 1.

7
Figure 1 – Schéma de modélisation ALM

Nous analysons maintenant cette interaction en se référant à l’évolution de l’actif.


Au début d’année t, la valeur du portefeuille d’actif est égale à :
10%πt−1 90%πt−1
πt−1 = St−1 + P (t − 1, T ).
St−1 P (t − 1, T )
A la clôture, la valeur du portefeuille devient :
10%πt−1 90%πt−1
πt0 = St + P (t, T ).
St−1 P (t − 1, T )
L’assureur détermine le rendement d’actif par
πt0 − πt−1
ρt = .
πt−1
Le rendement d’actif nous permet d’évaluer l’impact de l’actif sur le passif via le taux servi
pour l’année t et la revalorisation de la provision mathématique à la fin d’année.

taux servit = T M Gt + taux P Bt = T M Gt + max(90% × ρt − T M Gt , 0).

Une part du rendement d’investissement reviendra à l’assureur comme sa commission (corres-


pondant à la Variable fee dans IFRS 17). Ce montant est égal à :

V ariable f eet = max(ρt − taux servit , 0).

Si le rendement d’investissement ρt est inférieur au taux servit , une perte égale à la différence
sera à la charge de l’assureur.
Le portefeuille actif sera revalorisé en comptant la Variable fee et les flux passifs de l’exercice : les
primes versées, les prestations et les frais (incluent le frais de gestion et le frais financier - voir B.3)
enregistrés au cours d’année

πt = πt0 + V ersementt − P restationt − F raist − V ariable f eet

Remarquons que les frais sont prélevés ici sur la production financière alors que les chargements
viennent diminuer la PM et donc l’engagement de l’assureur. Ces derniers n’apparaissent pas dans
la formule de revalorisation de l’actif.
La Variable fee représentant la commission de l’assureur est retirée du portefeuille d’actifs
d’adossement (les actifs représentatifs des fonds propres ne sont pas considérés ici). Enfin, le
portefeuille d’actifs est rebalancé de maniètre à respecter le niveau cible des proportions, soit 10%
d’actions et 90% d’obligations :
10%πt 90%πt
πt = St + P (t, T ).
St P (t, T )

8
2.4 Calcul du Current Estimate
En adaptant le modèle ALM décrit ci-dessus, nous présentons maintenant la modélisation du
Current Estimate. Le concept de Current Estimate dans IFRS 17 est similaire au concept de Best
Estimate sous Solvabilité II. Contrairement à l’EIOPA, qui transmet mensuellement les courbes de
taux d’actualisation à utiliser pour les calculs S2, l’IASB n’impose aucune courbe particulière pour
l’actualisation des flux de trésorerie futurs. Selon la norme IFRS 17, Il y a donc deux approches
possibles pour estimer la courbe d’actualisation : l’approche "top-down" et "bottom-up". Dans
cette étude, nous nous concentrons sur le calcul du RA, nous avons donc retenu la courbe de
l’EIOPA pour l’actualisation des flux dans les différentes approches.
De la même manière que le Best Estimate, le Current Estimate est une estimation de l’enga-
gement de l’assureur envers les assurés et peut être défini comme la moyenne pondérée (par les
probabilités d’occurence) des flux de trésorerie futurs, compte tenu de la valeur temporelle de
l’argent, estimée sur la base d’une courbe des taux sans risque.
Pour des produits d’assurance vie, les risques ayant un impact sur les flux du passif peuvent être
classés en différentes catégories, comme décrit en Table 3.

Table 3 – Types de risque impactant les flux de passif

Dans le calcul du Current Estimate, nous nous concentrons sur les risques d’assurance et les
risques financiers qui sont donc mesurés selon deux probabilités différentes. Le CE peut s’écrire :
" T #
CE = E P ⊗Q
X
out
δt (CFt − CFt )in

t=1
" T
#
= EP⊗Q
X
δt (P restationt + F raist − V ersementt )
t=1
T
" #
= EP⊗Q
X
Ft YtF , YtN F

(6)
t=1

Où :
• P : Probabilité historique mesurant les risques non-financiers
• Q : Probabilité risque neutre mesurant les risques financiers
• CFtout : Flux (Cash flows) sortants au cours d’année t
• CFtin : Flux entrants au cours d’année t
• δt : Déflateur stochastique en date t 7

• Ft YtF , YtN F : Expression des flux actualisés en fonction du niveau en t des risques financiers
YtF et du niveau en t des risques non-financiers 8 YtN F .
A cause de la complexité du bilan et des interactions actif-passif en asssurance vie, le calcul
du Current Estimate (6) est délicat et repose en pratique sur des simulations de Monte Carlo.
Chaque scénario des facteurs de risque généré par le GSE est donné en entrée du modèle ALM qui
le traduit en une chronique de flux de trésorerie futurs. Ainsi, pour N simulations des facteurs de
risque financiers, le Current Estimate est estimé par
N N
1 XX 1 X X  F n NF 
CEt ' (δs )n (CFs )n ' Fs (Ys ) , Ys (7)
N n=1 s>t N n=1 s>t

7. donné par le modèle de taux court utilisé


8. Dans notre cadre d’application, Ft est une fonction déterministe.

9
où YsN F décrit un scénario central pour les facteurs de risques non-financiers. Les quantités
(δs )n et (CFs )n sont respectivement le facteur d’actualisation et le flux de trésorerie futur en s,
correspondant au scénario n.

3 Modélisation stochastique du Risk Adjustment


L’ajustement au titre du risque non-financier (Risk Adjustment - RA) est une toute nouvelle
composante dans la norme d’IFRS 17. De manière similaire à la marge pour risque sous Solvabilité
2, la RA est perçu comme un complément à apporter aux provisions techniques. Toutefois, les
définitions diffèrent légèrement en ce sens que la marge de risque est définie dans le contexte d’une
valeur transactionnelle tandis que la RA représente une provision permettant de se couvrir contre
une déviation des risques non financiers du scénario central de l’entité. Cependant, l’IFRS 17 laisse
aux entreprises le choix de la méthode à utiliser pour calculer le RA, alors que, dans Solvabilité II,
la marge de risque est calculée selon la méthode du coût du capital.

3.1 Le concept Risk Adjustment et les approches alternatives


D’après IFRS 17, l’ajustement pour risque non financier représente une prime de risque pour
l’incertitude entourant le montant et l’échéancier des flux de trésorerie qui est engendrée par le
risque non financier. Cette incertitude peut être vue comme l’écart attendu entre l’estimation des
flux futurs et leurs montants réalisés. Aucune approche particulière n’est préconisée par la norme,
laissant aux entités le choix sur la méthode de calcul. Nous rappelons les 5 axiomes que doivent
respecter la RA 9 :
1. RA (risques faible fréquence & forte sévérité) > RA (risques haute fréquence & faible sévérité).
Cette caractéristique traduit la préférence pour la mutualisation des risques : à espérance
constante, on préfère les sommes de variance minimale.
2. RA est croissant en fonction de la maturité de contrat
3. RA est croissant en fonction de l’écart type
4. Le RA est décroissant avec l’information disponible pour l’estimation des montants et
l’échéancier des flux de trésorerie future.
5. RA est croissant avec l’incertitude liée au calcul du Current Estimate
La norme ne précise pas l’approche à retenir mais demande à l’entité de communiquer le seuil
de confiance associé au calcul du RA.

Divers approches ont été proposées pour la modélisation du RA. On peut citer :
• Coût du capital : C’est la première méthode considérée et introduite largement (Milliman,
2017; Addactis, 2019) car elle est déjà mise en œuvre pour déterminer la marge de risque sous
Solvabilité 2. Les assureurs peuvent profiter du système d’évaluation des SCR 10 (Solvency
Capital Requirement) qui est déjà développé et connu depuis longtemps, puis le RA est la
somme des SCRs actualisés pendant toute la période de couverture (pour les risques non
financiers) actualisés en multipliant avec un taux de Cost of Capital égal à 6%
• Approche par chocs : Rappelons que, dans le cadre de la formule standard S2, le SCR pour
chaque module de risque (SCR stand alone) est mesuré séparément comme une sensibilité au
facteur de risque correspondant. Le choc sur le facteur de risque est précisé dans la Directive
Solvabilité 2. Le SCR stand alone est donc égal à la différence entre le Best Estimate choqué
et le Best Estimate central. Puis, pour le SCR total, les SCRs stand alone sont agrégés
en plusieurs niveaux, à partir d’une matrice de corrélation définie dans Solvabilité 2. En
s’inspirant de ce calcul, (Addactis, 2019) propose une valorisation du RA en utilisant la même
méthodologie et la même matrice de corrélation, mais des niveaux de chocs différents. La
formule du Risk Adjustment pour un risque non financier k (RAk ) est déduite à partir de
l’équation (7) :
RAk = CE k − CE (8)
9. IFRS 17.B91
10. Le SCR représente le capital cible nécessaire pour absorber le choc provoqué par un risque majeur (par
exemple : un sinistre exceptionnel, un choc sur les actifs...) sur l’horizon 1 an

10
où CE k est le Current Estimate calculé après application d’un choc ‘ajusté’ sur le facteur de
risque k, selon la même méthodologie que la formule standard S2. L’ajustement du choc est
décrit plus bas.
Le RA total peut être obtenu en appliquant la même approche ‘bottom-up’ d’agrégation
elliptique que pour la formule standard 2, en considérant la matrice de corrélation extraite
pour les facteurs de risques non-financiers considérés.

RA = R0 ΣR (9)

où R = (RA1 , . . . , RAK )0 le vecteur des RA marginaux de K risques techniques et Σ la


matrice de corrélation sous-jacente.
Cependant, le SCR S2 correspond à une estimation des risques pour un horizon de 1 an, tandis
que le RA est l’ajustement pour risques non financiers sur toute la période de couverture.
Ainsi, pour adapter l’approche par chocs, il est nécessaire de traduire des chocs Solvabilité
2 (∆S2
k pour le choc sur le niveau du facteur k) en chocs IFRS 17 (∆k
IF RS
). Sous certaines
hypothèses de normalité, le choc au niveau α approprié dans le cadre d’IFRS 17 peut se
déduire du choc Solvabilité 2 par l’ajustement suivant (Addactis, 2019) :
qα √
∆IF
k
RS
= T ∆S2
k (10)
q99,5%

avec qα , q99,5% respectivement le quantile à α et à 99, 5% de la loi normale centrale réduite.


T est la durée jusqu’à la fin de la période de couverture, que nous avons déterminé à l’aide
de l’équation (1). L’intuition derrière cette formule est la suivante :
• ∆S2
k , k = 1, . . . , K sont les chocs annuels sur les facteurs de risque, définis dans le
IF RS
cadre de la formule standard. Cependant√ ∆S2 k , k = 1, . . . , K sont des chocs sur toute
la durée du contrat, d’où le terme T ∆i qui permet d’adapter le choc annuel de
solvabilité sur toute la durée de vie du contrat considéré.

• q99,5% est le facteur d’ajustement du choc permettant d’atteindre un seuil de confiance
de α.
• Approche stochastique : Elle est également appelée approche simulatoire, approche par VaR
ou TVaR (Value at Risk et Tail value at risk ) par les acteurs du secteur de l’assurance. Le
calcul du Risk Adjutment s’appuie sur un Générateur de Scénarios Économiques (cf. section
2.1). L’entité projette les flux de trésorerie futurs en diffusant des scénarios de risques non
financiers afin d’obtenir une distribution des flux futurs actualisés (cf. Current Estimate).
Contrairement au mécanisme du Current Estimate, la distribution ici est engendrée par l’aléa
sur les risques non-financiers, les risques financiers étant ‘fixés’. Grâce à cette distribution,
l’entité déduit la valeur du RA en calculant une mesure de risque telle que la VaR ou la
TVaR.
L’approche par coût de capital est la plus simple à mettre en pratique, car déjà implémentée
au cours des travaux de production de la Directive Solvabilité 2. Cependant, cette approche est
conceptuelle éloignée des principes économiques invoqués dans la norme IFRS 17. L’approche
par chocs est également inspirée de Solvabilité 2 et sa mise en oeuvre est du même niveau de
complexité que l’implémentation de la formule standard S2. Cependant, elle repose sur de multiples
approximations (formules 8, 9, 10). L’approche stochastique est davantage conforme aux axiomes
introduits dans la norme, et permet une évaluation du RA plus fidèle à la réalité des risques, mais
son application est plus délicate. Dans la sous-section suivante, le Risk Adjustment est défini de
manière formelle dans l’approche stochastique.

3.2 Risk Adjustment dans l’approche stochastique


Considérons la filtration G = (Gt )t≥0 d’information des risques non financiers, i.e., Gt =
σ(YsN F , s ≤ t) et la filtration F = (Ft )t≥0 d’information des risques financiers, i.e., Ft =
σ(YsF , s ≤ t). De manière formelle, le Risk Adjustment peut être défini par la formule suivante :
" !#
RAt = m EP Q X
F
Fs Ys , YsNF

G∞ (11)
s>t

11
où P est la probabilité historique associé à l’évaluation des risques non-financiers, Q est la
probabilité risque-neutre associée à l’évaluation des risques financiers. La fonction mP est une
mesure de risque sous P définie sur l’espace des variables aléatoires G∞ -mesurables (G∞ représente
l’information complète des risques non-financiers dans la projection).

La sélection de la mesure m est flexible. La norme IFRS 17 n’impose pas aux entités le choix
d’une mesure spécifique ni le seuil de confiance (comme par exemple la V aR99,5% dans Solvabilité
2). Dans cette étude, nous avons retenu la mesure m suivante basée sur la V aR :

m(X) = V aRα (X) − E(X).

Le RA est alors défini comme l’écart entre le quantile au niveau α et l’espérance. Le RA est alors
donné par la formule (12) et illustrée à la Figure 2. On sait que la V aR n’est pas une mesure
cohérente 11 car elle n’est pas toujours sous additive (La sous additivité de la V aR est pourtant
satisfaite dans la plupart des cas). De ce fait, l’assureur pourrait remplacer la V aR par la T V aR
qui est une mesure cohérente.

" !# " !#
P E Q X Fs Y F , Y N F  G ∞
RAt = V aRα − EP EQ
X
Fs YsF , YsN F

G∞ (12)
s s
s>t s>t
" !#
P EQ X Fs Y F , Y N F  G∞
= V aRα − CEt (13)
s s
s>t

Figure 2 – Calcul du Risk Adjustment par le quantile

Pour calculer le RA dans cette approche, il est nécessaire d’avoir recours à des simulations de
Monte-Carlo, notamment pour des passifs de contrats en Euro.
Cette évaluation suit un processus en 3 étapes :

Processus Évaluation du Risk Adjustment par méthode stochastique


1. Diffuser des scénarios des risques non-financiers.
2. Puis, pour chaque scénario des risques non-financiers, calculer l’estimation des flux probables
actualisés en appliquant les scénarios de risques financier dans le GSE comme le calcul de CE.
NousP obtenons à cette étape une
 distribution des flux correspondant à la variable aléatoire
EQ s>t Fs YsF , YsN F G∞


3. Enfin, mesurer le RA à partir de la distribution des flux obtenue dans l’étape précédente par
la mesure m

Le processus de simulation est illustré à la Figure 3 avec X représentant les flux probables
actualisés dans l’étape 2. Une telle technique requiert un grand nombre de simulations : lorsqu’on
11. Une mesure de risque est cohérente si elle satisfait 4 propriétés : Monotonicité, Homogénéité positive, Invariance
par translation et Sous additivité

12
considère n scénarios des risques non-financiers pour l’étape 1 et m scénarios des risques financiers
dans le GSE, il est nécessaire de projeter n × m chroniques de flux sur un horizon de T années.
Même sur une machine puissante, le calcul du RA par la méthode stochastique paraît irréalisable.

Figure 3 – Schéma de la simulation pour le calcul du Risk Adjustment

Dans le cadre de notre étude, nous avons considéré un scénario central pour les facteurs de
risque financiers, ce qui revient à faire l’approximation suivante :
!
Q X  
E
X
F NF
Fs YsF , YsN F

Fs Ys , Ys G∞ ' (14)
s>t s>t

L’approximation du Risk Adjustment devient alors :

" # " #
P X Fs Y F , Y N F − EP X Fs Y F , Y N F
   
RAt ' V aRα s s s s (15)
s>t s>t

Il sera ensuite calculé par Monte Carlo en diffusant les scénarios stochastiques des risques non
financiers.

Parmi les scénarios de risques financiers générés pas le GSE, nous avons retenu comme scénario
central (YsF )s>t , celui donnant la valeur des flux futurs actualisés la plus proche du CE. La validité
de cette approximation est attentivement analysée dans la section 5.5.

Sur le périmètre des contrats épargne euro, les principaux risques non-financiers sont le risque
de mortalité (et de longévité), les versements aléatoires de primes (versements libres) et les rachats
structurels. Au sein de ce projet, nous nous intéressons à estimer le RA en analysant les impacts
des risques de mortalité, des rachats structurels ainsi que des versements libres sur les flux de
trésorerie futurs.

4 Modèle Gaussian Process pour les tables de mortalité


La regression par processus gaussiens (Gaussian Process) aussi appellée krigegage est connue
depuis longtemps en statistique spatiale, et utilisée depuis peu en Machine Learning. C’est une
méthode canonique d’estimation bayésienne de fonctions, utilisée en particulier dans le cas où les
observations de la fonction sont rares et coûteuses et où il est nécessaire de quantifier l’incertitude.
Les processus Gaussiens généralisent les distributions gaussiennes des espaces vectoriels de dimension

13
finie aux espaces fonctionnels de dimension infinie. De plus, il s’agit d’un modèle de régression non
paramétrique.
Cette section a pour but d’introduire brièvement la régression par processus gaussien et son
application pour la modélisation des tables de mortalité. Pour une documentation plus complète
sur la régression par GP, le lecteur peut se référer à Williams and Rasmussen (2006).

4.1 Régression par processus gaussien


Pour un ensemble de données D = (X, y) = {(xi , y i ) | i = 1, ..., n}, le problème consiste à
estimer une fonction f : Rd → R sachant un certain nombre d’observations bruitées de la fonction :
y i = f (xi ) + i , i = 1, . . . , n (16)
Les valeurs y de la fonction latente f aux points X sont observées avec un bruit additif  :=
(1 , . . . , n ). En outre, nous supposons que ce bruit  est indépendant de f et suit une loi gaussienne
centrée de matrice de covariance Σ.
La regression par GP consiste à supposer que la distribution a priori de la surface de réponse f
est donnée par un processus gaussien :
f ∼ GP (m(·), k(·, ·)) (17)
caractérisé par une fonction m et une fonction de covariance k. La loi a priori de f admet une
moyenne m qui est une fonction de la variable d’entrée x (m : Rd → R). Par exemple, on peut
choisir m comme une transformation linéaire de x, en ce sens, m(x) = x0 w . Sa matrice de
covariance est un noyau k sur l’input qui régit la régularité spatiale de la surface de réponse.
Sous inférence bayésienne, la distribution a posteriori de f sachant les observations (16) s’écrit
p(y|f, X) × p(f |X) vraisemblance × antérieure
p(f |X, y) = ; postérieure = (18)
p(y|X) vraisemblance marginale
Le processus d’apprentissage du GP consiste à maximiser le vraisemblance marginale en fonction
des hyperparamètres (paramètres de la fonction moyenne m et de la fonction de covariance k).
L’intérêt de cette approche bayesienne est que la distribution a posteriori de f (après connaissance
de D) f |y, x est également un processus Gaussien de fonction moyenne et de fonction covariance
connue explicitement :
f |X, y ∼ GP (m∗ (·), k∗ (·, ·)) (19)
où m∗ et k∗ sont respectivement la moyenne et la covariance a posteriroi de f .
−1
m∗ (x) = m(x) + k(x, X)T [k(X, X) + Σ] y (20)
0 0 T −1
k∗ (x, x ) = k(x, x ) − k(x, X) [k(X, X) + Σ] k(X, x) (21)
avec les notations suivantes
T
• le vecteur k(x, X) = [k(x, x1 ), . . . , k(x, xn )]
• la matrice k(X, X) = [k(xi , xj )]i,j=1...n
T
• le vecteur k(X, x) = [k(x1 , x), . . . , k(xn , x)] . Notons que comme k est un noyau symétrique,
k(x, X) = k(X, x)
Notons Θ l’ensemble des hyperparamètres qui inclut les paramètres du noyau k et la variance du
bruit Σ. Les hyperparamètres dans le modèle GP peuvent être calibrés par la validation croisée
ou le maximum de vraisemblance marginale p(y|X, Θ) 12 . Dans notre projet, Θ est déterminé par
maximum de vraisemblance marginale (ce modèle est appelé le krigeage) :
1 −1
Θ∗ = argmax log p(y|X, Θ) = argmax − y> [k(X, X) + Σ] y
Θ Θ 2
(22)
1 n
− log |k(X, X) + Σ| − log 2π
2 2
Dans la formule (22), le premier terme peut être interprété comme l’ajustement de modèle qui
comporte les observations cibles y. Le deuxième terme est la pénalité de complexité dépendant de
la fonction de covariance et les inputs X, tandis que le troisième terme est seulement une contrainte
de normalisation qui peut être négligée.
12. voir Chapitre 5, Williams and Rasmussen (2006)

14
4.2 Table de mortalité générationnelle par processus gaussien
L’adaptation du GP pour modéliser le risque de mortalité a été proposée par Ludkovski et al.
(2018) mais l’étude se concentre sur la mortalité américaine et pour des tranches d’âge concernée
par la retraite. Les résultats sont très favorables à la régression par GP, après comparaison avec
plusieurs approches alternatives.
Cette partie présente l’application de la regression GP pour la modélisation de la surface de
mortalité française, du calibrage à la validation du modèle.

4.2.1 Collecte et pré-traitement des données


Pour construire la table de mortalité générationnelle française, nous utilisons les taux de décès
historiques de la population française disponibles sur le site The Human Mortality Database 13 .
La base The Human Mortality Database (HMD) pour objectif de fournir des données détaillées
sur la mortalité et la population aux chercheurs, étudiants, journalistes, analystes des politiques
et aux personnes qui s’intéressent à l’histoire de la longévité humaine. Le projet a été initié par
le département de démographie de l’Université de Californie à Berkeley, aux États-Unis, et par
l’Institut Max-Planck de démographie à Rostock en Allemagne.
Nous avons donc décidé de choisir les données sur ce site comme référence pour le calibrage du
modèle (base plus récente pour les tables réglementaires et données mondiales disponibles).
La base HMD contient les taux de décès (qx ) pour la population française à partir de l’année
1816 et jusqu’à 2016. Chaque année, le taux de décès est présenté pour les âges de 0 à 110 et plus.
Dans le but de calibrer le modèle sur la mortalité actuelle, nous n’observons que la période entre
1995 et 2016. Avant d’appliquer la regression GP, nous avons réalisé différents traitements sur les
données HMD :
1) Ne considérer que le taux mixte, c’est à dire le taux mesuré sur toute la population française
sans distinction du sexe
2) Remplacer les taux par 1 s’ils sont supérieurs à 1.
3) Forcer les taux aux âges 110+ à 1. En raison de la structure de la base de données, les taux
de décès à l’âge 110 et plus sont rassemblés dans un même groupe 110+. Le taux de ce groupe
est donc égal à 1 pour chaque année d’observation.
4) Calculer le logarithme de taux de décès. Nous utilisons le log des taux comme grandeur
de référence dans notre modèle de régression. La transformation logarithmique permet de
réduire l’asymétrie de la variable (skewness) et d’améliorer la compatibilité des résidus avec
ceux d’une loi normale.
Ensuite, comme décrit à la Table 4, la base de données est divisée en plusieurs sous-ensembles,
comprenant chacun un échantillon d’apprentissage et un échantillon de validation.

Sous-ens Apprentissage Validation


Sous-ens. 1
Année : 1995-2016 ; Age : 0-110+ sur la base d’apprentissage

Sous-ens. 2
Année : 1995-2014 ; Age : 0-110+ Année : 2015-2016 ; Age : 0-110+

Sous-ens. 3
Année : 1995-2013 ; Age : 0-110+
Année : 2014-2016 ; Age : 61-110+
& Année : 2014-2016 ; Age : 0-60

Table 4 – Sélection des échantillons d’apprentissage et de validation

Remarque : L’un des enjeux de la méthode consiste à limiter la hausse de l’espérance de vie de
manière suffisamment prudente.

Notre objectif est de construire une table de mortalité générationnelle. La structure des taux
de mortalité peut être représentée par une matrice à deux dimensions avec l’axe vertical pour l’âge,
13. https://www.mortality.org/hmd/FRATNP/STATS/Mx_1x1.txt

15
l’axe horizontal pour l’année d’observation. les éléments de la matrice représentent le (logarithme)
des taux de décès qui sont plus ou moins corrélés.
En particulier, dans la table de mortalité, les taux sur la diagonale principale et ses parallèles sont
fortement corrélés. Parce qu’ils représentent le taux de décès du même sous-ensemble de population
e.g. les personnes qui ont un âge x l’année n, auront l’âge x + 1 l’année n + 1 si elles ne décèdent
pas au cours de l’année n.
• Sous-ensemble 1 : On calibre le modèle avec toute la base de données et on estime les taux par
les paramètres du modèle pour la validation i.e. in sample test. Le résultat sur ce sous-ensemble
montre la performance du modèle mais il ne vérifie pas s’il existe ou pas de sur-apprentissage dans
le modèle
• Sous-ensemble 2 : Pour construire l’échantillon d’apprentissage et de validation, nous coupons
la matrice de taux de décès par horizon (par année) sur la table ci-dessus. Ce sous-ensemble nous
permet de voir la performance d’estimation dans le futur et d’observer le sur-apprentissage du
modèle
• Sous-ensemble 3 : Enfin, on coupe la base de données par carré. Ce sous-ensemble mesure la
cohérence entre le modèle et la caractéristique de la table de mortalité (les impacts diagonaux)
Notons :
• xi un vecteur de variables indépendantes représentant l’observation i incluant deux éléments :
l’âge xiag et l’année d’observation xiyr
• x = x1:n l’ensemble de variables indépendantes, où n est nombre d’observations
• y i observation i pour la variable d’entrée xi . y i est le logarithme du taux de décès à l’âge
xiag et à l’année d’observation xiyr .
• y = y 1:n le vecteur des réponses observées

4.2.2 Modélisation
L’objectif est d’estimer la fonction Y : x → log(q(x)) où x = (xag , xyr ) pour l’âge et l’année
d’observation, en considérant les hypothèses de modélisation ci-dessous.

Hypothèses
1. Y est modélisé par un processus Gaussien f ∼ GP(m(·), k(·, ·)) où
• m(.) est la fonction de moyenne
• k(., .) est la fonction de covariance : k(x, x0 ) mesure la covariance entre Y (x) et Y (x0 )
en fonction de la distance entre x et x0 .
2. Pour tout point xi du champ d’expérience, les réalisations de Y (xi ) sont des observations
bruitées de f :
Y (xi ) = f (xi ) + εi
où ε1 = (ε1 , . . . , εn ) est un vecteur Gaussien indépendant de f et de loi N (0, Σ)
Nous allons tester les performances de 5 modèles sur les 3 sous-ensembles de la Table 4. Pour
tous les modèles considérés, on utilise la même fonction de covariance squared exponential kernel.
D’autres choix de noyau sont possibles pour les processus gaussiens, mais cette fonction nous
permet de représenter assez fidèlement les caractéristiques de table de mortalité : l’incertitude du
taux de mortalité est plus élevée pour les personnes âgées.
Nous retenons donc la fonction de covariance suivante pour les 5 modèles.
!
0 2
(xag − x0ag )2 (xyr − x0yr )2
k(x, x ) = η exp − 2
− 2
2θag 2θyr

. Les hyperparamètres sont donc :


• η 2 : la variance marginale du prior Gaussien.
2 2
• θag et θyr : les paramètres d’échelle (ou de corrélation) du noyau de covariance.
• Σ : la variance du bruit des observations.

16
Les différents modèles étudiés diffèrent par le choix de la fonction moyenne m(·) et par le choix
de la variance du bruit Σ. Les performances de ces différentes approches de regression GP seront
également comparées avec le modèle de Lee-Carter Random Forest.

• Modèle 1 - Moyenne quadratique en âge et bruit de variance constante


La fonction moyenne fournit une explication fondamentale des taux de mortalité par âge et
par année. On sait que le taux de décès augmente fortement aux grands âges. Nous avons donc
choisi une fonction moyenne quadratique en fonction de l’âge pour capturer cette caractéristique.
Puis, nous considérons que la variance du bruit est la même pour toutes les observations (bruit
homoscédastique).

• Fonction moyenne : m(x) = β0 + β1 × xyr + β2 × xag + β3 × (xag )2


• Variance du bruit : Σ = σ 2 In où σ est constante pour toutes les observations.

• Modèle 2 - Moyenne quadratique en âge et variance du bruit par groupe d’âge


Dans ce modèle, nous considérons que la variance des taux de décès observés dépend de l’âge.
Afin de limiter le nombre de paramètres supplémentaires et ne pas trop alourdir la calibration,
nous définissons une structure de variance par groupe d’âge comme suit
• Fonction moyenne : m(x) = β0 + β1 × xyr + β2 × xag + β3 × (xag )2
• Variance du bruit : Σ = σ 2 (xiag )In où σ 2 (xiag ) est une variable constante sur les groupes
d’âge ci-dessous :

0 1 − 17 18 − 40 41 − 65 66 − 84 85 − 102 103 − 109 110+


σ12 σ22 σ32 σ42 σ52 σ62 σ72 σ82

• Modèle 3 - Moyenne avec variable nominale pour groupe âgé et bruit de variance
constante
Dans ce troisième modèle, nous souhaitons mettre l’accent sur la tendance croissante des taux
de mortalité aux grands âges. Nous introduisons une variable nominale qui représente le groupe de
personnes qui ont plus que 90 ans.
• Fonction moyenne : m(x) = β0 + β1 × xyr + β2 × xag + β3 × (xag )2 + β4 × 1xag ≥90
• Variance du bruit : Σ = σ 2 In où σ est constant pour toutes les observations

• Modèle 4 - Moyenne quadratique et variance du bruit dépendant de l’exposition au


risque
Il est naturel de considérer que la variance du bruit dépend de l’exposition au risque : il
y a d’autant plus d’incertitude sur les taux de décès que l’exposition au risque est faible. En
notant D, E, L le nombre de décès à un âge et une année donnée, l’exposition en début d’année
et l’exposition au milieu d’année respectivement, on peut supposer que le nombre de décès
correspondant à l’observation xi = (xiag , xiyr ) suit une loi Binomiale, soit :

Di Di
 
Li exp(y i ) ∼ Binomial p(i) := i , E i ' Li +
E 2

Notons que D, E, L sont données implicitement par la table de mortalité en considérant un


échantillon de 100000 personne à l’âge 0 pour chaque année d’observation. On déduit aisément :
(i) (i)
Var exp(y i ) = p (1−p )
 
Ei . Comme E prend de grandes valeurs, en considérant l’approximation
de Laplace , on peut approcher σ 2 (xi ) par :
14

(1 − p(i) )
σ 2 (xi ) = Var(y i ) '
p(i) E i
14. voir le détail dans Ludkovski et al. (2018)

17
. Nous calculons σ 2 (xi ) par la formule ci-dessus pour chaque année d’observation de l’échantillon
d’apprentissage et nous considérons la moyenne sur toutes les années comme valeur de référence
pour l’incertitude associée à l’âge. Ainsi, σ 2 (xi ) est une fonction de l’âge xiag uniquement et le
modèle est décrit par :
• Fonction moyenne : m(x) = β0 + β1 × xyr + β2 × xag + β3 × (xag )2
• Variance du bruit : Σ = σ 2 (xi )In
Notons que dans ce modèle, la variance du bruit est fixée a priori en fonction des données issues de
la table de mortalité. Ce n’est donc pas un hyperparamètre à estimer dans la regression GP.

• Modèle 5 - Moyenne quadratique et variance du bruit proportionnelle à la déviation


empirique des observations
Pour améliorer le modèle 4, nous considérons que la variance du bruit dépend de l’exposition
au risque au travers d’un coefficient de proportionnalité σ 2 considéré comme un hyperparamètre
du modèle GP et donc estimé par maximum de vraisemblance.
• Fonction moyenne : m(x) = β0 + β1 × xyr + β2 × xag + β3 × (xag )2
(1−p(i) )
• Variance du bruit : Σ = σ 2 (xi )In où σ 2 (xi ) = σ 2 × p(i) E i

• Modèle 6 - Lee-Carter Random Forest


Afin d’examiner la puissance du GP dans la modélisation de la table de mortalité, nous
comparerons les modèles GP ci-dessus avec une nouvelle approche introduite récemment : Lee-
Carter Random Forest (Deprez & Wüthrich et al., 2017; Levantesi and Pizzorusso, 2019). Cette
approche utilise le modèle de Lee-Carter (Lee and Carter, 1992) pour modéliser le taux de décès,
puis le résultat de prédiction est renforcé par une technique de Machine Learning de type Random
Forest 15 .
En utilisant la même base de données (xi , y i )i=1,...,n , supposons maintenant xi = (a, t) pour
l’âge a, l’année t. La modélisation de Lee-Carter prend le taux de décès comme la réponse. Pour la
suite, nous notons v i = exp y i le taux de décès :

v i = exp(αa + βa κt + a,t )

La prédiction de Lee-Carter s’écrit :

(v i )LC = exp(αa + βa κt ) (23)

Où αa , βa sont les coefficients correspondant l’âge a. κt est l’indice de temps, qui est modélisé et
par ARIMA (Autoregressive integrated moving average) :

κt = δ + κt−1 + ξt , ξt ∼ N (0, σκ2 )

Avec δ le paramètre de dérive, ξt le bruit gaussien de variance σκ2 Pour garantir l’identification du
modèle, Lee and Carter (1992) suggèrent l’ensemble des contraintes suivantes :
X X
βa = 1, κt = 0
a t

On admet désormais l’hypothèse : Di ∼ P oisson(v i E i ) avec E, D respectivement le nombre de


personnes du groupe i en début d’année t et le nombre de décès du groupe i sur la période [t, t + 1].
En adaptant cette hypothèse pour le taux de Lee-Carter, on déduit
( i
D ∼ P oisson ψ i (v i )LC E i


Di sont indpendants

avec ψ i l’ajustement pour le modèle. ψ i = 1 signifie que le modèle est parfaitement adapté
aux taux observés. Cependant, une analyse critique montre que le modèle de mortalité est soit
sur-estimé (ψ ≤ 1) ou soit sous-estimé (ψ ≥ 1).

15. Voir par exemple Breiman (2001); James et al. (2013) pour plus de détails sur le Random Forest

18
Ainsi, Deprez & Wüthrich et al. (2017) et Levantesi and Pizzorusso (2019) ont cherché à
modéliser ce ratio ψ, afin d’améliorer la prédiction de Lee-Carter. Le nouveau problème de
régression s’explique :
Di
z i = ψ i = i LC i = f (xi ) + i (24)
(v ) E
La notion de cohorte (année de naissance) est appréhendée dans ce modèle : cohorte (c)= année -
âge, xi = (a, t, c) .
Parmi l’ensemble des modèles de machine learning considérés, Levantesi and Pizzorusso (2019)
trouve que la meilleure technique de régression pour (24) est le (Random Forest). En acceptant ce
résultat, la prédiction du modèle 6 sera

v̂ i = (z i )RF (v i )LC (25)

avec (z i )RF estimé avec le Random Forest.

4.2.3 Résultats et validation du modèle


Les résultats des 6 modèles introduits ci-dessus sont montrés dans la table suivante qui se lit
comme suit :
• LogLi s.e. i représente le logarithme de vraisemblance maximisé sur le sous-ensemble i. Plus
le logarithme de vraisemblance est grand, plus le modèle est adapté.
• IC s.e. i représente la proportion des mortalités observées dans l’échantillon de validation i
contenues dans l’intervalle de confiance associé à cet échantillon
• RMSE s.e. i est la racine carrée de l’erreur quadratique moyenne (Root Mean Squared Error
en anglais) calculée sur l’échantillon de validation du sous-ensemble i. Elle mesure les écarts
entre les observations et la prédiction moyenne du processus gaussien. Plus le RMSE est
faible, plus le modèle est efficace.

LogLi LogLi LogLi IC IC IC RMSE RMSE RMSE


s.e. 1 s.e. 2 s.e. 3 s.e. 1 s.e. 2 s.e. 3 s.e. 1 s.e. 2 s.e. 3
M.1 2.827 2.542 2.587 95% 94% 100% 0,023 0,011 0,013
M.2 -778.321 -166.398 1.223 58% 81% 100% 0,184 0,101 0,038
M.3 2.772 2.487 2.535 95% 95% 98% 0,022 0,007 0,019
M.4 -105.659 -67.322 952 30% 28% 100% 0,347 0,566 0,087
M.5 -1.645 -1.484 -1.604 100% 100% 100% 0,025 0,027 0,138
M.6 0,024 0,040

Table 5 – Comparaison des résultats des modèles de GP différents

En analysant les logs de vraisemblance, on trouve que les modèles 2, 4 sont moins performants
que les modèles 1, 3, 5, 6 et le résultat sur le modèle 5 est décevant par rapport à 1, 3, 6. Les
RMSEs obtenues renforcent les commentaires sur les mauvaises performances des modèles 2, 4 et 5.
D’autre part, le modèle 6 n’est entraîné que sur le sous-échantillon 1 et 2 à cause de la construction
du modèle Lee-Carter. Le modèle Lee-Carter Random Forest donne un résultat acceptable sur
l’in-sample test (RMSE s.e. 1) et du même niveau que les modèles 1,3 et 5. Néanmoins, son
out-sample test (RMSE s.e. 2) indique une faiblesse par rapport aux trois meilleurs modèles.

19
Figure 4 – Prévision sur l’échantillon de validation du sous-ensemble 3 en 2016

(a) Modèle 1 (b) Modèle 5


Note : La courbe en pointillée rouge (échantillon validation) est le vrai taux observé en 2016. La courbe en bleu est
la moyenne de taux prévue et les lignes en gris sont son intervalle de confiance à 95% (les quantiles ponctuels de la
loi gaussienne). La courbe verte est le taux de décès réglementaire TF 00-02 pour la population féminine.

Le Figure 4 expose les taux observés, l’estimation de la moyenne et son intervalle de confiance
du modèle GP, et la courbe TF 00-02 - taux de décès pour la population féminine en 2000-2002 (en
pratique, l’assureur adopte suivant la courbe TF00-02 pour estimer le taux de décès). On observe
que l’estimation du modèle GP est très proche de la courbe de taux observée en comparaison
avec la courbe TF 00-02. En effet, la courbe réglementaire TF 00-02 est estimée sur la population
féminine française, tandis que la courbe modélisée correspond à la population mixte, donc elle est
au dessus de la courbe pour les femmes. L’intervalle de confiance (IC) augmente avec l’âge, ce qui
traduit le fait que le taux de décès est plus incertain aux grands âges comme prévu. De plus, l’in-
tervalle de confiance serre fortement les observations. Cela est un bon signe pour notre modélisation.

Au contraire du modèle 1, l’IC dans le modèle 5 est large et l’estimation de la moyenne se


situe plus loin de la courbe observée. Il explique pourquoi le log de vraisemblance dans ce modèle
est beaucoup faible que celui du modèle 1, mais son test de l’IC nous donne un bon résultat. Ce
problème apparaît aussi dans le modèle 2 et 4.

La différence entre les logs de vraisemblance des deux modèles 1 et 3 est petite. Pour ces
modèles, la RMSE sous le premier sous-ensemble est plus grande que celle sous les deuxième et
troisième ensembles. Les prévisions out-sample sont plus performantes que les prévisions in-sample.
Cela nous garantit que les modèles n’ont pas de sur-apprentissage.

Les deux modèles 1 et 3 donnent des résultats acceptables mais, en raison de la


simplicité du modèle 1, nous le retenons pour la suite de l’étude.

Choix : modèle 1
Rappelons la structure du modèle 1 :
(xag −x0 )2 (xyr −x0yr )2
 
• Fonction de covariance : k(x, x0 ) = η 2 exp − 2θ2 ag − 2
2θyr
ag

• Fonction moyenne : m(x) = β0 + β1 × xyr + β2 × xag + β3 × (xag )2


• Variance du bruit : Σ = σ 2 In
Après l’étape de comparaison des modèles, la prédiction est effectuée sur le premier sous-
échantillon, qui contient l’information historique la plus complète. Les paramètres calibrés sont
repris dans la table suivante :

θyr θag η σ β0 β1 β2 β3
5,738 1,398 0,875 0,063 0,018 3,483e-03 1,611e-02 7,67e-04

Table 6 – Les paramètres calibrés du modèle 1

Les paramètres d’échelle θ décrivent le lissage de la surface de mortalité. Le paramètre θyr


est beaucoup plus grand que θag dans la fonction de covariance, ce qui signifie que la corrélation
sur l’axe des années est plus forte que celle sur l’axe des âges. Le paramètre η capture l’erreur
de prédiction et contrôle la taille de l’intervalle de confiance. η petit nous permet de dire que la

20
fonction f synthétise bien la relation qui lie la mortalité à l’année et à l’âge. Parmi les paramètres
de la fonction moyenne, β0 , β2 sont plus grands que les deux autres. Cela indique que la fonction
moyenne est expliquée principalement par le facteur de niveau et l’âge. β3 est le coefficient du
carré de l’âge qui est ajouté pour capturer la tendance croissante du taux aux grands âges. Ainsi,
la positivité de ce paramètre nous conforte dans nos hypothèses et son faible ordre de grandeur ne
signifie pas que le terme est négligeable.

Analysons maintenant l’évolution du taux de décès en fonction de l’année d’observation pour


différents âges.

Figure 5 – Les taux de décès estimés sur le sous-ensemble 1, pour les années 1995-2015 aux âges
respectifs 5, 25, 65, 108

La Figure 5 démontre la qualité de l’estimation, les effets smoothing, sur l’axe des années. la
qualité du lissage est quand même sensible aux différents âges étudiés.

Validation du modèle

Remarquons que le processus gaussien suppose que toute la surface de réponse suit une loi
gaussienne multivariée. Le modèle rend donc une distribution multivariée pour les prévisions (loi
gaussienne multivariée avec le vecteur de moyenne et la matrice de covariance). Cependant, le test
d’IC dans table 5 est construit à partir de la variance aux points. C’est-à-dire que les covariances
n’étaient pas prise en compte.

Pour une validation plus exacte, nous faisons maintenant un test d’hypothèse sur la loi des
prédictions gaussienne multivariée au niveau de confiance α = 5%.
H0 : y = µ équivalent que la prédiction est acceptée, avec µ la prédiction moyenne de y.
H1 : y 6= µ ou la prédiction est rejetée
Au niveau de confiance α = 5%, la région de rejet de l’hypothèse nulle :

(y − µ)T Σ−1 (y − µ) ≤ χ2p,1−α

Où Σ est la matrice de covariance de prédiction et χ2p,1−α est le quantile d’ordre 1 − α de la loi du


χ2 à p degrés de liberté qui signifie la taille de l’échantillon de validation.

21
Statistique du test Statistique Khi 2 Acceptation H0
Sous-ensemble 1 2217,87 2558,08 Oui
Sous-ensemble 2 208,33 257,76 Oui
Sous-ensemble 3 42,31 179,58 Oui

Table 7 – Statistique du test de l’acceptation du modèle

Sur le tableau ci-dessus, les statistiques du test pour les trois sous-ensembles sont respectivement
inférieurs que ceux du Khi 2, donc l’hypothèse nulle est acceptée e.g. l’échantillon de validation
équivalent à la surface estimée du processus gaussien.

Grâce au modèle GP obtenu, nous prévoyons la loi des taux de décès pour les années de 2017
à 2066 (correspondant à la projection de 50 ans à partir de 2017). Puis, nous simulons 10 000
scénarios de la surface de mortalité pour le calcul du RA.

En conclusion, l’application du processus gaussien dans la construction de la table de mortalité


par génération est très prometteuse. Cette méthode présente le double avantage : de nous permettre
de diffuser de nombreux scénarios différents de taux de mortalité futurs en tenant compte la
corrélation de toute la surface de mortalité et de nous rendre des bonnes prévisions du taux de
décès qui est confirmée par la faible différence d’observations et l’intervalle de confiance serrée. Ce
résultat est encore renforcé par le test d’hypothèse et par la comparaison avec une autre nouvelle
technique (Lee-Carter Random Forest).

5 Application du calcul du Risk Adjustment sur le porte-


feuille de Models Point épargne euro
Dans cette section, nous implémentons numériquement plusieurs méthodes pour le calcul du
RA sur les 10 Models Points (voir Table 10). Le Risk Adjustment sera modélisé séparément pour
chaque MP afin d’analyser l’impact de la particularité de ce dernier sur les différentes valeurs du
RA. Rappelons que les risques non financiers considérés sont : la mortalité et le rachat structurel 16 .
Les rachats conjoncturels étant gouvernés uniquement par des facteurs de risque financiers, ils ne
contribuent pas directement au RA 17 .
L’évaluation du RA par notre approche se fonde sur la diffusion des scénarios des risques non
financiers couplés avec un scénario des risques financiers soigneusement déterminé. Le choix du
scénario des risques financiers porte sur celui dont la valeur des flux actualisés est la plus proche
du Current Estimate. Ce scénario est appelé scénario équivalent dans la suite.
Nous calculons le RA selon 4 méthodes :
• approche par chocs comme décrite aux Section 3.1 et 5.1.
• approche rachats binomial - décès binomial (comme décrite en Section 5.2) : les
scénarios de risques non-financiers, i.e., nombre de rachats et de décès sur chaque période,
sont simulés selon une loi binomiale, à partir de taux de décès centraux et des tables de
rachats structurels.
• approche rachat binomial - taux de décès Lee-Carter (comme décrite en Section
5.3) : génération aléatoire de rachats de loi binomiale, taux de décès simulé dans le modèle
Lee-Carter Random Forest calibré.
• approche rachat binomial - taux de décès GP (comme décrite en Section 5.4) : les
scénarios de risques non financiers comprennent les scénarios des rachats binomiaux et les
surfaces de mortalité simulées dans un modèle Gaussian Process.
16. voir section B.2
17. Les versements libres ne sont pas modélisés spécifiquement dans cette étude. Notons qu’un taux de rachat
dynamique négatif est possible, ce qui correspond à des versements. Mais ces derniers ne contribuent pas au RA
puisqu’ils ne dépendent que de facteurs de risque financiers.

22
5.1 Risk Adjustment dans l’approche par chocs
Le principe de mise en œuvre de ce modèle est décrite dans la section 3.1. Pour réaliser le calcul
d’après les formules (8), (9), (10), il faut disposer des chocs de la formule standard Solvabilité
2 (∆S2 ) et de la matrice de corrélation Σ extraite pour les modules de risques non-financiers
considérés.
• Les chocs de mortalité et de rachat dans S2 sont respectivement : ∆S2 S2
mortalite = 15%, ∆rachat =
50%. Pour l’étude de cas, nous avons considéré, pour chaque MP, des chocs IFRS 17 obtenus
à partir de la formule (10), en considérant l’horizon T du groupe de contrat (voir (1)) et en
prenant un quantile de niveau α = 95%.
• Dans Solvabilité 2, les deux types de risques
p considérés sont indépendants. L’agrégation dans
l’équation (9) devient donc : RAtotal = RA2mortalite + RA2rachat

5.2 Risk Adjustment dans l’approche rachat binomial - décès binomial


Pour cette approche, nous utilisons un ré-échantillonnage (boostrap) pour simuler les sorties.
Selon cette technique, le nombre de rachats suit une loi binomiale dont les paramètres sont le
nombre de polices d’assurance et le taux de rachat déterministe tandis que les décès suivent la
même loi mais de paramètres le nombre de contrat et le taux de décès de la table réglementaire. Le
nombre de décès et de rachat sont formalisés séparément comme suit et sont indépendants comme
dans Solvabilité 2 :
Dt ∼ Binomiale(Nt−1 , qx,t )
(26)
RSt ∼ Binomiale(Nt−1 , trs
c t)
Avec le nombre de contrats à la date t

Nt = Nt−1 − RSt − Nt−1 × trc


c t − Dt (27)


• Dt le nombre de décès sur l’exercice t
• RSt le nombre de rachats structurels sur l’exercice t
• qx,t est le taux de décès central pour l’âge x à l’année t. Ce taux est consulté dans la table
TF00-02
• trs
c t le taux de rachat structurel central pour l’année t (voir section B.2 et Table 11, 12)
• trc
c t le taux de rachat conjoncturel dynamique mesuré par la formule (31)
Dans les formules (26, 27), les suites (qx,t )x,t≥0 , (trs
c t )t≥0 et (trc
c t )t≥0 sont déterministes par
contre, les variables (Nt )t≥0 , (RSt )t>0 et (Dt )t>0 sont stochastiques.
Les deux variables Dt et RSt sont simulées indépendemment à chaque instant de calcul. Nous
générerons donc 10 000 scénarios pour évaluer le RA par l’approximation (15) (α = 95%, seuil de
quantile à prendre pour tous les modèles ci-dessous).

5.3 Risk Adjustment dans l’approche rachat binomial - taux de décès


Lee-Carter Random Forest
Ici, les scénarios des rachats sont toujours produits par boostrap binomial, cependant les
scénarios de décès sont engendrés à partir du modèle stochastique de taux de décès Lee-Carter
LCRF
Random Forest. Notons qx,t égal à ŷ i dans l’équation (25) tel que xi = (xiage = x, xiannee = t)
LCRF
qx,t = v̂ i = (z i )RF (v i )LC

Où (z i )RF est la valeur attendue de l’ajustement du modèle Random Forest. (v i )LC est projeté
à l’aide du modèle ARIMA, pour avoir les scénarios de mortalité stochastique.
Les suites stochastiques sont définies par les formules suivantes :
LCRF
Dt = Nt−1 qx,t
RSt ∼ Binomiale(Nt−1 , trs
c t) (28)
Nt = Nt−1 − RSt − Nt−1 × trc
c t − Dt

23
5.4 Risk Adjustment dans l’approche rachat binomial - taux de décès
GP
Le dernier modèle adopte la même formulation que le troisième modèle. Néanmoins, dans la
LCRF GP
formule (28), le taux qx,t est remplacé par qx,t le taux dans la surface de mortalité déterminée
en utilisant le modèle GP. Notons que le générateur de scénarios de la surface de mortalité est un
grand tenseur de taille 10.000 scénarios × 50 années × 111 groupes d’âge.

5.5 Comparaison des méthodes


Nous analysons maintenant les RA obtenus par les 4 méthodes listées ci-dessus. Rappelons que
nous appliquons 10.000 scénarios dans chaque méthode.
La table et le graphique suivant sont exposés avec la légende :
• Age : l’âge de souscripteur à la date de transition de la norme IFRS 17 (2017)
• RA_CE_chocs : RA évalué avec l’approche par chocs
• RA_TF02 : RA évalué par ré-échantillon binomial du nombre de rachats structurels et du
nombre de décès.
• RA_LCRF : RA évalué par ré-échantillon binomial du nombre de rachats structurels et
une simulation des taux de décès grâce au modèle Lee-Carte Random Forest.
• RA_GP : RA évalué par simulation d’une surface de mortalité GP et ré-échantillon binomial
de nombre de rachats structurels.
• Flux_GP_mean : La moyenne des flux futurs actualisés correspondant au RA_GP
calculé sur des scénarios de taille 10.000 des risques non financiers.
• Erreur relative GP = erreur relative de la moyenne des flux simulés par GP par rapport
au Current Estimate
• RA_GP / CE : le ratio du RA déterminé avec le gaussian process par rapport au Current
Estimate

RA_CE RA_ RA_ RA_ Flux_GP Erreur


MP Age CE RA_GP / CE
_chocs TF02 LCRF GP _mean relative GP
1 5 1 416 1 293 1 287 1 273 438 192 438 199 -0,002% 0,29%
2 12 1 097 1 112 1 128 1 101 222 759 222 774 -0,007% 0,49%
3 24 1 238 1 181 1 154 1 144 242 921 242 952 -0,012% 0,47%
4 35 855 960 934 907 137 136 137 158 -0,016% 0,66%
5 46 939 2 025 1 973 1 954 254 784 254 843 -0,023% 0,77%
6 52 982 7 180 6 788 6 538 494 071 494 153 -0,017% 1,32%
7 61 779 247 230 220 87 530 87 534 -0,004% 0,25%
8 73 155 442 321 314 52 148 52 142 0,013% 0,60%
9 81 66 168 105 108 68 847 68 849 -0,002% 0,16%
10 91 419 356 172 187 191 848 191 837 0,005% 0,10%

Table 8 – Comparaison des RAs évalués par les méthodes différentes

5.5.1 Comparaison des différentes méthodes


Avec un niveau de confiance (95%) identique pour toutes les méthodes, les RA estimés dans
l’approche par chocs pour certains MP sont largement différents de ceux des approches stochastiques.
Pour l’approche de choc, le même calcul du CE est refait en choquant le risque non financier dans
la première année de projection afin de déterminer les RAs marginaux qui sont ensuite agrégés
avec la matrice de corrélation. Tandis que dans l’approche stochastique, toutes les possibilités de
la conjointe des risques non financiers dans chaque exercice de projection sont considérées tenant
compte du scénario équivalent des risques financiers bien choisi en lieu et place du GSE.

5.5.2 Comparaison du RA pour les modèles stochastiques


Parmi les modèles stochastiques, le RA_GP est souvent le plus petit. Rappelons que le RA est
mesuré par la différence entre le quantile et la moyenne des flux actualisés. En effet, les flux projetés
par la surface de mortalité gaussienne sont moins incertains que par les deux autres méthodes.
D’après la table 8, La différence entre les 3 RAs par approches stochastiques, dans les Models
Points aux petits et moyens âges (MP 1 à 5), est insignifiante. A partir du MP 6, le RA_GP

24
devient sensiblement plus petit que les deux autres. Plus le groupe est âgé, plus l’impact du taux
de décès sur les flux est important. En combinant avec l’incertitude plus grande de la loi binomiale
que la loi normale 18 lors de la taille petite, les flux actualisés correspondants RA_TF02 sont donc
moins centralisés. On peut voir aisément un grand écart relatif des RAs à l’âge de 73, 81 et 91.
Particulièrement pour le MP 10, les RA_LCRF et RA_GP sont environ deux fois moins grand
que le RA_TF02.

5.5.3 Validation du proxy du scénario financier équivalent au Current Estimate


Le troisième bloc dans la table 8 nous permet de vérifier numériquement l’approximation (14)
de la diffusion des scénarios financiers par un scénario équivalent. La moyenne des flux actualisés
Flux_GP_mean s’approche du CE. En regardant l’écart relatif, cette approximation fonctionne
bien, sur tous les MPs, la valeur absolue de CE_erreur est inférieur à 0.05%. Le pire cas est détecté
dans le MP 5 où le Flux_GP_mean est sous estimé de 0.023% par rapport au CE. En résumé, le
trick où on choisit le scénario financier qui rend la valeur des flux la plus proche du CE comme le
scénario central des risques financiers, peut être mis en pratique.

Figure 6 – Les flux d’engagement dans la projection du MP 1

Sur ce sujet, la figure 6 illustre l’écoulement des flux d’engagement du Model Point 1 dans la
projection. La courbe en noir représente les moyennes des flux actualisés dans le calcul du Current
Estimate. Les flux admettent une tendance décroissante car il n’y a pas de primes périodiques dans
le cadre du MP 1, l’engagement d’assureur diminue normalement avec le temps. Cependant, la
courbe augmente en fin de projection correspondant au rachat total puisque l’horizon de projection
est de 50 ans. Pour calculer le CE, il faut projeter les flux sur plusieurs scénarios. Notre objectif ici
est d’approcher du Current Estimate par un scénario central de risque financier. La courbe en bleu
correspond au choix du scénario numérique qui rende la totalité des flux la plus proche du CE. En
outre, la courbe en rouge est réalisé par le scénario qui minimise la somme de l’écart absolu de ses
flux et des flux moyens dans le CE. Tandis que la courbe en vert est la projection sur le scénario
moyen de risque financier. Apparemment, la courbe en vert est toujours sous-estimé par rapport
de la courbe du CE. Ce résultat peut être aussi obtenu dans les autres Model Point. Ainsi, pour
l’approximation du CE, la courbe en bleu ou la courbe en rouge sont réalistes. Dans notre résultat
en table 8, la courbe en bleu est retenue.

5.5.4 Avantages du ratio RA/CE


La dernière colonne mesure le ratio RA modèle GP sur le CE, conformément aux attentes, le
ratio ne reste pas constant en fonction des MPs. On peut observer une tendance concave de ce
ratio par rapport à l’âge. Le ratio atteint un maximum pour le MP 6 égal à 1,32%, puis diminue
rapidement pour les groupes de personnes âgées. Ce résultat peut être interprété comme : pour le
18. le boostrap à partir un taux de décès central mène la loi binomiale du nombre de décès qui tend vers la loi
gaussienne lors d’une grande taille. Alors que pour les modèles LCRF et GP, les sources stochastiques viennent
directement de la loi normale et multinormale

25
groupe des grands âges, ce ratio est plus petit car sa maturité (l’équation (1)) dans la projection
est courte, ce qui diminue l’incertitude sur les différents flux futurs. De plus, ce résultat numérique
confirme plus ou moins l’axiome 2 (RA est croissant en fonction de la maturité de contrat).

5.5.5 Analyse de la qualité des projections stochastiques par dataviz


Afin de bien comprendre les résultats obtenus dans la Table 8, nous observons maintenant
les raincloud plots dans la Figure 7 ci-dessous. Le raincloud est un nouveau outil de dataviz qui
combine les trois plots statistiques : plot de densité, boîte à moustaches et nuage de points sur
un seul graphique, avec pour objectif de visualiser au maximum l’information sous-jacente. On
observe des formes de distribution normale pour 3 model points pour les premières tranches d’âge
(MP de 1 à 4), on déduit que les modélisations différentes de taux de décès n’ont pas d’impact
important dans le calcul du RA (plus précisément sur la distribution des flux) pour ces model
points. Cependant, à partir du MP 5, une différence de distribution apparaît en fonction de l’âge.

En analysant la forme de la distribution empirique, nous nous intéressons principalement à la


queue droite qui décrit les probabilités des valeurs extrêmes. A compter du MP 4, nous voyons
que la longueur et l’épaisseur de la queue des flux dans chaque modèle deviennent dissemblables.
Apparemment, la queue droite des Flux_GP est moins épaisse que les autres, ce point est clairement
visible à partir du MP6, ce qui confirme le résultat de RA dans la Table 8. Dans les MP 9 et 10, les
distributions des Flux_LCRF et Flux_GP sont beaucoup plus étroites que celle du Flux_TF0002.
Cette observation est cohérente avec l’incertitude plus grande engendrée par la méthode boostrap
par rapport aux 2 méthodes LC-RF & GP. Par ailleurs, les densités de Flux_LCRF et Flux_GP
rétrécissent à partir du MP 6, car leur surface de mortalité est calibrée et projetée à partir de
données HMD (voir section 4.2.1). Pour les petits et moyens âges, le gap des taux de décès dans
les dataset est faible. Cependant, ce gap augmente au regard de l’âge jusqu’au MP 6.

Dans la nouvelle norme IFRS 17, le Risk Adjustment peut être considéré comme une prime de
risque supplémentaire à la charge de l’assureur pour couvrir les risques non-financiers. De ce point
de vue, l’assureur aura une préférence envers une méthode qui minimise le RA reflétant la norme
et lui permettant de justifier la mise en oeuvre de cette méthode.

26
Figure 7 – Raincloud plots des flux de trésorerie futurs actualisés (comparatif des 3 approches
stochastiques)
Axe vertical : montant probable de l’engagement et leur densité.
Âge : Âge moyen à la date de souscription.
MP : le model point composant le portefeuille.

27
5.6 Estimation du RA à la date de souscription dans l’approche retros-
pective modifiée
Pour estimer la variation du RA entre la date de comptabilisation initiale et la date de transi-
tion, la norme propose une méthode 19 se fondant sur le dégagement du risque pour les contrats
d’assurance similaires qu’elle souscrit à la date de transition. Cependant, la définition de contrats
similaires n’est pas explicite. Une limite de cette approche concerne les contrats anciens qui
ne sont plus souscrits sur le marché e.g. Dans le contexte actuel de taux d’intérêt européen né-
gatif, l’assureur ne lance plus de produits d’assurance vie avec des TMG aussi élevés que par le passé.

Ainsi, nous développons une technique qui permet d’estimer le Risk Adjustment en date initiale
à partir d’informations disponibles à la date de transition. L’idée de cette méthode est d’estimer le
Risk Adjustment à chaque arrêté ultérieur à la transition, ensuite faire régression la courbe du RA
pour extrapoler le RA à la date initiale.

Rappelons que le Risk Adjustment RAt est mesuré à la date t pour couvrir les risques non-
financiers sur la période [t, T ] (T définie par l’équation (1)). On note désormais RAs [t → T ] le
Risk Adjustment estimé à la date s pour couvrir les risques non-financiers sur la période [t, T ].

Figure 8 – L’extrapolation de la tendance passée du RA pour obtenir une estimation du RA


initial

La figure 8 est réalisée sur le Model Point 1. Avec la date de comptabilisation initiale t0 = 2014
et la date de transition t1 = 2017, on estime donc la suite RAt1 [t → T ] pour t ≥ t1 , puis extrapole
vers le passé la valeur RAt1 [t0 → T ]. Les deux tirets (-) en rouge représentent l’intervalle de
confiance à 95% de l’estimation de RAt1 [t0 → T ] (obtenu par Gaussian Process).

De manière logique, le RAt1 [t → T ] avec t > t1 serait estimé par le scénario équivalent de
risques financiers, le scénario central de risques non financiers sur la période t1 → t et la diffusion
stochastique de risques non-financiers à partir de t. Remarquons qu’il n’y a pas de changement des
hypothèses de risques dans le calcul du RAt1 [t → T ].

Ensuite, nous faisons une régression sur la courbe du RA pour prévoir RAt1 [t0 → T ]. Le choix
du modèle de régression est flexible et sa complexité dépend de l’utilisateur. Dans cette étude, on
refera une régression par Gaussian Process.

Sur l’ensemble des données D = (x, y) = (xi , y i )i=1...n , un vecteur de caractéristique xi


inclut : CE i , Anneei , Agei , N bContrati , M P _indexi avec N bContrati le nombre des contrats,
M P _indexi l’indice du Model Point, cet indice est ensuite transformé en 9 variables binaires
(M P _indexik )k=1...9 (encodage one-hot avec une référence MP 10) 20 ; y i est le RA correspondant.
19. IFRS 17.C17.(c).(iii)
20. Un encodage one-hot consiste à représenter une variable de n catégories en n (n − 1) dans le cas où on définit

28
Dans l’échantillon d’apprentissage, chaque MP contient 21 estimations du RA futur (de 2017 à
2037). Ci dessous, la configuration du GP (le résultat du calibrage se trouve dans la table 13) :
• Fonction moyenne linéaire :
9
X
m(xi ) = β0 + β1 CE i + β2 Anneei + β3 Agei + β4 N bcontrati + γk M P _indexik
k=1

• Fonction de covariance linéaire : k(xi , xj ) = η12 (xi )T xj + η22


• Variance du bruit : Σ = σ 2 In

Figure 9 – Extrapolation du RA sur les 9 derniers MPs

La Figure 9 montre le RA initial extrapolé grâce à ses estimations dans le futur pour chaque
MP 21 . On observe une tendance décroissante avec le temps pour les estimations du RA. Ce résultat
est conforme numériquement au deuxième axiome de l’évaluation du RA dans IFRS 17 par approche
stochastique : le RA est décroissant en fonction de la maturité. Parmi les 10 MPs considérés, le
RA initial du model point 6 est inférieure à sa valeur à la date de transition. Les RAs initiaux
dans le MP 1, 2, 4, 5 s’inscrivent raisonnablement dans la tendance décroissante du RA. Enfin, sur
les grands âges, ou sur les MPs dont la date de souscription est ancienne, les RAs initiaux estimés
sont beaucoup plus élevés que leur tendance future.

Les résultats d’extrapolation sont dépendants de l’estimation du RA dans le futur. De plus, la


qualité de l’estimation du RA initial repose fortement sur la taille de données (un point faible dans
notre étude) et de la performance de la modélisation de régression. Afin de bien mesurer la qualité
de l’estimation, ainsi que d’améliorer la performance de la régression, l’assureur devra continuer à
utiliser tout d’abord l’approche rétrospective complète sur un sous-ensemble des MPs dans son
portefeuille, qui est simple à l’appliquer. Ensuite, deux alternatives peuvent être considérées :
une catégorie de référence) variables binaires. Une observation qui appartient à la k-ième catégorie admet la valeur 1
pour la k-ième variable binaire et 0 pour le reste. (L’observation correspondant à la catégorie de référence a toutes
ses variables binaires égales à 0)
21. Le résultat numérique se voit dans table 14

29
• conserver le même problème de régression comme présenté ci-dessus en rajoutant les nouvelles
observations qui sont les RA initiaux obtenus par approche rétrospective modifiée. Une
pondération plus importante dans la fonction de perte (dans le contexte du modèle de la
régression) pourrait être appliquée sur l’ensemble des nouvelles observations avec objectif
d’améliorer la performance du modèle.
• modéliser le problème de régression en mettant les RAs futurs estimés à l’avenir dans les
inputs x. La réponse y serait donc les RA initiaux. Pour profiter au maximum l’information
des MPs du le portefeuille, l’entité pourrait appliquer des techniques d’apprentissage semi-
supervisées (y i est à la fois disponible si le RA initial du model point i est évalué par approche
rétrospective complète, à la fois non-disponible). Cette alternative fournirait une bonne
estimation lorsque que la taille du portefeuille est suffisamment grande.

6 Conclusion
Dans cet article, nous avons comparer l’approche par chocs héritée de la formule standard S2 à
différentes approches stochastiques pour l’estimation du Risk Adjustment, dans le cadre de contrats
d’épargne en euros.

Nous avons donné une définition formelle du Risk Adjustment (11). Cependant l’évaluation
de cette formule n’est pas aisée, nous avons donc opté pour son approximation par un scénario
équivalent de risque financier et des scénarios stochastiques de risque non financier.

Afin de générer les scénarios des risques non financiers, la modélisation stochastique de la
mortalité a été réalisée à l’aide d’une regression par Gaussian Process). La regression GP montre
plusieurs avantages :
• fournir de bonnes estimations des taux de décès. Ce résultat a été validé et comparé avec la
table de référence TF00-02 sur les données de HMD selon plusieurs métriques.
• simuler les taux de décès en tenant compte de la corrélation de toute la surface de mortalité
A noter que l’application de la regression Gaussian Process (ou krigeage) sur d’autres types de
risque est possible (par exemple pour modéliser les versements libres), mais dans le cadre de cette
note, nous projetons les scénarios stochastiques des autres risques par ré-échantillonage binomial.

L’étude comparative des différentes approches de calcul de RA sur le périmètre de l’épargne


fait ressortir les conclusions suivantes :
• l’incertitude calculée dans l’approche par chocs (ajustement des chocs de la formule standard
S2) est ‘globalement’ inférieure à celle obtenue dans les approches stochastiques ;
• le RA obtenu dans l’approche par choc est plus ‘volatile’ d’un groupe de contrats à un autre
alors qu’une certaine homogénéité des résultats est observée entre les différentes approches
stochastiques étudiées ;
• l’approche stochastique s’avère efficace pour estimer le RA en date initiale dans la méthode
transitoire dite rétrospective modifiée, après extrapolation dans le passé des RA estimés aux
exercices futurs.

30
Références
Addactis (2019). Risk Adjustement sous IFRS 17.

Albrecher, H., P. Mayer, W. Schoutens, and J. Tistaert (2007). The little heston trap. Wilmott (1),
83–92.
Breiman, L. (2001). Random forests. Machine learning 45 (1), 5–32.
Brigo, D. and F. Mercurio (2007). Interest rate models-theory and practice : with smile, inflation
and credit. Springer Science & Business Media.
Corlosquet-Habart, M., W. Gehin, J. Janssen, and R. Manca (2015). Asset and Liability Manage-
ment for Banks and Insurance Companies. John Wiley & Sons.
Cui, Y., S. del Baño Rollin, and G. Germano (2017). Full and fast calibration of the heston
stochastic volatility model. European Journal of Operational Research 263 (2), 625–638.

Deprez & Wüthrich, P., P. V. Shevchenko, and M. V. (2017). Machine learning techniques for
mortality modeling. European Actuarial Journal 7 (2), 337–352.
James, G., D. Witten, T. Hastie, and R. Tibshirani (2013). An introduction to statistical learning,
Volume 112. Springer.

Lee, R. D. and L. R. Carter (1992). Modeling and forecasting us mortality. Journal of the American
statistical association 87 (419), 659–671.
Levantesi, S. and V. Pizzorusso (2019). Application of machine learning to mortality modeling and
forecasting. Risks 7 (1), 26.

Ludkovski, M., J. Risk, and H. Zail (2018). Gaussian process models for mortality rates and
improvement factors. ASTIN Bulletin : The Journal of the IAA 48 (3), 1307–1347.
Milliman (2017). IFRS 17 : Risk Adjustement.
Nexialog (2019). IFRS 17 : mise en œuvre sur périmètre épargne euro.

Roncalli, T. (2010). La gestion d’actifs quantitative. Economica.


Williams, C. K. and C. E. Rasmussen (2006). Gaussian processes for machine learning, Volume 2.
MIT press Cambridge, MA.

A Hypothèses des flux actif


A.1 Univers risque neutre et univers historique
On considère un marché complet comportant un actif non risqué ou prévisible (Bt ) et un actif
risqué (St ). Ils sont évalués par les équations différentielles stochastiques :

dSt
= µt dt + σt dWt (29)
St
dBt
= rt dt (30)
Bt
Où rt est le taux sans risque, µt , σt sont respectivement le rendement et la volatilité de l’actif
risqué et W est un mouvement brownien. Tous ces processus sont mesurés sur un espace probabilisé
(Ω, F, (Ft )t≥0 , P) avec (Ft )t≥0 une filtration usuelle et P la probabilité historique.
Notons λt = µtσ−r t
t
- prix de marché du risque, l’équation (29) peut s’écrire :

dSt
= (rt + σt λt )dt + σt dWt = rt dt + σt (dWt + λt dt)
St

31
En utilisant le théorème de Girsanov, nous produisons un mouvement W Q sous la probabilité Q
équivalente à P tel que :
Q
Z t
Wt = Wt + rs ds
0
Alors, l’EDS de l’actif risqué devient :

= rt dt + σt dWtQ
dSt
St

Sous la probabilité Q, le processus (WtQ )t≥0 est une martingale. De plus, la probabilité Q est
appelée risque-neutre. Le marché est dit complet si et seulement si il existe une unique probabilité
risque neutre.

A.2 Prix des swaptions européennes dans le modèle G2++


Considérons une swaption européenne avec le strike rate X, la maturité T , la valeur nominale
N qui donne au titulaire le droit d’effectuer au moment t0 = T un swap de taux d’intérêt avec les
temps de paiement T = {t1 , . . . , tn } , t1 > T . On considère le pricing avec les temps de paiement
annuels. De plus, nous notons ci = Xti −ti−1 pour i = 1, . . . , n − 1 et cn := 1 + Xtn −tn−1
Avec V (t, T ) définit dans l’équation (5), on introduit les notations suivantes :

P M (0, T )
 
1
A(t, T ) = M exp [V (t, T ) − V (0, T ) + V (0, t)]
P (0, t) 2
1 − e−z(T −t)
B(z, t, T ) =
z
Cette telle swaption européenne est donnée en calculant numériquement l’intégrale unidimen-
sionnelle suivante :
Z +∞ − 12 ( x−µx 2
" #
σx )
n
e X
ES(0, T, T , N, X) =N P (0, T ) √ Φ (−h1 (x)) − λi (x)eκi (x) Φ (−h2 (x)) dx
−∞ σx 2π i=1

ȳ − µ ρxy (x − µx )
h1 (x) := q y − q
σy 1 − ρ2xy σx 1 − ρ2xy
q
h2 (x) :=h1 (x) + B (b, T, ti ) σy 1 − ρ2xy
λi (x) :=ci A (T, ti ) e−B(a,T,ti )x
 
1 2 2 x − µx
κi (x) := − B(b, T, ti ) µy − (1 − ρxy )σy B(b, T, ti ) + ρxy σy
2 σx
ȳ = ȳ(x) est la solution unique de l’équation suivante
n
X
ci A (T, ti ) e−B(a,T,ti )x−B(b,T,ti )ȳ = 1
i=1

En outre,
µx := −MxT (0, T )
µy := −MyT (0, T )
r
1 − e−2aT
σx := σ
2a
r
1 − e−2bT
σy := η
2b h
ρση i
ρxy := 1 − e−(a+b)T
(a + b)σx σy

32
Avec
σ2 σ 2 h −a(T −t)
 
ση h −a(t−s)
i
−a(T +t−2s)
i
MxT (s, t) = + ρ 1 − e − e − e
a2 ab 2a2
ρση h −b(T −t) i
− e − e−bT −at+(a+b)s
b(a + b)
 2
η 2 h −b(T −t)

η ση h −b(t−s)
i
−b(T +t−2s)
i
MyT (s, t) = + ρ 1 − e − e − e
b2 ab 2b2
ρση h i
− e−a(T −t) − e−aT −bt+(a+b)s
a(a + b)
La preuve se trouve dans Brigo and Mercurio (2007). En appliquant la formule de Bachelier
pour swaptions, la volatilité normale implicite est la solution de l’équation ci-dessous :
n
√ X
ES(0, T, T , N, X) = N σ T [dΦ(d) + φ(d)] P (0, ti )
i=1

où Φ est fonction de répartition de la loi normale centrée réduite et φ = Φ0 et

Rswap (t) − X
d= √
σ T
P (t,T
Pn0 )−P (t,Tn )
avec Rswap (t) = le taux de swap à la date t. Dans le cas de la swaption à la monnaie,
i=1 P (t,Ti )
Rs wap(t) = X

A.3 Prix des calls européens dans le modèle Heston


Supposons le prix spot St , le taux d’intérêt constant r (le taux de dividende n’est pas pris en
compte), le prix d’une option d’achat vanille avec le strike K et échéance τ := T − t est
K
" Z !
1 −rτ e−rτ ∞
e−iulog S0
C(θ, K, τ ) = (St − Ke )+ S0 Re φ(θ, u − i, τ ) du
2 π 0 iu
K
! #
e−iulog S0
Z ∞
−K Re φ(θ, i, τ ) du
0 iu

Avec Re(.) est la partie réelle d’un nombre complexe, i2 = −1. La fonction caractéristique a été
initialement définie par Heston en tant que :
( " #
1 − g1 edτ
  
St F κθ
φ(θ, u, τ ) := E exp iulog = exp iulog + 2 (ξ + d)τ − 2log
S0 S0 σ 1 − g1
)
v0 1 − edτ
+ 2 (ξ + d)
σ 1 − g1 edτ

ξ+d
p
Où ξ := κ − σρiu, d := ξ 2 + σ 2 (u2 + iu), g1 = ξ−d
Ensuite, la volatilité implicite est la solution de l’égalité entre le prix du Heston et le prix du
Black & Scholes :
C(θ, K, τ ) = St Φ (d1 ) − Ke−rτ Φ (d2 )
Avec
• Φ la fonction de répartition de la loi normale centrée réduite
1
ln SKt + r + 12 σ 2 τ
   
• d1 = σ √ τ

• d2 = d1 − σ τ

33
B Hypothèses des flux passif
B.1 Prime
Les primes sont des flux entrants dans le passif d’assureur qui représentent l’engagement des
assurés envers l’assureur. Sur le périmètre épargne, il existe totalement 3 types de prime : la
souscription, les versements programmés (annuels) et les versements libres.
• Souscription : La souscription correspond à la première prime versée à la date de souscription
d’un contrat. De plus, nous supposons que tous les contrats sont souscrits au début d’année et
enregistrés à cette date. Les primes tiennent compte des chargements.
• Versements programmés : Les versements programmés sont les primes régulières stipulées aux
contrats. Pour la simplification afin de clarifier les calculs, nous ne considérons que les versements
annuels qui seraient comptabilisés au 1er janvier en chaque année et le premier versement programmé
a lieu en même temps de la souscription.
• Versements libres : Les versements libres sont des primes aléatoires rajoutées aux contrats. A
la différence de Solvabilité 2, les versements libres sont une composante qui doit être modélisée
dans le cadre d’IFRS 17. Cette composante est prise en compte par des hypothèses de rachats
conjoncturels dynamiques négatifs.

B.2 Prestation
Les prestations sont des flux sortants qui correspondent aux sorties du contrat au cours d’année.
Les prestations se composent notamment des décès, des rachats et des contrats échus. Elles sont
calculées à partir de la provision mathématique (qui représente l’engagement de l’assureur) au
début d’année et des taux de sorties. Cela signifie que si un contrat est arrêté au cours d’année N,
l’assuré reçoit l’épargne valorisée à la fin d’année N-1 sans toucher d’intérêts pour la période non
entière d’année N. Par simplification, Les prestations sur l’exercice sont mesurées une fois à chaque
arrêté :
P restationt = P Mt−1 × taux de sortiest
A la fin de chaque année de projection, le nombre de contrats restants est calculé à partir du
nombre de contrats au début d’année en enlevant l’estimation du nombre de contrats sortants en
cours d’année.
Nt = Nt−1 × (1 − taux de sortiest )
Dans les sorties, on distingue les rachats structurels, conjoncturels et les décès.
• Prestations pour décès : Si l’assuré meurt avant la date de maturité du contrat, son contrat
se termine. A ce moment, la compagnie d’assurance va verser aux bénéficiaires un capital égal
au montant acquis normalement au jour du décès, mais ici ce montant sera valorisé au début de
l’année du décès.
Les sorties pour cause de décès sont calculées avec un taux de mortalité dépendant de l’âge de
l’assuré. L’assureur doit, à la date de calcul, estimer le taux de décès à chaque âge dans le futur, il
peut utiliser la table de mortalité générale pour toute la population française (e.g. Table TF 00-02,
TH 00-02) ou calibrer sa propre table à partir de ses données historiques, certifiée par un actuaire
agrée.
Dans le cadre de notre projet, nous souhaiterons calibrer les taux de mortalité dépendant non
seulement de l’âge, mais aussi de l’année (tables de mortalité par génération). Ainsi, le taux de décès
d’un groupe des souscripteurs qui ont n ans pour l’année t sera noté qn,t . De plus, la prestation de
décès pour ce groupe sera :

P restations décèst = P Mt−1 × qn,t

• Prestation à maturité : Cette prestation correspond à tous les contrats dont la date d’échéance
est arrivée en cours d’année et avant l’horizon de calcul de la simulation de 50 ans.

34
• Prestation pour rachats : un contrat d’épargne en euros peut durer quatre ou huit ans pour
bénéficier de la fiscalité avantageuse associée à ce type de contrat. Néanmoins, Les assurés ont
toujours la possibilité d’effectuer un ou plusieurs rachats de leur contrat avant l’échéance de celui-ci.
Les rachats leur permettent de récupérer totalement ou partiellement leur capital. Nous distinguons
deux types de rachats :
• Les rachats structurels qui ne dépendent pas d’éléments extérieurs économiques. Les
rachats structurels sont en général appliqués par des règles fiscales propres en assurance vie
qui permettent de profiter d’une réduction de taxes après 4 ou 8 ans. Les taux de rachats
structurels sont élevés pour les contrats qui ont de 8 à 10 ans d’ancienneté. En outre, les rachats
structurels contiennent des rachats totaux ainsi que des rachats partiels. Les hypothèses sur
les rachats structurels des 10 MP sont exposées dans la table 11 et table 12.
• Les rachats conjoncturels (ou dynamiques) qui sont fortement corrélés aux événements
économiques. Ces rachats correspondent au cas où les assurés effectuent des rachats d’op-
portunité dans le cas où le taux servi du contrat est significativement inférieur aux taux
concurrentiels sur le marché. Les rachats dynamiques ne contiennent que des rachats totaux.
Dans une publication (QIS 5) en 2011, l’ACPR a défini une modélisation pour le taux des
rachats conjoncturels comme suit :


 RCmax si R − T M E < α
 R−T M E−β
RC si α < R − T M E < β


 max
 α−β
T aux rachats conjoncturels = 0 si β < R − T M E < γ (31)
R−T M E−γ

RCmin si γ < R − T M E < δ




 δ−γ
RCmin si R − T M E > δ

Avec R le taux servi qui est déterminé par le taux technique et la participation aux bénéfices
à la fin de chaque année, T M E le taux moyen des emprunts d’État correspondant à une
moyenne des taux concurrentiels. Dans notre étude, on définit sa valeur par le rendement
de l’obligation France 10 ans à la date de calcul et cette valeur sera constante sur toute la
projection. La table 9 indique les plafonds des autres paramètres. Puis, la dernière ligne en
jaune représente les valeurs choisies arbitrairement dans notre modélisation qui satisfont aux
plafonds de l’ACPR.

α β γ δ RCmin RCmax
Plafond max -4% 0 1% 4% -4% 40%
Plafond min -6% -2% 1% 2% -6% 20%
Notre choix -5% -1% 1% 3% -6% 35%

Table 9 – Hypothèse sur la fonction du taux de rachats dynamiques

B.3 Frais et Chargement


Les frais sont les coûts liés à la souscription, la gestion, la résiliation des contrats, etc. Ils
peuvent être prélevés sur encours et sont enregistrés directement comme flux sortant du passif
sur la période. Dans cette étude, nous n’avons pas considéré de chargements sur prime. Pour
notre modélisation, les hypothèses de frais et de chargement considérées pour chaque MP sont les
suivantes :
• Frais de gestion : 10 euros par an et par contrat ;
• Frais financiers : 5% sur la production financière de l’exercice
• Chargement sur encours : 1,5% sur la provision mathématique de début d’année
• Chargement sur production financière : 0,5% de la production financière de la PM

35
C Tables
MP 1 MP 2 MP 3 MP 4 MP 5 MP 6 MP 7 MP 8 MP 9 MP 10
Date de souscription 2014 2010 2012 2015 2013 2015 2009 2007 2008 2014
Age à la souscription 2 5 19 33 42 50 53 63 72 88
Nb Contrat à
800 500 900 400 720 750 470 400 600 300
la souscription
Cotisation initiale 720 1000 500 400 380 750 500 600 550 1500
Prime annuelle - - - 30 50 100 - - - -
Prime annuelle
- - - 8 19 11 - - - -
Duration
TMG 0,00% 1,00% 0,50% 0,00% 0,50% 0,00% 1,00% 2,00% 1,50% 0,00%
TMG Duration 0 5 4 0 5 0 7 7 4 5
Nb Contrat à
677 309 604 354 556 647 262 168 256 162
la date de transition
PM à la
394 779 201 996 220 029 139 303 264 914 541 746 81 234 50 561 68 275 193 289
date de transition
Age à la
5 12 24 35 46 52 61 73 81 91
date de transition

Table 10 – Caractéristiques des 10 Models Points

Table 11 – Hypothèses des taux de rachat totaux

36
Table 12 – Hypothèses des taux de rachats partiels

β0 β1 β2 β3 β4 η1 η2 σ
-269,283 -2,584 2,491 28,340 3,536 1,772 294,356 294,356
γ1 γ2 γ3 γ4 γ5 γ6 γ7 γ8 γ9
1.086,575 1.926,409 1.157,356 1.003,545 610,180 2.174,307 543,268 485,025 238,094

Table 13 – Paramètres calibrés dans le GP pour l’extrapolation du RA

37
Table 14 – Résultat de l’extrapolation du Risk Adjustment

38
Nexialog Consulting est un cabinet de conseil spécialisé en Banque et en Assurance. Or-
ganisés autour de 3 domaines d’activité - Risques Bancaires, Financiers & Assurantiels - nous
intervenons au sein des équipes métiers afin de les accompagner depuis le cadrage jusqu’à la mise en
œuvre de leurs projets. Associant innovation et expertise, le savoir-faire de notre cabinet a permis
de consolider notre positionnement sur ce segment et de bénéficier d’une croissance forte et régulière.

Les besoins de nos clients étant en constante évolution, nous nous adaptons continuellement
pour proposer le meilleur accompagnement. Le département R&D de Nexialog Consulting se donne
pour objectif de proposer des solutions innovantes à des problématiques métier ou d’actualité. Pour
cela, nous nous appuyons sur des librairies internes et sur le travail de nos consultants. Le pôle
R&D Nexialog a également pour mission de former les collaborateurs sur l’évolution des techniques
et la réglementation en lien avec leur activité.

Site web du cabinet : https://www.nexialog.com


Publications : https://www.nexialog.com/publications-nexialog/

Contacts

Ali BEHBAHANI
Associé, Fondateur
Tél : + 33 (0) 1 44 73 86 78
Email : [email protected]

Christelle BONDOUX
Associée, Directrice commerciale
Tél : + 33 (0) 1 44 73 75 67
Email : [email protected]

Habib FAYE
Manager R&D actuariat
Email : [email protected]

Areski COUSIN
Expert scientifique
Email : [email protected]

39

You might also like