Article RA IFRS 17-4
Article RA IFRS 17-4
Résumé
L’ajustement pour risque (Risk Adjustment) est un élément du passif d’assurance introduit
dans la norme comptable IFRS 17 parmi d’autres principes sans spécification particulière.
Suite à une première étude sur la mise en oeuvre d’IFRS 17 (voir Nexialog (2019)), nous
comparons ici différentes approches d’évaluation du Risk Adjustment dans le cadre des contrats
d’épargne en euros. Après analyse des différentes approches héritées de la Directive Solvabilité
2 (Cost of Capital, approche par chocs), nous détaillons une nouvelle approche stochastique
conforme aux principes présentés dans la norme pour le RA. Notre approche stochastique
s’inspire de la modélisation du Current Estimate. L’évaluation de l’ajustement pour risque
est réalisée sur la base de scénarios stochastiques des facteurs de risques non financiers. En
particulier, nous utilisons la regression par Gaussian Process (ou krigeage universel) comme
approche d’estimation et de projection stochastique des tables de mortalité générationnelles.
Une illustration du calcul du RA dans l’approche stochastique est réalisée à la date de transi-
tion de la norme. Enfin, une approche d’extrapolation du Risk Adjustment est proposée pour
le calcul du RA initial (à la date de souscription du contrat) dans l’approche rétrospective
modifiée.
1
Table des matières
1 Introduction 3
6 Conclusion 30
C Tables 36
Contacts 39
2
1 Introduction
En mai 2017, la Fondation IFRS publiait la nouvelle norme IFRS 17 « Contrats d’assurance »
qui entrera en vigueur le 1er janvier 2023 (Board IASB, mars 2020). Cette nouvelle norme remplace
la norme IFRS 4 qui avait été publiée en 2004 et qui autorisait les sociétés à continuer d’utiliser les
référentiels comptables locaux en matière de contrats d’assurance. Cela a conduit à une multitude
d’approches différentes d’un pays à un autre rendant donc difficile les comparaisons financières
entre sociétés.
L’objectif de la nouvelle norme est d’assurer qu’une entité cotée ou ayant émis des obliga-
tions cotées puisse fournir une information comptable représentant fidèlement la valeur de ses
contrats d’assurances et donc de son bilan, d’uniformiser les pratiques d’évaluation pour faciliter la
comparaison des états financiers entre sociétés.
Cependant, la nouvelle norme étant fondée sur des principes, elle donne des définitions mais ne
spécifie pas la méthode de calcul. Ainsi, les assureurs devront soumettre leur propre interprétation
de calcul des composantes de la norme au cours de sa mise en place initiale. Suite à notre première
publication (Nexialog, 2019) qui illustre la construction des bilans comptables d’IFRS 17 pour
des contrats d’épargne mono support en Euro, nous étudions dans cet article l’évaluation de
l’ajustement pour risque, qui est un concept nouveau et différent de la marge pour risque du bilan
Solvabilité 2.
Selon IFRS 17, l’ajustement pour risque non financier ou Risk Adjustment (RA) représente la
couverture de l’incertitude entourant le montant et l’échéancier des flux de trésorerie contingents
aux risques non financiers. Dans le contexte de l’épargne, on peut citer par exemple le risque de
rachat, le risque de frais 1 , le risque de mortalité et le risque de versement.
Plusieurs approches de calcul du Risk Adjustment ont été proposées dans la littérature et ont fait
l’objet d’études, notamment
• l’approche Cost of Capital (CoC)
• l’approche par chocs (VaR, Tvar)
• l’approche stochastique
Les objectifs de cette étude sont multiples : définir et formaliser le RA dans l’approche stochastique,
introduire une modélisation stochastique du risque mortalité adaptée au calcul du RA dans cette
approche, comparer le niveau de RA obtenu avec celui obtenu dans l’approche par chocs.
Afin d’atteindre nos différents objectifs, nous présenterons d’abord, le modèle Asset Liability
Management(ALM) utilisé pour la valorisation des contrats d’épargne en euros. Ensuite, nous
définirons l’approche stochastique pour l’évaluation du Risk Adjustment. Cette approche a été
réalisée en utilisant le modèle Gaussian Process (krigeage), un modèle canonique permettant la
modélisation et la projection stochastique de la surface de mortalité. Enfin, Nous ferons une analyse
comparative des résultats numériques dans différentes approches stochastiques et dans l’approche
par chocs dans le cadre du modèle VFA pour les fonds euro et nous proposons une piste pour
l’extrapolation du RA à la date de souscription des contrats afin de déterminer le RA à la date de
souscription, qui est indispensable au calcul de la CSM à la date de transition.
1. IFRS 17.B86
3
Remarque :
• La modélisation décrite ci-dessous est réalisée en considérant le 1er janvier, 2017 comme date
initiale d’évaluation. Pour les besoins de l’étude, nous supposons que cette date correspond à
la date de transition d’IFRS 17.
• Afin de faciliter la comparaison des différentes approches de calcul du RA, nous supposons
que, le passif d’assurance est constitué d’un unique Model Point (MP) d’épargne en euros (cf.
section 2.2) correspondant à un groupe d’assurés ayant un profil de risque homogène et donc
le même âge à la date d’évaluation. Dans la suite, le calcul du RA sera comparé sur différents
groupes de contrats IFRS 17, définis comme différents MP, donc différents profils de risque.
où la variable Age représente l’âge des assurés du Model Point considéré à la date d’évaluation 2 .
Nous avons retenu des obligations de maturité fixe T correspondant à l’horizon de couverture du
passif d’assurance. En particulier, la durée jusqu’à maturité des ZC ne peut excéder 50 ans et l’âge
de l’assuré 110 ans. En effet
• 50 ans correspond à l’horizon de projection dans notre modèle ALM. Tous les contrats seront
totalement rachetés après 50 ans (voir 2.2)
• 110 est l’âge maximal modélisé. Le taux de décès à l’âge 110 est supposé égale à 1 (voir 4.2.1)
De plus, nous supposons que la compagnie investit 10% des primes en actions (CAC 40) et
le reste (90%) en obligation ZC France T ans. En outre, nous supposons que l’assureur souhaite
conserver la même proportion d’actifs en portefeuille dans la projection, soit 10% CAC 40 et 90%
en ZC. A chaque arrêté, une réallocation des actifs est réalisée afin de respecter ces proportions
cibles. Cette stratégie est appellée constant mix (Roncalli, 2010).
La modélisation des flux d’actif s’appuie sur la projection des facteurs de risque dans le futur.
Ainsi, nous définissons un générateur de scénarios économiques (GSE). Le GSE est un ensemble de
projection future des facteurs de risque financier. Le GSE se compose de divers facteurs de risque
tels que les indices d’actions, d’immobilier et la courbe des taux d’intérêt, etc. Pour les deux classes
dans notre portefeuille d’actif, les deux facteurs des risques principaux retenus sont la courbe des
taux sans risque et l’action CAC 40.
où x0 = y0 = 0 ; (Wt1 )t≥0 et (Wt2 )t≥0 sont des mouvements browniens standards corrélés, de
coefficient de corrélation constante ρ. φ est une fonction déterministe qui dépend du de la courbe
2. L’âge des assurés est le même pour tous les contrats d’un même MP
3. Au lieu de définir la dynamique du taux court par une équation différentielle stochastique (EDS), les modèles
multifactoriels utilisent une fonction (souvent la somme) de plusieurs processus stochastiques
4
des taux forward instantanés à la date d’évaluation. Les paramètres a, b, σ, η sont supposés être
positifs. Selon Brigo and Mercurio (2007), la solution de cette équation s’écrit :
Z t Z t
rt = xs e−a(t−s) + ys e−b(t−s) + σ e−a(t−u) dWu1 + η e−b(t−u) dWu2 + φ(t) , pour s ≤ t (3)
s s
Pour garantir la compatibilité du modèle avec la courbe des taux initiale, la fonction φt doit être
définie comme suit :
σ2 2 η2 2 ση
φ(t) = f M (0, t) + 1 − e−at + 2 1 − e−bt + ρ 1 − e−at 1 − e−bt
2a2 2b ab
où f M (0, t) est le forward rate instantané à la date initiale (d’évaluation) pour la maturité t. Ce
taux se déduit des prix des obligation Zero Coupon par :
∂lnP M (0, t)
f M (0, t) = −
δt
où P M (0, t) le prix marché de l’obligation Zéro Coupon à maturité t. Dans notre étude, la courbe
d’obligation Zéro Coupon française 4 au 31 janvier 2017 sera considérée.
La calibration du modèle G2++ consiste à optimiser un modèle de 5 coefficients : a, b, σ, η, ρ
avec une fonction de perte qui mesure la distance de la surface de volatilité de la swaption du
modèle (voir A.2 pour plus de détails) et de la surface de volatilité des taux intérêts sur le marché 5 .
Les paramètres optimaux trouvés au cours du processus de calibration sont :
a σ b η ρ
0,00716 0,00693 0,00764 0,00693 -0,64758
Tel que :
• µ le rendement du taux sans risque.
• Les deux mouvements browniens standard (Wt1 )t≥0 et (Wt2 )t≥0 sont corrélés avec un coefficient
φ qui représente la corrélation entre le prix de l’actif et sa volatilité instantanée. Par ailleurs,
Le paramètre de corrélation φ affecte (positivement) l’asymétrie du rendement du sous-jacent,
au moment où l’écart type de la volatilité instantanée σ contrôle son kurtosis.
• Le modèle fait apparaître un coefficient κ qui représente la vitesse du retour de la volatilité
vt vers θ après de possibles hausses ou baisses.
• D’après Albrecher et al. (2007), S0 , σ, θ, κ doivent être positives. La volatilité vt est toujours
positive et ne peut pas atteindre zéro lorsque 2κθ ≥ σ 2 .
• En d’autres termes, dans le modèle Heston, la modélisation de l’action suit le modèle B&S,
tandis que la variance est un processus Cox-Ingersoll-Ross (CIR).
4. http://www.cnofrance.org/fr/courbes-des-taux-zero-coupon.cfm
5. La surface de volatilité de la swaption Euribor 1 an peuvent être collectée sur https://www.bloomberg.com
5
Bien qu’il n’existe pas une solution explicite pour le prix d’action dans le modèle Heston, Cui
et al. (2017) propose une formule fermée pour le pricing du call (voir A.3). La calibration des
paramètres du modèle consiste à minimiser la distance entre la surface de volatilité implicite du
modèle et la surface de volatilité observée du marché 6 . Les paramètres calibrés sont donnés dans
le tableau suivant :
θ κ σ φ v0
0,0506 12,92019 0,49384 0,99531 0,00441
6. La surface de volatilité du marché des options sur CAC40 peut être déduite à partir des prix des calls donnés
sur le site de référence : https://live.euronext.com/fr/product/index-options/PXA-DPAR
6
2.2.1 Taux minimum garanti et participation aux bénéfices
Un contrat d’épargne en euros est soumis à un taux minimum garanti. L’assureur s’engage
à verser à l’assuré, un rendement annuel au moins égal à ce taux. Le TMG est redéfini chaque
année par l’assureur et doit être conforme à la réglementation en vigueur. Dans notre projection,
le TMG de chaque MP (voir table 10) est supposé être constant.
La participation aux bénéfices (PB) est la deuxième composante du taux servi qui nous permet
de calculer le rendement annuel afin de revaloriser le contrat. En pratique, la participation aux
bénéfices est au moins égale à 85% du solde financier et au moins 90% du solde technique de
l’assureur. Si l’assureur enregistre un résultat négatif, il n’a pas d’obligation de reverser la PB,
sauf disposition contractuelle.
Dans le but de simplifier le modèle ALM, nous ne tenons compte que du rendement financier
dans le calcul de la PB. Plus précisément, une fois le rendement des actifs déterminé, l’assureur
versera de manière chronologique la TMG, puis la participation aux bénéfices. Cette dernière est
obtenue avec la formule suivante :
P M = V APassureur − V APassuré
Dans le cadre des fonds en euros, la PM représente le capital ou l’épargne acquise des assurés.
Notons P Mt la provision mathématique à la fin d’année t (égale à la provision mathématique au
début d’année t + 1), alors :
avec
• taux servit = T M Gt + taux PBt
• V ersementt : Versements programmés et enregistrés au début d’année t (voir Annexe B.1)
• P restationt : Règlement des sorties en cours d’année t (voir Annexe B.2)
• Chargementt : Le chargement au cours d’année t (voir Annexe B.3)
Cette formule récursive correspond à la revalorisation des contrats.
7
Figure 1 – Schéma de modélisation ALM
Si le rendement d’investissement ρt est inférieur au taux servit , une perte égale à la différence
sera à la charge de l’assureur.
Le portefeuille actif sera revalorisé en comptant la Variable fee et les flux passifs de l’exercice : les
primes versées, les prestations et les frais (incluent le frais de gestion et le frais financier - voir B.3)
enregistrés au cours d’année
Remarquons que les frais sont prélevés ici sur la production financière alors que les chargements
viennent diminuer la PM et donc l’engagement de l’assureur. Ces derniers n’apparaissent pas dans
la formule de revalorisation de l’actif.
La Variable fee représentant la commission de l’assureur est retirée du portefeuille d’actifs
d’adossement (les actifs représentatifs des fonds propres ne sont pas considérés ici). Enfin, le
portefeuille d’actifs est rebalancé de maniètre à respecter le niveau cible des proportions, soit 10%
d’actions et 90% d’obligations :
10%πt 90%πt
πt = St + P (t, T ).
St P (t, T )
8
2.4 Calcul du Current Estimate
En adaptant le modèle ALM décrit ci-dessus, nous présentons maintenant la modélisation du
Current Estimate. Le concept de Current Estimate dans IFRS 17 est similaire au concept de Best
Estimate sous Solvabilité II. Contrairement à l’EIOPA, qui transmet mensuellement les courbes de
taux d’actualisation à utiliser pour les calculs S2, l’IASB n’impose aucune courbe particulière pour
l’actualisation des flux de trésorerie futurs. Selon la norme IFRS 17, Il y a donc deux approches
possibles pour estimer la courbe d’actualisation : l’approche "top-down" et "bottom-up". Dans
cette étude, nous nous concentrons sur le calcul du RA, nous avons donc retenu la courbe de
l’EIOPA pour l’actualisation des flux dans les différentes approches.
De la même manière que le Best Estimate, le Current Estimate est une estimation de l’enga-
gement de l’assureur envers les assurés et peut être défini comme la moyenne pondérée (par les
probabilités d’occurence) des flux de trésorerie futurs, compte tenu de la valeur temporelle de
l’argent, estimée sur la base d’une courbe des taux sans risque.
Pour des produits d’assurance vie, les risques ayant un impact sur les flux du passif peuvent être
classés en différentes catégories, comme décrit en Table 3.
Dans le calcul du Current Estimate, nous nous concentrons sur les risques d’assurance et les
risques financiers qui sont donc mesurés selon deux probabilités différentes. Le CE peut s’écrire :
" T #
CE = E P ⊗Q
X
out
δt (CFt − CFt )in
t=1
" T
#
= EP⊗Q
X
δt (P restationt + F raist − V ersementt )
t=1
T
" #
= EP⊗Q
X
Ft YtF , YtN F
(6)
t=1
Où :
• P : Probabilité historique mesurant les risques non-financiers
• Q : Probabilité risque neutre mesurant les risques financiers
• CFtout : Flux (Cash flows) sortants au cours d’année t
• CFtin : Flux entrants au cours d’année t
• δt : Déflateur stochastique en date t 7
• Ft YtF , YtN F : Expression des flux actualisés en fonction du niveau en t des risques financiers
YtF et du niveau en t des risques non-financiers 8 YtN F .
A cause de la complexité du bilan et des interactions actif-passif en asssurance vie, le calcul
du Current Estimate (6) est délicat et repose en pratique sur des simulations de Monte Carlo.
Chaque scénario des facteurs de risque généré par le GSE est donné en entrée du modèle ALM qui
le traduit en une chronique de flux de trésorerie futurs. Ainsi, pour N simulations des facteurs de
risque financiers, le Current Estimate est estimé par
N N
1 XX 1 X X F n NF
CEt ' (δs )n (CFs )n ' Fs (Ys ) , Ys (7)
N n=1 s>t N n=1 s>t
9
où YsN F décrit un scénario central pour les facteurs de risques non-financiers. Les quantités
(δs )n et (CFs )n sont respectivement le facteur d’actualisation et le flux de trésorerie futur en s,
correspondant au scénario n.
Divers approches ont été proposées pour la modélisation du RA. On peut citer :
• Coût du capital : C’est la première méthode considérée et introduite largement (Milliman,
2017; Addactis, 2019) car elle est déjà mise en œuvre pour déterminer la marge de risque sous
Solvabilité 2. Les assureurs peuvent profiter du système d’évaluation des SCR 10 (Solvency
Capital Requirement) qui est déjà développé et connu depuis longtemps, puis le RA est la
somme des SCRs actualisés pendant toute la période de couverture (pour les risques non
financiers) actualisés en multipliant avec un taux de Cost of Capital égal à 6%
• Approche par chocs : Rappelons que, dans le cadre de la formule standard S2, le SCR pour
chaque module de risque (SCR stand alone) est mesuré séparément comme une sensibilité au
facteur de risque correspondant. Le choc sur le facteur de risque est précisé dans la Directive
Solvabilité 2. Le SCR stand alone est donc égal à la différence entre le Best Estimate choqué
et le Best Estimate central. Puis, pour le SCR total, les SCRs stand alone sont agrégés
en plusieurs niveaux, à partir d’une matrice de corrélation définie dans Solvabilité 2. En
s’inspirant de ce calcul, (Addactis, 2019) propose une valorisation du RA en utilisant la même
méthodologie et la même matrice de corrélation, mais des niveaux de chocs différents. La
formule du Risk Adjustment pour un risque non financier k (RAk ) est déduite à partir de
l’équation (7) :
RAk = CE k − CE (8)
9. IFRS 17.B91
10. Le SCR représente le capital cible nécessaire pour absorber le choc provoqué par un risque majeur (par
exemple : un sinistre exceptionnel, un choc sur les actifs...) sur l’horizon 1 an
10
où CE k est le Current Estimate calculé après application d’un choc ‘ajusté’ sur le facteur de
risque k, selon la même méthodologie que la formule standard S2. L’ajustement du choc est
décrit plus bas.
Le RA total peut être obtenu en appliquant la même approche ‘bottom-up’ d’agrégation
elliptique que pour la formule standard 2, en considérant la matrice de corrélation extraite
pour les facteurs de risques non-financiers considérés.
√
RA = R0 ΣR (9)
11
où P est la probabilité historique associé à l’évaluation des risques non-financiers, Q est la
probabilité risque-neutre associée à l’évaluation des risques financiers. La fonction mP est une
mesure de risque sous P définie sur l’espace des variables aléatoires G∞ -mesurables (G∞ représente
l’information complète des risques non-financiers dans la projection).
La sélection de la mesure m est flexible. La norme IFRS 17 n’impose pas aux entités le choix
d’une mesure spécifique ni le seuil de confiance (comme par exemple la V aR99,5% dans Solvabilité
2). Dans cette étude, nous avons retenu la mesure m suivante basée sur la V aR :
Le RA est alors défini comme l’écart entre le quantile au niveau α et l’espérance. Le RA est alors
donné par la formule (12) et illustrée à la Figure 2. On sait que la V aR n’est pas une mesure
cohérente 11 car elle n’est pas toujours sous additive (La sous additivité de la V aR est pourtant
satisfaite dans la plupart des cas). De ce fait, l’assureur pourrait remplacer la V aR par la T V aR
qui est une mesure cohérente.
" !# " !#
P E Q X Fs Y F , Y N F G ∞
RAt = V aRα − EP EQ
X
Fs YsF , YsN F
G∞ (12)
s s
s>t s>t
" !#
P EQ X Fs Y F , Y N F G∞
= V aRα − CEt (13)
s s
s>t
Pour calculer le RA dans cette approche, il est nécessaire d’avoir recours à des simulations de
Monte-Carlo, notamment pour des passifs de contrats en Euro.
Cette évaluation suit un processus en 3 étapes :
3. Enfin, mesurer le RA à partir de la distribution des flux obtenue dans l’étape précédente par
la mesure m
Le processus de simulation est illustré à la Figure 3 avec X représentant les flux probables
actualisés dans l’étape 2. Une telle technique requiert un grand nombre de simulations : lorsqu’on
11. Une mesure de risque est cohérente si elle satisfait 4 propriétés : Monotonicité, Homogénéité positive, Invariance
par translation et Sous additivité
12
considère n scénarios des risques non-financiers pour l’étape 1 et m scénarios des risques financiers
dans le GSE, il est nécessaire de projeter n × m chroniques de flux sur un horizon de T années.
Même sur une machine puissante, le calcul du RA par la méthode stochastique paraît irréalisable.
Dans le cadre de notre étude, nous avons considéré un scénario central pour les facteurs de
risque financiers, ce qui revient à faire l’approximation suivante :
!
Q X
E
X
F NF
Fs YsF , YsN F
Fs Ys , Ys G∞ ' (14)
s>t s>t
" # " #
P X Fs Y F , Y N F − EP X Fs Y F , Y N F
RAt ' V aRα s s s s (15)
s>t s>t
Il sera ensuite calculé par Monte Carlo en diffusant les scénarios stochastiques des risques non
financiers.
Parmi les scénarios de risques financiers générés pas le GSE, nous avons retenu comme scénario
central (YsF )s>t , celui donnant la valeur des flux futurs actualisés la plus proche du CE. La validité
de cette approximation est attentivement analysée dans la section 5.5.
Sur le périmètre des contrats épargne euro, les principaux risques non-financiers sont le risque
de mortalité (et de longévité), les versements aléatoires de primes (versements libres) et les rachats
structurels. Au sein de ce projet, nous nous intéressons à estimer le RA en analysant les impacts
des risques de mortalité, des rachats structurels ainsi que des versements libres sur les flux de
trésorerie futurs.
13
finie aux espaces fonctionnels de dimension infinie. De plus, il s’agit d’un modèle de régression non
paramétrique.
Cette section a pour but d’introduire brièvement la régression par processus gaussien et son
application pour la modélisation des tables de mortalité. Pour une documentation plus complète
sur la régression par GP, le lecteur peut se référer à Williams and Rasmussen (2006).
14
4.2 Table de mortalité générationnelle par processus gaussien
L’adaptation du GP pour modéliser le risque de mortalité a été proposée par Ludkovski et al.
(2018) mais l’étude se concentre sur la mortalité américaine et pour des tranches d’âge concernée
par la retraite. Les résultats sont très favorables à la régression par GP, après comparaison avec
plusieurs approches alternatives.
Cette partie présente l’application de la regression GP pour la modélisation de la surface de
mortalité française, du calibrage à la validation du modèle.
Sous-ens. 2
Année : 1995-2014 ; Age : 0-110+ Année : 2015-2016 ; Age : 0-110+
Sous-ens. 3
Année : 1995-2013 ; Age : 0-110+
Année : 2014-2016 ; Age : 61-110+
& Année : 2014-2016 ; Age : 0-60
Remarque : L’un des enjeux de la méthode consiste à limiter la hausse de l’espérance de vie de
manière suffisamment prudente.
Notre objectif est de construire une table de mortalité générationnelle. La structure des taux
de mortalité peut être représentée par une matrice à deux dimensions avec l’axe vertical pour l’âge,
13. https://www.mortality.org/hmd/FRATNP/STATS/Mx_1x1.txt
15
l’axe horizontal pour l’année d’observation. les éléments de la matrice représentent le (logarithme)
des taux de décès qui sont plus ou moins corrélés.
En particulier, dans la table de mortalité, les taux sur la diagonale principale et ses parallèles sont
fortement corrélés. Parce qu’ils représentent le taux de décès du même sous-ensemble de population
e.g. les personnes qui ont un âge x l’année n, auront l’âge x + 1 l’année n + 1 si elles ne décèdent
pas au cours de l’année n.
• Sous-ensemble 1 : On calibre le modèle avec toute la base de données et on estime les taux par
les paramètres du modèle pour la validation i.e. in sample test. Le résultat sur ce sous-ensemble
montre la performance du modèle mais il ne vérifie pas s’il existe ou pas de sur-apprentissage dans
le modèle
• Sous-ensemble 2 : Pour construire l’échantillon d’apprentissage et de validation, nous coupons
la matrice de taux de décès par horizon (par année) sur la table ci-dessus. Ce sous-ensemble nous
permet de voir la performance d’estimation dans le futur et d’observer le sur-apprentissage du
modèle
• Sous-ensemble 3 : Enfin, on coupe la base de données par carré. Ce sous-ensemble mesure la
cohérence entre le modèle et la caractéristique de la table de mortalité (les impacts diagonaux)
Notons :
• xi un vecteur de variables indépendantes représentant l’observation i incluant deux éléments :
l’âge xiag et l’année d’observation xiyr
• x = x1:n l’ensemble de variables indépendantes, où n est nombre d’observations
• y i observation i pour la variable d’entrée xi . y i est le logarithme du taux de décès à l’âge
xiag et à l’année d’observation xiyr .
• y = y 1:n le vecteur des réponses observées
4.2.2 Modélisation
L’objectif est d’estimer la fonction Y : x → log(q(x)) où x = (xag , xyr ) pour l’âge et l’année
d’observation, en considérant les hypothèses de modélisation ci-dessous.
Hypothèses
1. Y est modélisé par un processus Gaussien f ∼ GP(m(·), k(·, ·)) où
• m(.) est la fonction de moyenne
• k(., .) est la fonction de covariance : k(x, x0 ) mesure la covariance entre Y (x) et Y (x0 )
en fonction de la distance entre x et x0 .
2. Pour tout point xi du champ d’expérience, les réalisations de Y (xi ) sont des observations
bruitées de f :
Y (xi ) = f (xi ) + εi
où ε1 = (ε1 , . . . , εn ) est un vecteur Gaussien indépendant de f et de loi N (0, Σ)
Nous allons tester les performances de 5 modèles sur les 3 sous-ensembles de la Table 4. Pour
tous les modèles considérés, on utilise la même fonction de covariance squared exponential kernel.
D’autres choix de noyau sont possibles pour les processus gaussiens, mais cette fonction nous
permet de représenter assez fidèlement les caractéristiques de table de mortalité : l’incertitude du
taux de mortalité est plus élevée pour les personnes âgées.
Nous retenons donc la fonction de covariance suivante pour les 5 modèles.
!
0 2
(xag − x0ag )2 (xyr − x0yr )2
k(x, x ) = η exp − 2
− 2
2θag 2θyr
16
Les différents modèles étudiés diffèrent par le choix de la fonction moyenne m(·) et par le choix
de la variance du bruit Σ. Les performances de ces différentes approches de regression GP seront
également comparées avec le modèle de Lee-Carter Random Forest.
• Modèle 3 - Moyenne avec variable nominale pour groupe âgé et bruit de variance
constante
Dans ce troisième modèle, nous souhaitons mettre l’accent sur la tendance croissante des taux
de mortalité aux grands âges. Nous introduisons une variable nominale qui représente le groupe de
personnes qui ont plus que 90 ans.
• Fonction moyenne : m(x) = β0 + β1 × xyr + β2 × xag + β3 × (xag )2 + β4 × 1xag ≥90
• Variance du bruit : Σ = σ 2 In où σ est constant pour toutes les observations
Di Di
Li exp(y i ) ∼ Binomial p(i) := i , E i ' Li +
E 2
(1 − p(i) )
σ 2 (xi ) = Var(y i ) '
p(i) E i
14. voir le détail dans Ludkovski et al. (2018)
17
. Nous calculons σ 2 (xi ) par la formule ci-dessus pour chaque année d’observation de l’échantillon
d’apprentissage et nous considérons la moyenne sur toutes les années comme valeur de référence
pour l’incertitude associée à l’âge. Ainsi, σ 2 (xi ) est une fonction de l’âge xiag uniquement et le
modèle est décrit par :
• Fonction moyenne : m(x) = β0 + β1 × xyr + β2 × xag + β3 × (xag )2
• Variance du bruit : Σ = σ 2 (xi )In
Notons que dans ce modèle, la variance du bruit est fixée a priori en fonction des données issues de
la table de mortalité. Ce n’est donc pas un hyperparamètre à estimer dans la regression GP.
v i = exp(αa + βa κt + a,t )
Où αa , βa sont les coefficients correspondant l’âge a. κt est l’indice de temps, qui est modélisé et
par ARIMA (Autoregressive integrated moving average) :
Avec δ le paramètre de dérive, ξt le bruit gaussien de variance σκ2 Pour garantir l’identification du
modèle, Lee and Carter (1992) suggèrent l’ensemble des contraintes suivantes :
X X
βa = 1, κt = 0
a t
Di sont indpendants
avec ψ i l’ajustement pour le modèle. ψ i = 1 signifie que le modèle est parfaitement adapté
aux taux observés. Cependant, une analyse critique montre que le modèle de mortalité est soit
sur-estimé (ψ ≤ 1) ou soit sous-estimé (ψ ≥ 1).
15. Voir par exemple Breiman (2001); James et al. (2013) pour plus de détails sur le Random Forest
18
Ainsi, Deprez & Wüthrich et al. (2017) et Levantesi and Pizzorusso (2019) ont cherché à
modéliser ce ratio ψ, afin d’améliorer la prédiction de Lee-Carter. Le nouveau problème de
régression s’explique :
Di
z i = ψ i = i LC i = f (xi ) + i (24)
(v ) E
La notion de cohorte (année de naissance) est appréhendée dans ce modèle : cohorte (c)= année -
âge, xi = (a, t, c) .
Parmi l’ensemble des modèles de machine learning considérés, Levantesi and Pizzorusso (2019)
trouve que la meilleure technique de régression pour (24) est le (Random Forest). En acceptant ce
résultat, la prédiction du modèle 6 sera
En analysant les logs de vraisemblance, on trouve que les modèles 2, 4 sont moins performants
que les modèles 1, 3, 5, 6 et le résultat sur le modèle 5 est décevant par rapport à 1, 3, 6. Les
RMSEs obtenues renforcent les commentaires sur les mauvaises performances des modèles 2, 4 et 5.
D’autre part, le modèle 6 n’est entraîné que sur le sous-échantillon 1 et 2 à cause de la construction
du modèle Lee-Carter. Le modèle Lee-Carter Random Forest donne un résultat acceptable sur
l’in-sample test (RMSE s.e. 1) et du même niveau que les modèles 1,3 et 5. Néanmoins, son
out-sample test (RMSE s.e. 2) indique une faiblesse par rapport aux trois meilleurs modèles.
19
Figure 4 – Prévision sur l’échantillon de validation du sous-ensemble 3 en 2016
Le Figure 4 expose les taux observés, l’estimation de la moyenne et son intervalle de confiance
du modèle GP, et la courbe TF 00-02 - taux de décès pour la population féminine en 2000-2002 (en
pratique, l’assureur adopte suivant la courbe TF00-02 pour estimer le taux de décès). On observe
que l’estimation du modèle GP est très proche de la courbe de taux observée en comparaison
avec la courbe TF 00-02. En effet, la courbe réglementaire TF 00-02 est estimée sur la population
féminine française, tandis que la courbe modélisée correspond à la population mixte, donc elle est
au dessus de la courbe pour les femmes. L’intervalle de confiance (IC) augmente avec l’âge, ce qui
traduit le fait que le taux de décès est plus incertain aux grands âges comme prévu. De plus, l’in-
tervalle de confiance serre fortement les observations. Cela est un bon signe pour notre modélisation.
La différence entre les logs de vraisemblance des deux modèles 1 et 3 est petite. Pour ces
modèles, la RMSE sous le premier sous-ensemble est plus grande que celle sous les deuxième et
troisième ensembles. Les prévisions out-sample sont plus performantes que les prévisions in-sample.
Cela nous garantit que les modèles n’ont pas de sur-apprentissage.
Choix : modèle 1
Rappelons la structure du modèle 1 :
(xag −x0 )2 (xyr −x0yr )2
• Fonction de covariance : k(x, x0 ) = η 2 exp − 2θ2 ag − 2
2θyr
ag
θyr θag η σ β0 β1 β2 β3
5,738 1,398 0,875 0,063 0,018 3,483e-03 1,611e-02 7,67e-04
20
fonction f synthétise bien la relation qui lie la mortalité à l’année et à l’âge. Parmi les paramètres
de la fonction moyenne, β0 , β2 sont plus grands que les deux autres. Cela indique que la fonction
moyenne est expliquée principalement par le facteur de niveau et l’âge. β3 est le coefficient du
carré de l’âge qui est ajouté pour capturer la tendance croissante du taux aux grands âges. Ainsi,
la positivité de ce paramètre nous conforte dans nos hypothèses et son faible ordre de grandeur ne
signifie pas que le terme est négligeable.
Figure 5 – Les taux de décès estimés sur le sous-ensemble 1, pour les années 1995-2015 aux âges
respectifs 5, 25, 65, 108
La Figure 5 démontre la qualité de l’estimation, les effets smoothing, sur l’axe des années. la
qualité du lissage est quand même sensible aux différents âges étudiés.
Validation du modèle
Remarquons que le processus gaussien suppose que toute la surface de réponse suit une loi
gaussienne multivariée. Le modèle rend donc une distribution multivariée pour les prévisions (loi
gaussienne multivariée avec le vecteur de moyenne et la matrice de covariance). Cependant, le test
d’IC dans table 5 est construit à partir de la variance aux points. C’est-à-dire que les covariances
n’étaient pas prise en compte.
Pour une validation plus exacte, nous faisons maintenant un test d’hypothèse sur la loi des
prédictions gaussienne multivariée au niveau de confiance α = 5%.
H0 : y = µ équivalent que la prédiction est acceptée, avec µ la prédiction moyenne de y.
H1 : y 6= µ ou la prédiction est rejetée
Au niveau de confiance α = 5%, la région de rejet de l’hypothèse nulle :
21
Statistique du test Statistique Khi 2 Acceptation H0
Sous-ensemble 1 2217,87 2558,08 Oui
Sous-ensemble 2 208,33 257,76 Oui
Sous-ensemble 3 42,31 179,58 Oui
Sur le tableau ci-dessus, les statistiques du test pour les trois sous-ensembles sont respectivement
inférieurs que ceux du Khi 2, donc l’hypothèse nulle est acceptée e.g. l’échantillon de validation
équivalent à la surface estimée du processus gaussien.
Grâce au modèle GP obtenu, nous prévoyons la loi des taux de décès pour les années de 2017
à 2066 (correspondant à la projection de 50 ans à partir de 2017). Puis, nous simulons 10 000
scénarios de la surface de mortalité pour le calcul du RA.
22
5.1 Risk Adjustment dans l’approche par chocs
Le principe de mise en œuvre de ce modèle est décrite dans la section 3.1. Pour réaliser le calcul
d’après les formules (8), (9), (10), il faut disposer des chocs de la formule standard Solvabilité
2 (∆S2 ) et de la matrice de corrélation Σ extraite pour les modules de risques non-financiers
considérés.
• Les chocs de mortalité et de rachat dans S2 sont respectivement : ∆S2 S2
mortalite = 15%, ∆rachat =
50%. Pour l’étude de cas, nous avons considéré, pour chaque MP, des chocs IFRS 17 obtenus
à partir de la formule (10), en considérant l’horizon T du groupe de contrat (voir (1)) et en
prenant un quantile de niveau α = 95%.
• Dans Solvabilité 2, les deux types de risques
p considérés sont indépendants. L’agrégation dans
l’équation (9) devient donc : RAtotal = RA2mortalite + RA2rachat
Où
• Dt le nombre de décès sur l’exercice t
• RSt le nombre de rachats structurels sur l’exercice t
• qx,t est le taux de décès central pour l’âge x à l’année t. Ce taux est consulté dans la table
TF00-02
• trs
c t le taux de rachat structurel central pour l’année t (voir section B.2 et Table 11, 12)
• trc
c t le taux de rachat conjoncturel dynamique mesuré par la formule (31)
Dans les formules (26, 27), les suites (qx,t )x,t≥0 , (trs
c t )t≥0 et (trc
c t )t≥0 sont déterministes par
contre, les variables (Nt )t≥0 , (RSt )t>0 et (Dt )t>0 sont stochastiques.
Les deux variables Dt et RSt sont simulées indépendemment à chaque instant de calcul. Nous
générerons donc 10 000 scénarios pour évaluer le RA par l’approximation (15) (α = 95%, seuil de
quantile à prendre pour tous les modèles ci-dessous).
Où (z i )RF est la valeur attendue de l’ajustement du modèle Random Forest. (v i )LC est projeté
à l’aide du modèle ARIMA, pour avoir les scénarios de mortalité stochastique.
Les suites stochastiques sont définies par les formules suivantes :
LCRF
Dt = Nt−1 qx,t
RSt ∼ Binomiale(Nt−1 , trs
c t) (28)
Nt = Nt−1 − RSt − Nt−1 × trc
c t − Dt
23
5.4 Risk Adjustment dans l’approche rachat binomial - taux de décès
GP
Le dernier modèle adopte la même formulation que le troisième modèle. Néanmoins, dans la
LCRF GP
formule (28), le taux qx,t est remplacé par qx,t le taux dans la surface de mortalité déterminée
en utilisant le modèle GP. Notons que le générateur de scénarios de la surface de mortalité est un
grand tenseur de taille 10.000 scénarios × 50 années × 111 groupes d’âge.
24
devient sensiblement plus petit que les deux autres. Plus le groupe est âgé, plus l’impact du taux
de décès sur les flux est important. En combinant avec l’incertitude plus grande de la loi binomiale
que la loi normale 18 lors de la taille petite, les flux actualisés correspondants RA_TF02 sont donc
moins centralisés. On peut voir aisément un grand écart relatif des RAs à l’âge de 73, 81 et 91.
Particulièrement pour le MP 10, les RA_LCRF et RA_GP sont environ deux fois moins grand
que le RA_TF02.
Sur ce sujet, la figure 6 illustre l’écoulement des flux d’engagement du Model Point 1 dans la
projection. La courbe en noir représente les moyennes des flux actualisés dans le calcul du Current
Estimate. Les flux admettent une tendance décroissante car il n’y a pas de primes périodiques dans
le cadre du MP 1, l’engagement d’assureur diminue normalement avec le temps. Cependant, la
courbe augmente en fin de projection correspondant au rachat total puisque l’horizon de projection
est de 50 ans. Pour calculer le CE, il faut projeter les flux sur plusieurs scénarios. Notre objectif ici
est d’approcher du Current Estimate par un scénario central de risque financier. La courbe en bleu
correspond au choix du scénario numérique qui rende la totalité des flux la plus proche du CE. En
outre, la courbe en rouge est réalisé par le scénario qui minimise la somme de l’écart absolu de ses
flux et des flux moyens dans le CE. Tandis que la courbe en vert est la projection sur le scénario
moyen de risque financier. Apparemment, la courbe en vert est toujours sous-estimé par rapport
de la courbe du CE. Ce résultat peut être aussi obtenu dans les autres Model Point. Ainsi, pour
l’approximation du CE, la courbe en bleu ou la courbe en rouge sont réalistes. Dans notre résultat
en table 8, la courbe en bleu est retenue.
25
groupe des grands âges, ce ratio est plus petit car sa maturité (l’équation (1)) dans la projection
est courte, ce qui diminue l’incertitude sur les différents flux futurs. De plus, ce résultat numérique
confirme plus ou moins l’axiome 2 (RA est croissant en fonction de la maturité de contrat).
Dans la nouvelle norme IFRS 17, le Risk Adjustment peut être considéré comme une prime de
risque supplémentaire à la charge de l’assureur pour couvrir les risques non-financiers. De ce point
de vue, l’assureur aura une préférence envers une méthode qui minimise le RA reflétant la norme
et lui permettant de justifier la mise en oeuvre de cette méthode.
26
Figure 7 – Raincloud plots des flux de trésorerie futurs actualisés (comparatif des 3 approches
stochastiques)
Axe vertical : montant probable de l’engagement et leur densité.
Âge : Âge moyen à la date de souscription.
MP : le model point composant le portefeuille.
27
5.6 Estimation du RA à la date de souscription dans l’approche retros-
pective modifiée
Pour estimer la variation du RA entre la date de comptabilisation initiale et la date de transi-
tion, la norme propose une méthode 19 se fondant sur le dégagement du risque pour les contrats
d’assurance similaires qu’elle souscrit à la date de transition. Cependant, la définition de contrats
similaires n’est pas explicite. Une limite de cette approche concerne les contrats anciens qui
ne sont plus souscrits sur le marché e.g. Dans le contexte actuel de taux d’intérêt européen né-
gatif, l’assureur ne lance plus de produits d’assurance vie avec des TMG aussi élevés que par le passé.
Ainsi, nous développons une technique qui permet d’estimer le Risk Adjustment en date initiale
à partir d’informations disponibles à la date de transition. L’idée de cette méthode est d’estimer le
Risk Adjustment à chaque arrêté ultérieur à la transition, ensuite faire régression la courbe du RA
pour extrapoler le RA à la date initiale.
Rappelons que le Risk Adjustment RAt est mesuré à la date t pour couvrir les risques non-
financiers sur la période [t, T ] (T définie par l’équation (1)). On note désormais RAs [t → T ] le
Risk Adjustment estimé à la date s pour couvrir les risques non-financiers sur la période [t, T ].
La figure 8 est réalisée sur le Model Point 1. Avec la date de comptabilisation initiale t0 = 2014
et la date de transition t1 = 2017, on estime donc la suite RAt1 [t → T ] pour t ≥ t1 , puis extrapole
vers le passé la valeur RAt1 [t0 → T ]. Les deux tirets (-) en rouge représentent l’intervalle de
confiance à 95% de l’estimation de RAt1 [t0 → T ] (obtenu par Gaussian Process).
De manière logique, le RAt1 [t → T ] avec t > t1 serait estimé par le scénario équivalent de
risques financiers, le scénario central de risques non financiers sur la période t1 → t et la diffusion
stochastique de risques non-financiers à partir de t. Remarquons qu’il n’y a pas de changement des
hypothèses de risques dans le calcul du RAt1 [t → T ].
Ensuite, nous faisons une régression sur la courbe du RA pour prévoir RAt1 [t0 → T ]. Le choix
du modèle de régression est flexible et sa complexité dépend de l’utilisateur. Dans cette étude, on
refera une régression par Gaussian Process.
28
Dans l’échantillon d’apprentissage, chaque MP contient 21 estimations du RA futur (de 2017 à
2037). Ci dessous, la configuration du GP (le résultat du calibrage se trouve dans la table 13) :
• Fonction moyenne linéaire :
9
X
m(xi ) = β0 + β1 CE i + β2 Anneei + β3 Agei + β4 N bcontrati + γk M P _indexik
k=1
La Figure 9 montre le RA initial extrapolé grâce à ses estimations dans le futur pour chaque
MP 21 . On observe une tendance décroissante avec le temps pour les estimations du RA. Ce résultat
est conforme numériquement au deuxième axiome de l’évaluation du RA dans IFRS 17 par approche
stochastique : le RA est décroissant en fonction de la maturité. Parmi les 10 MPs considérés, le
RA initial du model point 6 est inférieure à sa valeur à la date de transition. Les RAs initiaux
dans le MP 1, 2, 4, 5 s’inscrivent raisonnablement dans la tendance décroissante du RA. Enfin, sur
les grands âges, ou sur les MPs dont la date de souscription est ancienne, les RAs initiaux estimés
sont beaucoup plus élevés que leur tendance future.
29
• conserver le même problème de régression comme présenté ci-dessus en rajoutant les nouvelles
observations qui sont les RA initiaux obtenus par approche rétrospective modifiée. Une
pondération plus importante dans la fonction de perte (dans le contexte du modèle de la
régression) pourrait être appliquée sur l’ensemble des nouvelles observations avec objectif
d’améliorer la performance du modèle.
• modéliser le problème de régression en mettant les RAs futurs estimés à l’avenir dans les
inputs x. La réponse y serait donc les RA initiaux. Pour profiter au maximum l’information
des MPs du le portefeuille, l’entité pourrait appliquer des techniques d’apprentissage semi-
supervisées (y i est à la fois disponible si le RA initial du model point i est évalué par approche
rétrospective complète, à la fois non-disponible). Cette alternative fournirait une bonne
estimation lorsque que la taille du portefeuille est suffisamment grande.
6 Conclusion
Dans cet article, nous avons comparer l’approche par chocs héritée de la formule standard S2 à
différentes approches stochastiques pour l’estimation du Risk Adjustment, dans le cadre de contrats
d’épargne en euros.
Nous avons donné une définition formelle du Risk Adjustment (11). Cependant l’évaluation
de cette formule n’est pas aisée, nous avons donc opté pour son approximation par un scénario
équivalent de risque financier et des scénarios stochastiques de risque non financier.
Afin de générer les scénarios des risques non financiers, la modélisation stochastique de la
mortalité a été réalisée à l’aide d’une regression par Gaussian Process). La regression GP montre
plusieurs avantages :
• fournir de bonnes estimations des taux de décès. Ce résultat a été validé et comparé avec la
table de référence TF00-02 sur les données de HMD selon plusieurs métriques.
• simuler les taux de décès en tenant compte de la corrélation de toute la surface de mortalité
A noter que l’application de la regression Gaussian Process (ou krigeage) sur d’autres types de
risque est possible (par exemple pour modéliser les versements libres), mais dans le cadre de cette
note, nous projetons les scénarios stochastiques des autres risques par ré-échantillonage binomial.
30
Références
Addactis (2019). Risk Adjustement sous IFRS 17.
Albrecher, H., P. Mayer, W. Schoutens, and J. Tistaert (2007). The little heston trap. Wilmott (1),
83–92.
Breiman, L. (2001). Random forests. Machine learning 45 (1), 5–32.
Brigo, D. and F. Mercurio (2007). Interest rate models-theory and practice : with smile, inflation
and credit. Springer Science & Business Media.
Corlosquet-Habart, M., W. Gehin, J. Janssen, and R. Manca (2015). Asset and Liability Manage-
ment for Banks and Insurance Companies. John Wiley & Sons.
Cui, Y., S. del Baño Rollin, and G. Germano (2017). Full and fast calibration of the heston
stochastic volatility model. European Journal of Operational Research 263 (2), 625–638.
Deprez & Wüthrich, P., P. V. Shevchenko, and M. V. (2017). Machine learning techniques for
mortality modeling. European Actuarial Journal 7 (2), 337–352.
James, G., D. Witten, T. Hastie, and R. Tibshirani (2013). An introduction to statistical learning,
Volume 112. Springer.
Lee, R. D. and L. R. Carter (1992). Modeling and forecasting us mortality. Journal of the American
statistical association 87 (419), 659–671.
Levantesi, S. and V. Pizzorusso (2019). Application of machine learning to mortality modeling and
forecasting. Risks 7 (1), 26.
Ludkovski, M., J. Risk, and H. Zail (2018). Gaussian process models for mortality rates and
improvement factors. ASTIN Bulletin : The Journal of the IAA 48 (3), 1307–1347.
Milliman (2017). IFRS 17 : Risk Adjustement.
Nexialog (2019). IFRS 17 : mise en œuvre sur périmètre épargne euro.
dSt
= µt dt + σt dWt (29)
St
dBt
= rt dt (30)
Bt
Où rt est le taux sans risque, µt , σt sont respectivement le rendement et la volatilité de l’actif
risqué et W est un mouvement brownien. Tous ces processus sont mesurés sur un espace probabilisé
(Ω, F, (Ft )t≥0 , P) avec (Ft )t≥0 une filtration usuelle et P la probabilité historique.
Notons λt = µtσ−r t
t
- prix de marché du risque, l’équation (29) peut s’écrire :
dSt
= (rt + σt λt )dt + σt dWt = rt dt + σt (dWt + λt dt)
St
31
En utilisant le théorème de Girsanov, nous produisons un mouvement W Q sous la probabilité Q
équivalente à P tel que :
Q
Z t
Wt = Wt + rs ds
0
Alors, l’EDS de l’actif risqué devient :
= rt dt + σt dWtQ
dSt
St
Sous la probabilité Q, le processus (WtQ )t≥0 est une martingale. De plus, la probabilité Q est
appelée risque-neutre. Le marché est dit complet si et seulement si il existe une unique probabilité
risque neutre.
P M (0, T )
1
A(t, T ) = M exp [V (t, T ) − V (0, T ) + V (0, t)]
P (0, t) 2
1 − e−z(T −t)
B(z, t, T ) =
z
Cette telle swaption européenne est donnée en calculant numériquement l’intégrale unidimen-
sionnelle suivante :
Z +∞ − 12 ( x−µx 2
" #
σx )
n
e X
ES(0, T, T , N, X) =N P (0, T ) √ Φ (−h1 (x)) − λi (x)eκi (x) Φ (−h2 (x)) dx
−∞ σx 2π i=1
Où
ȳ − µ ρxy (x − µx )
h1 (x) := q y − q
σy 1 − ρ2xy σx 1 − ρ2xy
q
h2 (x) :=h1 (x) + B (b, T, ti ) σy 1 − ρ2xy
λi (x) :=ci A (T, ti ) e−B(a,T,ti )x
1 2 2 x − µx
κi (x) := − B(b, T, ti ) µy − (1 − ρxy )σy B(b, T, ti ) + ρxy σy
2 σx
ȳ = ȳ(x) est la solution unique de l’équation suivante
n
X
ci A (T, ti ) e−B(a,T,ti )x−B(b,T,ti )ȳ = 1
i=1
En outre,
µx := −MxT (0, T )
µy := −MyT (0, T )
r
1 − e−2aT
σx := σ
2a
r
1 − e−2bT
σy := η
2b h
ρση i
ρxy := 1 − e−(a+b)T
(a + b)σx σy
32
Avec
σ2 σ 2 h −a(T −t)
ση h −a(t−s)
i
−a(T +t−2s)
i
MxT (s, t) = + ρ 1 − e − e − e
a2 ab 2a2
ρση h −b(T −t) i
− e − e−bT −at+(a+b)s
b(a + b)
2
η 2 h −b(T −t)
η ση h −b(t−s)
i
−b(T +t−2s)
i
MyT (s, t) = + ρ 1 − e − e − e
b2 ab 2b2
ρση h i
− e−a(T −t) − e−aT −bt+(a+b)s
a(a + b)
La preuve se trouve dans Brigo and Mercurio (2007). En appliquant la formule de Bachelier
pour swaptions, la volatilité normale implicite est la solution de l’équation ci-dessous :
n
√ X
ES(0, T, T , N, X) = N σ T [dΦ(d) + φ(d)] P (0, ti )
i=1
Rswap (t) − X
d= √
σ T
P (t,T
Pn0 )−P (t,Tn )
avec Rswap (t) = le taux de swap à la date t. Dans le cas de la swaption à la monnaie,
i=1 P (t,Ti )
Rs wap(t) = X
Avec Re(.) est la partie réelle d’un nombre complexe, i2 = −1. La fonction caractéristique a été
initialement définie par Heston en tant que :
( " #
1 − g1 edτ
St F κθ
φ(θ, u, τ ) := E exp iulog = exp iulog + 2 (ξ + d)τ − 2log
S0 S0 σ 1 − g1
)
v0 1 − edτ
+ 2 (ξ + d)
σ 1 − g1 edτ
ξ+d
p
Où ξ := κ − σρiu, d := ξ 2 + σ 2 (u2 + iu), g1 = ξ−d
Ensuite, la volatilité implicite est la solution de l’égalité entre le prix du Heston et le prix du
Black & Scholes :
C(θ, K, τ ) = St Φ (d1 ) − Ke−rτ Φ (d2 )
Avec
• Φ la fonction de répartition de la loi normale centrée réduite
1
ln SKt + r + 12 σ 2 τ
• d1 = σ √ τ
√
• d2 = d1 − σ τ
33
B Hypothèses des flux passif
B.1 Prime
Les primes sont des flux entrants dans le passif d’assureur qui représentent l’engagement des
assurés envers l’assureur. Sur le périmètre épargne, il existe totalement 3 types de prime : la
souscription, les versements programmés (annuels) et les versements libres.
• Souscription : La souscription correspond à la première prime versée à la date de souscription
d’un contrat. De plus, nous supposons que tous les contrats sont souscrits au début d’année et
enregistrés à cette date. Les primes tiennent compte des chargements.
• Versements programmés : Les versements programmés sont les primes régulières stipulées aux
contrats. Pour la simplification afin de clarifier les calculs, nous ne considérons que les versements
annuels qui seraient comptabilisés au 1er janvier en chaque année et le premier versement programmé
a lieu en même temps de la souscription.
• Versements libres : Les versements libres sont des primes aléatoires rajoutées aux contrats. A
la différence de Solvabilité 2, les versements libres sont une composante qui doit être modélisée
dans le cadre d’IFRS 17. Cette composante est prise en compte par des hypothèses de rachats
conjoncturels dynamiques négatifs.
B.2 Prestation
Les prestations sont des flux sortants qui correspondent aux sorties du contrat au cours d’année.
Les prestations se composent notamment des décès, des rachats et des contrats échus. Elles sont
calculées à partir de la provision mathématique (qui représente l’engagement de l’assureur) au
début d’année et des taux de sorties. Cela signifie que si un contrat est arrêté au cours d’année N,
l’assuré reçoit l’épargne valorisée à la fin d’année N-1 sans toucher d’intérêts pour la période non
entière d’année N. Par simplification, Les prestations sur l’exercice sont mesurées une fois à chaque
arrêté :
P restationt = P Mt−1 × taux de sortiest
A la fin de chaque année de projection, le nombre de contrats restants est calculé à partir du
nombre de contrats au début d’année en enlevant l’estimation du nombre de contrats sortants en
cours d’année.
Nt = Nt−1 × (1 − taux de sortiest )
Dans les sorties, on distingue les rachats structurels, conjoncturels et les décès.
• Prestations pour décès : Si l’assuré meurt avant la date de maturité du contrat, son contrat
se termine. A ce moment, la compagnie d’assurance va verser aux bénéficiaires un capital égal
au montant acquis normalement au jour du décès, mais ici ce montant sera valorisé au début de
l’année du décès.
Les sorties pour cause de décès sont calculées avec un taux de mortalité dépendant de l’âge de
l’assuré. L’assureur doit, à la date de calcul, estimer le taux de décès à chaque âge dans le futur, il
peut utiliser la table de mortalité générale pour toute la population française (e.g. Table TF 00-02,
TH 00-02) ou calibrer sa propre table à partir de ses données historiques, certifiée par un actuaire
agrée.
Dans le cadre de notre projet, nous souhaiterons calibrer les taux de mortalité dépendant non
seulement de l’âge, mais aussi de l’année (tables de mortalité par génération). Ainsi, le taux de décès
d’un groupe des souscripteurs qui ont n ans pour l’année t sera noté qn,t . De plus, la prestation de
décès pour ce groupe sera :
• Prestation à maturité : Cette prestation correspond à tous les contrats dont la date d’échéance
est arrivée en cours d’année et avant l’horizon de calcul de la simulation de 50 ans.
34
• Prestation pour rachats : un contrat d’épargne en euros peut durer quatre ou huit ans pour
bénéficier de la fiscalité avantageuse associée à ce type de contrat. Néanmoins, Les assurés ont
toujours la possibilité d’effectuer un ou plusieurs rachats de leur contrat avant l’échéance de celui-ci.
Les rachats leur permettent de récupérer totalement ou partiellement leur capital. Nous distinguons
deux types de rachats :
• Les rachats structurels qui ne dépendent pas d’éléments extérieurs économiques. Les
rachats structurels sont en général appliqués par des règles fiscales propres en assurance vie
qui permettent de profiter d’une réduction de taxes après 4 ou 8 ans. Les taux de rachats
structurels sont élevés pour les contrats qui ont de 8 à 10 ans d’ancienneté. En outre, les rachats
structurels contiennent des rachats totaux ainsi que des rachats partiels. Les hypothèses sur
les rachats structurels des 10 MP sont exposées dans la table 11 et table 12.
• Les rachats conjoncturels (ou dynamiques) qui sont fortement corrélés aux événements
économiques. Ces rachats correspondent au cas où les assurés effectuent des rachats d’op-
portunité dans le cas où le taux servi du contrat est significativement inférieur aux taux
concurrentiels sur le marché. Les rachats dynamiques ne contiennent que des rachats totaux.
Dans une publication (QIS 5) en 2011, l’ACPR a défini une modélisation pour le taux des
rachats conjoncturels comme suit :
RCmax si R − T M E < α
R−T M E−β
RC si α < R − T M E < β
max
α−β
T aux rachats conjoncturels = 0 si β < R − T M E < γ (31)
R−T M E−γ
RCmin si γ < R − T M E < δ
δ−γ
RCmin si R − T M E > δ
Avec R le taux servi qui est déterminé par le taux technique et la participation aux bénéfices
à la fin de chaque année, T M E le taux moyen des emprunts d’État correspondant à une
moyenne des taux concurrentiels. Dans notre étude, on définit sa valeur par le rendement
de l’obligation France 10 ans à la date de calcul et cette valeur sera constante sur toute la
projection. La table 9 indique les plafonds des autres paramètres. Puis, la dernière ligne en
jaune représente les valeurs choisies arbitrairement dans notre modélisation qui satisfont aux
plafonds de l’ACPR.
α β γ δ RCmin RCmax
Plafond max -4% 0 1% 4% -4% 40%
Plafond min -6% -2% 1% 2% -6% 20%
Notre choix -5% -1% 1% 3% -6% 35%
35
C Tables
MP 1 MP 2 MP 3 MP 4 MP 5 MP 6 MP 7 MP 8 MP 9 MP 10
Date de souscription 2014 2010 2012 2015 2013 2015 2009 2007 2008 2014
Age à la souscription 2 5 19 33 42 50 53 63 72 88
Nb Contrat à
800 500 900 400 720 750 470 400 600 300
la souscription
Cotisation initiale 720 1000 500 400 380 750 500 600 550 1500
Prime annuelle - - - 30 50 100 - - - -
Prime annuelle
- - - 8 19 11 - - - -
Duration
TMG 0,00% 1,00% 0,50% 0,00% 0,50% 0,00% 1,00% 2,00% 1,50% 0,00%
TMG Duration 0 5 4 0 5 0 7 7 4 5
Nb Contrat à
677 309 604 354 556 647 262 168 256 162
la date de transition
PM à la
394 779 201 996 220 029 139 303 264 914 541 746 81 234 50 561 68 275 193 289
date de transition
Age à la
5 12 24 35 46 52 61 73 81 91
date de transition
36
Table 12 – Hypothèses des taux de rachats partiels
β0 β1 β2 β3 β4 η1 η2 σ
-269,283 -2,584 2,491 28,340 3,536 1,772 294,356 294,356
γ1 γ2 γ3 γ4 γ5 γ6 γ7 γ8 γ9
1.086,575 1.926,409 1.157,356 1.003,545 610,180 2.174,307 543,268 485,025 238,094
37
Table 14 – Résultat de l’extrapolation du Risk Adjustment
38
Nexialog Consulting est un cabinet de conseil spécialisé en Banque et en Assurance. Or-
ganisés autour de 3 domaines d’activité - Risques Bancaires, Financiers & Assurantiels - nous
intervenons au sein des équipes métiers afin de les accompagner depuis le cadrage jusqu’à la mise en
œuvre de leurs projets. Associant innovation et expertise, le savoir-faire de notre cabinet a permis
de consolider notre positionnement sur ce segment et de bénéficier d’une croissance forte et régulière.
Les besoins de nos clients étant en constante évolution, nous nous adaptons continuellement
pour proposer le meilleur accompagnement. Le département R&D de Nexialog Consulting se donne
pour objectif de proposer des solutions innovantes à des problématiques métier ou d’actualité. Pour
cela, nous nous appuyons sur des librairies internes et sur le travail de nos consultants. Le pôle
R&D Nexialog a également pour mission de former les collaborateurs sur l’évolution des techniques
et la réglementation en lien avec leur activité.
Contacts
Ali BEHBAHANI
Associé, Fondateur
Tél : + 33 (0) 1 44 73 86 78
Email : [email protected]
Christelle BONDOUX
Associée, Directrice commerciale
Tél : + 33 (0) 1 44 73 75 67
Email : [email protected]
Habib FAYE
Manager R&D actuariat
Email : [email protected]
Areski COUSIN
Expert scientifique
Email : [email protected]
39