Added description

Machine learning et Online learning dans le digital

Plus de 70 personnes ont assisté à la présentation, par Sébastien Loustau, de son exposé sur les Approches prédictives et personnalisées dans le digital, basées sur la conception d’algorithmes innovants pour le numérique.

Machine learning et online learning au service du ciblage prédictif, de la détection de leaders d’opinion, … à travers deux cas d’étude : Segmentation client temps réel / Détection de communauté dans un réseau.

Voir les slides de Sébastion Loustau

Filed under: Séminaires trimestriels

Retour sur le séminaire technique de la chaire DAMI

Le 21 mars dernier, les membres de la chaire DAMI ont tenu leur séminaire technique 2017.
Ce rendez-vous annuel permet aux membres et au comité de pilotage de se réunir afin de faire le point sur l’avancement des travaux et leur confrontation à la réalité de l’entreprise. Académiques et professionnels mêlent leurs visions, perceptions, projections, …

Parmi les thèmes abordés :

Filed under: Non classé

La chaire DAMI recrute un post-doctorant en Modélisation Quantitative

UTILISATION DES DEFLATEURS STOCHASTIQUES POUR LE CALCUL DE LA VALEUR ECONOMIQUE DES CONTRATS D’ASSURANCE-VIE

See the english version

La Chaire DAMI est une chaire de recherche financée par BNP Paribas Cardif qui s’intéresse aux problématiques liées aux Données et Modèles en Assurance (http://chaire-dami.fr/). Elle propose un financement post doctoral dans le cadre de son axe de recherche “Modèles pour l’assurance”.

Caractéristiques du poste
Nous recherchons un(e) docteur(e) en actuariat ou en finance quantitative avec une forte appétence pour le contexte spécifique à l’assurance et la modélisation quantitative. Les travaux comportent un volet théorique ainsi que la mise en place d’applications avec des outils comme R ou Python.
Le financement est prévu pour une durée d’un an avec possibilité de prolongation de 6 mois ou un an.
Le poste est basé à Lyon, au sein du laboratoire SAF.
La rémunération est à discuter en fonction du profil du candidat.

Thème de recherche
La logique générale de calcul de la valeur économique d’un contrat d’assurance-vie est présentée dans les chapitres 4 et 5 de Laurent et al. (Ed.) [2016].
De manière schématique, la valeur d’un tel contrat est assimilée au « prix » du contrat vu comme un actif dérivé des différents facteurs de risque financiers auxquels est soumis l’assureur (taux, actions, crédit, etc.). Dès lors, les méthodes construites sur la base de l’absence d’opportunité d’arbitrage en finance de marché sont utilisées. Leur utilisation est toutefois rendue délicate du fait de :

  • l’absence de prix observable (cf. Félix et Planchet [2015],
  • l’impossibilité de décrire analytiquement la fonction de détermination des flux en fonction des facteurs de risque, les flux étant obtenus via un algorithme complexe (cf. le chapitre 4 de Laurent et al. (Ed.) [2016]).

La pratique de place qui s’est progressivement imposée consiste à modéliser les facteurs de risque sous une probabilité risque neutre (dont le choix parmi l’ensemble des probabilités possibles n’est que rarement discuté), ce qui évite d’expliciter la forme du prix de marché du risque implicitement associé.
Outre les difficultés induites par l’utilisation de cette modélisation « risque neutre » dans le modèle ALM de production des flux (cf. Félix et Planchet [2016]), la cohérence entre la modélisation « historique » utilisée par exemple dans l’ORSA (cf. le chapitre 4 de Laurent et al. (Ed.) [2016]) et la modélisation des facteurs pour la valorisation n’est pas assurée.
Dans ce contexte, une alternative consiste à utiliser des déflateurs stochastiques, comme dans Dastarac et Sauveplane [2010] ce qui permet d’utiliser des scénarios en probabilité historique, la valorisation des options étant alors intégrée dans le noyau d’actualisation.
Avec ce type d’approche, les fonctions de réaction utilisées dans la construction des flux n’ont dès lors plus à être étendues à des plages de valeurs « extrêmes », courante sous la probabilité Q mais rares sous P.
La difficulté est déplacée au niveau de la construction du processus d’actualisation (déflateur), qui implique de modéliser explicitement le « prix de marché du risque ».
Une synthèse de cette approche est décrite dans Caja et Planchet [2010] et un exemple de mise en œuvre pour des contrats d’épargne en € avec un environnement économique simplifié est proposé dans Dastarac et Sauveplane [2010]. Les auteurs construisent explicitement le déflateur dans un marché à deux actifs (actions et taux) en introduisant un aléa sur le prix de marché du risque.
On peut également mentionner sur ce registre, pour ce qui concerne le risque de taux, le travail de Dubaut [2015], qui s’appuie sur le cadre proposé dans Turc et al. [2009]. Ce cadre est un cas particulier de l’approche plus générale présentée dans Christensen et al. [2010], qui exploite les propriétés du modèle de Nelson-Siegel vu en tant que modèle de taux à structure affine.
Le travail de recherche consistera donc à construire un déflateur intégrant les sources de risque financiers majeurs auxquelles l’assureur se trouve exposé (taux, action, crédit, inflation) et à décrire un cadre opérationnel pour le calcul de valeurs économiques de contrats d’assurance-vie dans un cadre réaliste, utilisable par un assureur pour les calculs qu’il réalise dans le cadre du pilier 1 de Solvabilité 2. Ce cadre opérationnel sera décliné à la fois d’un point de vue théorique, avec une description formelle du modèle et d’un point de vue pratique, avec une implémentation en R ou Python.

Contact
Frédéric PLANCHET
Professeur à l’Université Claude Bernard, Lyon 1
Laboratoire SAF
Frederic.planchet@univ-lyon1.fr

Télécharger au format pdf
Download pdf

Références:
Caja A., Planchet F. [2010] « La mesure du prix de marché du risque : quels outils pour une utilisation dans les modèles en assurance ? », Assurances et gestion des risques, Vol.78 (3/4).
Christensen J.H.E.; Diebold F.X.; Rudbush G.D. [2010] « The Affine Arbitrage-Free Class of Nelson-Siegel Term Structure Models », Federal Reserve Bank of San Francisco, WP n°2007-20.
Bonnin F., Combes F., Planchet F., Tammar M. [2015] « Un modèle de projection pour des contrats de retraite dans le cadre de l’ORSA », Bulletin Français d’Actuariat, vol. 14, n°28.
Dastarac H., Sauveplane P. [2010] « Les déflateurs stochastiques : quelle utilisation en assurance ? », Mémoire d’actuaire, ENSAE.
Dubaut E. [2015] « Risque à la hausse des taux : le modèle MENIR », Mémoire de M2, ISFA.
Félix J.P., Planchet F. [2016] « Groupe de travail Risque-Neutre : synthèse des travaux », Chaire DAMI, Réf. 1227-20 v1.2 du 16/12/2016.
Félix J.P., Planchet F. [2015] « Calcul des engagements en assurance-vie : quel calibrage ‘cohérent avec des valeurs de marché’ ? », L’Actuariel, n°16 du 01/03/2015.
Laurent J.P., Norberg R., Planchet F. (editors) [2016] Modelling in life insurance – a management perspective,  EAA Series, Springer.
Planchet F., Leroy G. [2013] « Risque de taux, spread et garanties de long terme », la Tribune de l’Assurance (rubrique « le mot de l’actuaire »), n°178 du 01/03/2013.
Turc J., Ungarl S., Kurpel A., Huang C. [2009] « Filtering the interest rate curve : the MENIR framework », Société Générale, Fixed Income du 27/11/2009.

Filed under: Recrutement

Séminaire petit déjeuner du 28 mars 2017 : Approches prédictives et personnalisées dans le digital

Par Sébastien Loustau, CEO & Chercheur chez Artfact, start-up spécialisée dans le data science

Artfact est une start-up du numérique spécialisée dans l’aide à la décision. Fondée à l’université dans un laboratoire de mathématiques, elle se distingue par la conception d’algorithmes innovants pour le numérique.
Dans cet exposé, nous aborderons en détail les dernières techniques de ciblages prédictifs et de détection de leader d’opinions, d’un point de vue algorithmique et business. Le ciblage prédictif est monnaie courante dans le digital, et notamment sur le web où chaque comportement va déclencher sur un site marchant un traitement spécifique. Depuis l’apparition des systèmes de recommandations, de nombreuses évolutions ont eu lieu. Nous discuterons de la matière première de ces évolutions technologiques, à savoir la théorie statistique et l’apprentissage (machine learning) et l’apprentissage temps réel (online learning) et nous illustrerons ces propos à travers deux cas spécifiques : la segmentation client temps réel et la détection de communautés dans un réseau.

Paris, mardi 28 mars 2017, 9h 

Détails et inscription gratuite ici

Filed under: Séminaires trimestriels

Expérimentation… De l’indépendance de la gouvernance d’entreprise

img_1071Jean-Louis Rullière, ISFA

L’expérimentation en économie présente la vertu de pouvoir mieux appréhender les comportements économiques « tels qu’ils sont ». En effet cet outil se révèle particulièrement crucial dès que l’agent économique n’a pas intérêt à révéler à l’enquêteur son comportement réel ou hypothétique. Après avoir décrit les principaux biais déclaratifs qui peuvent être réduits par le recours à l’expérimentation, on présente une expérimentation en finance comportementale d’entreprise sur l’indépendance de l’administrateur par rapport au cadre dirigeant.

Il existe une vaste littérature sur la gouvernance d’entreprise qui plaide pour l’indépendance des comités de rémunération. L’indépendance au sein du comité de rémunération est considérée comme un élément clé pour éviter une inflation des rémunérations des cadres dirigeants (CEO). Dans les travaux empiriques, l’indépendance est généralement mesurée par la proportion d’administrateurs présentant un certain nombre de caractéristiques socio-économiques, comme le fait de ne pas être un employé de la firme, de ne pas être membre de la famille du PDG, d’être un actionnaire important, etc…. Il est alors supposé que les administrateurs ayant les caractéristiques souhaitées sont indépendants et résistent ainsi à l’influence indue des cadres dirigeants. Ce type d’approche pose toutefois la question de savoir si les administrateurs qui apparaissent comme indépendants se comportent réellement de façon indépendante. En fait, lorsqu’on examine la conformité aux recommandations des codes de gouvernance d’entreprise, on examine les caractéristiques individuelles des administrateurs en termes de liens économiques et familiaux, mais l’indépendance d’esprit et le comportement réel qui en résulte ne sont jamais vraiment mesurés directement.

Un design expérimental est fondé sur un modèle de relation d’agent principal avec trois acteurs, où les deux premiers acteurs (l’actionnaire et le CEO génèrent un projet collectif (la valeur de l’entreprise) et le troisième joueur (l’administrateur) doit décider de la part de la valeur allouée à chacun des deux premiers joueurs. Quant à l’administrateur, il reçoit un salaire forfaitaire indépendamment de sa décision d’arbitrage. À cet égard, nous concevons une expérience de laboratoire avec deux traitements, un traitement de base versus un traitement avec communication dans lequel le CEO peut envoyer un message à l’administrateur sous la forme d’une demande / conseil sur la répartition de la valeur de l’entreprise. Ce qui permet de mesurer le comportement de l’administrateur indépendant: dans quelle mesure l’administrateur répond-il à la réception d’un message et de son contenu? Et surtout dans quelle mesure la fourniture d’effort de la part du CEO est conditionné par l’existence de ce canal de communication entre lui-même et l’administrateur ? Sur ce dernier point, on met en évidence très nettement que ce n’est pas tant le niveau de revendication du CEO en termes d’appropriation de la valeur de l’entreprise qui est déterminant mais qu’en revanche l’existence même d’un canal de communication entre le CEO et l’administrateur impacte négativement sur le comportement du CEO dans sa fourniture d’effort de gestion.

Les slides de la conférence

Filed under: Séminaires trimestriels

Tables de mortalité best estimate : une approche de crédibilité pour les portefeuilles de petite taille

table-mortalite-1

Par Yahia Salhi et Pierre Thérond

L’avènement du nouveau régime prudentiel des assureurs européens a considérablement renforcé l’intérêt pour ceux-ci de disposer d’hypothèses de mortalité les plus pertinentes et proches de l’expérience possible. En effet, l’utilisation de tables de mortalité trop prudentes (par exemple celles imposées par la réglementation locale dans la tarification des produits d’assurance vie, en France) pour l’évaluation des provisions techniques Solvabilité II conduit à un double effet :

  • Augmentation des provisions techniques best estimate (et donc diminution des fonds propres permettant de couvrir les exigences de capitaux),
  • Augmentation de l’assiette servant au calcul de la charge de capital du risque de mortalité (scénario d’augmentation de 15 % des taux conditionnels de décès dans la formule standard)

tables-mortalite2Néanmoins un certain nombre d’acteurs se heurtent à des problématiques techniques liées à la taille de leurs portefeuilles et leur hétérogénéité en termes de garanties (pour un même risque). Par exemple, en termes de risque en cas de décès, un assureur peut disposer de quelques dizaines de milliers d’assurés bénéficiant de contrats de prévoyance décès, de garanties plancher sur des contrats en unités de comptes et de contrats d’assurance de prêt. Dans de tels contextes, il est délicat de construire des tables de mortalité au moyen de la seule expérience de chaque type de produit. D’autant plus que la révision dans le temps de celles-ci risque d’induire des impacts significatifs dans l’évolution des provisions techniques.

Dans  ce contexte les travaux de Yahia Salhi et Pierre Thérond, proposent une approche de crédibilité consistant à réviser, au fur et à mesure que de nouvelles observations arrivent, les paramètres d’un ajustement Makeham ou encore d’un modèle de lissage non-paramétrique basé sur la vraisemblance locale. Dans le premier cas, un tel ajustement permet en effet de rajouter de la structure ce qui s’avère utile lorsque les portefeuilles sont de taille limitée et le processus de révision proposé intègre la bonne représentation aux différents âges, ce qui est un point crucial compte tenu de la fréquente hétérogénéité du coût des prestations décès en fonction de l’âge. Dans le second cas, la méthode du lissage appliquée à des portefeuilles de petite taille ne parvient généralement pas à proposer une table d’expérience suffisamment lisse ni pertinente compte tenu du peu de décès observés. La méthode de crédibilité développée par Yahia Salhi et Pierre Thérond permet dans ce cas également de proposer une table d’expérience qui pondère l’information provenant des différents portefeuilles ou contrats en fonction de la pertinence des différentes informations sous-jacentes.

Liens vers les articles :

Yahia Salhi, Pierre-E. Thérond, Julien Tomas. A Credibility Approach of the Makeham Mortality Law. European Actuarial Journal, 2016, 6 (1), pp.61-96. <lire l’article>

Yahia Salhi, Pierre-E. Thérond. Age-Specific Adjustment of Graduated Mortality. Working paper ISFA, 2016. <lire l’article>

Filed under: Articles / Publications

Article “décryptage” l’actuariel : De l’importance d’un bon suivi des hypothèses actuarielles

y-salhiSi l’élaboration des hypothèses actuarielles doit répondre à certaines obligations d’objectivité, de réalisme et de mesure, leur actualisation constitue également un enjeu majeur. Car la vocation d’une hypothèse actuarielle est claire : permettre d’évaluer au mieux les risques. Décryptage d’une méthodologie optimale et robuste.

Cet article est basé sur les travaux de recherche de Yahia Salhi avec Nicole El Karoui et Stéphane Loisel

Lire l’article decryptageactuariel22

Filed under: Articles / Publications

Séminaire petit déjeuner du 8 novembre 2016 : Comportements et modèles en assurance

auditoriumLaure CABANTOUS* et Jean-Louis RULLIERE** nous présenteront leurs contributions respectives sur la relation entre comportements et modèles sur le marché de l’assurance:

Du côté de l’offre, l’assureur doit construire un modèle dont l’usage ne garantit pas pour autant la valeur et la fiabilité.

Du côté de la demande, la question porte davantage sur le dispositif plus ou moins révélateur qui permette de capter l’information sur les comportements des assurés.

*Faculty of management, Cass Business School, University of London
Building confidence in economic capital models

**ISFA, laboratoire SAF, Université Lyon 1
The persistence of hypothetical bias into insurance demand

DETAILS ET INSCRIPTIONS ICI

Filed under: Séminaires trimestriels

Atelier 100% Data Science animé par les membres de la chaire DAMI

100actuairesLe 8 novembre 2016, à Paris, Xavier Milhaud et Pierre Thérond de la chaire DAMI, animeront l’atelier “Provisionnement stochastique par arbre de décision en assurance
Cet exposé se tiendra dans le cadre de l’événement 100% Actuaires 100% Data Science organisé par l’Institut des Actuaires.

Descriptif atelier:
En assurance, la solvabilité long-terme des compagnies repose sur une évaluation robuste et précise des réserves à provisionner. Nous présentons dans cet atelier une nouvelle technique d’estimation de ces réserves pour les IBNER, basée sur une approche de modélisation non paramétrique inspirée de l’algorithme CART. Une segmentation naturelle apparait alors, permettant de capter l’hétérogénéité de la sinistralité au sein de la population assurée. L’estimateur des montants finaux de sinistres est facile à interpréter et adapté aux données de montants censurés. Nous comparons cette estimation aux techniques standards de provisionnement stochastique, à savoir le modèle de Mack et l’approche bootstrap appliquée aux modèles linéaires généralisés. A travers deux études de cas sur des bases de données réelles d’assureur, il semble que notre estimateur permette d’approcher bien plus précisément la distribution des provisions nécessaires. Ce résultat semble particulièrement vrai pour des lignes d’affaire à développement long. Les applications présentées tourneront autour du risque incapacité-invalidité et de la garantie de revenu pour les assurés, ainsi que d’une garantie RC médicale sur une base de données étrangère. Nous proposerons également une extension de l’utilisation de notre procédure au calcul de mesures de risque standards comme la Value-at-Risk, pour satisfaire des exigences de calculs réglementaires.

Filed under: Contributions au débat public

Expérimenter pour observer sans biais : Une nouveauté au labo SAF

labo-expeLa confusion (par l’obfuscation*) dans la décision d’achat d’un contrat d’assurance, induite par les assureurs, est-elle une stratégie marketing efficace ? Quelle est la confiance qu’accorde le consommateur à un intermédiaire, dans son acte d’achat ?

Pour répondre à ces questions, on ne peut pas se contenter de recueillir des données par un simple questionnaire adressé aux consommateurs. En effet, la confusion, comme la confiance, sont des variables aussi pertinentes qu’inobservable.

Seule l’expérimentation en laboratoire ou sur le terrain permet de surmonter cette difficulté. Dans le cadre des projets de recherche de la chaire DAMI, le laboratoire SAF vient de lancer son programme d’expérimentations avec une première vague de sessions qui ont rassemblé plus de 250 participants.

Une première série de résultats met en évidence en particulier une confiance espérée plus faible que réelle dans la relation d’intermédiation. Cet effet négatif reste cependant plus que compensé par l’effet de confusion dans la stratégie de recherche qui motive l’acte d’achat sur internet.

Ces résultats innovants ont été présentés par Claire Mouminoux lors de la conférence EAJ 2016 organisée à l’ISFA début septembre et feront l’objet de nouveaux exposés très prochainement avec Jean-Louis Rullière au North American meeting of the Economic Science Association à Tucson (Arizona), du 10 au 12 novembre 2016 et au 7ème Behavioral Insurance Workshop  du CEAR (Center of the Economic Analysis of Risk, Georgia state University, Atlanta) et du MRIC (Munich Risk and Insurance Center, Ludwig Maximilians Universität ) les 12 et 13 décembre 2016.

*rendre confus ou complexe un choix a priori simple

Obfuscation and Trust: Experimental evidence on Insurance Demand with Multiple Distribution Channels
Claire MOUMINOUX, Jean-Louis RULLIERE, Stéphane LOISEL
Abstract : This paper aims at shedding light on an insurance consumer dilemma: being self-confident facing an large set of insurance policies or rather trusting into an intermediary who assists her decision making, according to different distribution channels with different information frames.  The results show that trust level is the main determinant of distribution channel choices while information obfuscation is the first inefficiency source of the decision making.
Keywords:  behavioral economics, distribution channels, insurance, intermediation, obfuscation, search costs, trust.
JEL Codes: C91, C92, D81, D83, G22

Filed under: Travaux de la chaire