Retour sur la conférence « Probabilités et Applications en Assurance et en Finance » au Vietnam

Le workshop « Stochastic processes- Actuarial science and Finance » a réuni des chercheurs spécialistes de la théorie des probabilités, travaillant sur des applications en assurance et en finance.

Il s’est tenu au VIASM, à Hanoi, du 31 juillet au 3 aout 2017. Le workshop a donné lieu à des échanges scientifiques entre des participants d’horizon variés : Allemagne, Chine, France, Royaume-Uni, Singapour, Turquie et Vietnam.

La participation de professionnels de BNP Paribas Cardif, qui ont donné deux exposés, a permis d’avoir un retour précis sur les besoins de modélisation actuarielle et sur les applications concrètes des probabilités.

Le workshop a été conjointement financé par le VIASM, la chaire DAMI et la chaire Actinfo.​

Voir les abstracts

 

 

Compétition Kaggle Quora : La solution gagnante !

Kaggle et Quora ont récemment lancé une compétition de prédiction qui a rassemblé plus de 3300 équipes. 5 membres du Data Lab’ de BNP Paribas Cardif ont entrepris de participer  à la compétition en équipe (les DL guys) sur leur temps personnel.  Constituée de Maximilien Baudry, doctorant Labo SAF / BNP Paribas Cardif, Sébastien Conort, Chief Data Scientist de BNP Paribas Cardif, tous deux membres de la chaire DAMI, ainsi que de Tung Lam Dang, Guillaume Huard et Paul Todorov, l’équipe a remporté la compétition!

Quora est un site internet de partage de connaissances qui permet à ses utilisateurs de créer/éditer/organiser des discussions sous forme de questions/réponses. Les questions que les utilisateurs posent portent sur tous les sujets, des dernières actualités aux problèmes d’ado en passant par du soutien en maths.

Lorsqu’un utilisateur ne sait pas que sa question a déjà été posée, soit parce qu’il n’a pas cherché au préalable, soit parce qu’il ne l’a pas trouvée, il arrive qu’une question soit posée une deuxième fois; Cela crée des doublons de discussions, indésirables à la fois pour Quora et pour ses utilisateurs.

Le but du challenge était donc de détecter des questions doublonées. Les données se présentaient sous forme de couples de questions (question 1, question 2), pour lesquels nous devions prédire si oui ou non, l’intention des deux questions était la même.

Exemple de non-doublon :
1/ What is the best book to learn english?
2/ What is the best book to learn french?

Exemple de doublon :
1/ Do you believe there is a life after death?
2/ Is it true that there is a life after death?

Nous avons donc utilisé naturellement des techniques classiques de text-mining, comme des mesures de similarité entre chaîne de caractère, afin de quantifier la différence des deux questions, au sens syntaxique.

Nous avons ensuite utilisé des techniques de deep learning avec des architectures appropriées à l’état de l’art, auxquelles nous avons donné en entrée des word embeddings.
Les word embeddings consistent à transformer chaque mot en un vecteur de grande dimension, dont les coordonnées sont déterminées de façon à respecter au plus l’aspect sémantique de chaque mot. Ainsi, si les deux questions sont proches sémantiquement, alors leurs vecteurs des mots les composant auront des coordonnées proches.

Enfin, nous avons exploité la façon dont les questions nous étaient présentées à l’aide d’un graphe, dont les nœuds représentent les questions et les arêtes représentent l’existence, dans la base de données, du couple de question.
L’idée est d’exploiter le fait qu’une question dupliquée sera très souvent comparée à d’autres questions, ce qui se traduit par un signal fort sur la connectivité des nœuds.
D’autre part, cela permet aussi, grâce aux composantes connexes du graphe, de détecter les thèmes abordés dans les questions.

Quora_winning_solution

Workshop 31 juillet – 3 août 2017 – Stochastic processes- Actuarial science and Finance – Vietnam

The main objective of this workshop is to gather recognized researchers working on probability theory, with applications in insurance and finance. We wish to encourage scientific exchanges between the participants and create new collaborative projects. Practitioners from BNP Paribas Cardif Asia will participate to the workshop, it will also offer the opportunity of ideas sharing between academics and practitioners in Asia. This workshop is funded by the VIASM, the research chair Data Analytics & Models for Insurance, BNP Paribas Cardif, and the DIAF association.

Organisers Nguyễn Hữu Dư (VIASM); Nabil Kazi-Tani (Lyon 1 University, France), Long Ngo Hoang (Hanoi National University of Education), Dylan Possamaï (Université Paris Dauphine, France), Didier Rullière (Lyon 1 University, France)

Venue/Location: VIASM

Registration here

Workshop 15 septembre 2017 « Data Sciences applied to insurance and Finance »

Organisé dans le cadre de la chaire DAMI, en collaboration avec l’ISBA (Institute of Statistics, Biostatistics and Actuarial) de l’UCL Université Catholique de Louvain

The aim of this conference is to promote financial and insurance applications of data science. For banks and insurance companies, profits will materialise through accelerated and more accurate decision processes, as well as an increased clients’ satisfaction thanks to more personalised offers and services. The systematic use of data science is becoming a strategic growth lever that will be discussed in this conference.

Conférence ouverte au public
Inscription: 100€
Membres IA: 40 points PPC
Informations et inscriptions

Séminaire petit déjeuner du 27 juin 2017 : Marking to Market vs Taking to Market

Par Guillaume Plantin, Sciences Po Paris

Le papier développe une théorie des mesures comptables optimales car ces dernières sont primordiales pour la gouvernance d’entreprise. Nous étudions l’interaction à l’équilibre entre les règles de mesure que les entreprises jugent optimales sur le plan privé, leur gouvernance et la liquidité sur le marché secondaire de leurs actifs. Cette approche révèle une utilisation excessive de la comptabilité en valeur de marché. Les mesures de la performance de l’entreprise sont trop dépendantes de l’information générée par les ventes d’actifs d’autres entreprises et pas assez de la réalisation des gains en capital possibles d’une entreprise. Cela réduit la liquidité du marché et réduit l’information des signaux de prix.

Paris, mardi 27 juin 2017, 9h

Détails et inscription gratuite ici

Membres IA : 12 points PPC

Machine learning et Online learning dans le digital

Plus de 70 personnes ont assisté à la présentation, par Sébastien Loustau, de son exposé sur les Approches prédictives et personnalisées dans le digital, basées sur la conception d’algorithmes innovants pour le numérique.

Machine learning et online learning au service du ciblage prédictif, de la détection de leaders d’opinion, … à travers deux cas d’étude : Segmentation client temps réel / Détection de communauté dans un réseau.

Voir les slides de Sébastion Loustau

Retour sur le séminaire technique de la chaire DAMI

Le 21 mars dernier, les membres de la chaire DAMI ont tenu leur séminaire technique 2017.
Ce rendez-vous annuel permet aux membres et au comité de pilotage de se réunir afin de faire le point sur l’avancement des travaux et leur confrontation à la réalité de l’entreprise. Académiques et professionnels mêlent leurs visions, perceptions, projections, …

Parmi les thèmes abordés :

La chaire DAMI recrute un post-doctorant en Modélisation Quantitative

UTILISATION DES DEFLATEURS STOCHASTIQUES POUR LE CALCUL DE LA VALEUR ECONOMIQUE DES CONTRATS D’ASSURANCE-VIE

See the english version

La Chaire DAMI est une chaire de recherche financée par BNP Paribas Cardif qui s’intéresse aux problématiques liées aux Données et Modèles en Assurance (http://chaire-dami.fr/). Elle propose un financement post doctoral dans le cadre de son axe de recherche « Modèles pour l’assurance ».

Caractéristiques du poste
Nous recherchons un(e) docteur(e) en actuariat ou en finance quantitative avec une forte appétence pour le contexte spécifique à l’assurance et la modélisation quantitative. Les travaux comportent un volet théorique ainsi que la mise en place d’applications avec des outils comme R ou Python.
Le financement est prévu pour une durée d’un an avec possibilité de prolongation de 6 mois ou un an.
Le poste est basé à Lyon, au sein du laboratoire SAF.
La rémunération est à discuter en fonction du profil du candidat.

Thème de recherche
La logique générale de calcul de la valeur économique d’un contrat d’assurance-vie est présentée dans les chapitres 4 et 5 de Laurent et al. (Ed.) [2016].
De manière schématique, la valeur d’un tel contrat est assimilée au « prix » du contrat vu comme un actif dérivé des différents facteurs de risque financiers auxquels est soumis l’assureur (taux, actions, crédit, etc.). Dès lors, les méthodes construites sur la base de l’absence d’opportunité d’arbitrage en finance de marché sont utilisées. Leur utilisation est toutefois rendue délicate du fait de :

  • l’absence de prix observable (cf. Félix et Planchet [2015],
  • l’impossibilité de décrire analytiquement la fonction de détermination des flux en fonction des facteurs de risque, les flux étant obtenus via un algorithme complexe (cf. le chapitre 4 de Laurent et al. (Ed.) [2016]).

La pratique de place qui s’est progressivement imposée consiste à modéliser les facteurs de risque sous une probabilité risque neutre (dont le choix parmi l’ensemble des probabilités possibles n’est que rarement discuté), ce qui évite d’expliciter la forme du prix de marché du risque implicitement associé.
Outre les difficultés induites par l’utilisation de cette modélisation « risque neutre » dans le modèle ALM de production des flux (cf. Félix et Planchet [2016]), la cohérence entre la modélisation « historique » utilisée par exemple dans l’ORSA (cf. le chapitre 4 de Laurent et al. (Ed.) [2016]) et la modélisation des facteurs pour la valorisation n’est pas assurée.
Dans ce contexte, une alternative consiste à utiliser des déflateurs stochastiques, comme dans Dastarac et Sauveplane [2010] ce qui permet d’utiliser des scénarios en probabilité historique, la valorisation des options étant alors intégrée dans le noyau d’actualisation.
Avec ce type d’approche, les fonctions de réaction utilisées dans la construction des flux n’ont dès lors plus à être étendues à des plages de valeurs « extrêmes », courante sous la probabilité Q mais rares sous P.
La difficulté est déplacée au niveau de la construction du processus d’actualisation (déflateur), qui implique de modéliser explicitement le « prix de marché du risque ».
Une synthèse de cette approche est décrite dans Caja et Planchet [2010] et un exemple de mise en œuvre pour des contrats d’épargne en € avec un environnement économique simplifié est proposé dans Dastarac et Sauveplane [2010]. Les auteurs construisent explicitement le déflateur dans un marché à deux actifs (actions et taux) en introduisant un aléa sur le prix de marché du risque.
On peut également mentionner sur ce registre, pour ce qui concerne le risque de taux, le travail de Dubaut [2015], qui s’appuie sur le cadre proposé dans Turc et al. [2009]. Ce cadre est un cas particulier de l’approche plus générale présentée dans Christensen et al. [2010], qui exploite les propriétés du modèle de Nelson-Siegel vu en tant que modèle de taux à structure affine.
Le travail de recherche consistera donc à construire un déflateur intégrant les sources de risque financiers majeurs auxquelles l’assureur se trouve exposé (taux, action, crédit, inflation) et à décrire un cadre opérationnel pour le calcul de valeurs économiques de contrats d’assurance-vie dans un cadre réaliste, utilisable par un assureur pour les calculs qu’il réalise dans le cadre du pilier 1 de Solvabilité 2. Ce cadre opérationnel sera décliné à la fois d’un point de vue théorique, avec une description formelle du modèle et d’un point de vue pratique, avec une implémentation en R ou Python.

Contact
Frédéric PLANCHET
Professeur à l’Université Claude Bernard, Lyon 1
Laboratoire SAF
Frederic.planchet@univ-lyon1.fr

Télécharger au format pdf
Download pdf

Références:
Caja A., Planchet F. [2010] « La mesure du prix de marché du risque : quels outils pour une utilisation dans les modèles en assurance ? », Assurances et gestion des risques, Vol.78 (3/4).
Christensen J.H.E.; Diebold F.X.; Rudbush G.D. [2010] « The Affine Arbitrage-Free Class of Nelson-Siegel Term Structure Models », Federal Reserve Bank of San Francisco, WP n°2007-20.
Bonnin F., Combes F., Planchet F., Tammar M. [2015] « Un modèle de projection pour des contrats de retraite dans le cadre de l’ORSA », Bulletin Français d’Actuariat, vol. 14, n°28.
Dastarac H., Sauveplane P. [2010] « Les déflateurs stochastiques : quelle utilisation en assurance ? », Mémoire d’actuaire, ENSAE.
Dubaut E. [2015] « Risque à la hausse des taux : le modèle MENIR », Mémoire de M2, ISFA.
Félix J.P., Planchet F. [2016] « Groupe de travail Risque-Neutre : synthèse des travaux », Chaire DAMI, Réf. 1227-20 v1.2 du 16/12/2016.
Félix J.P., Planchet F. [2015] « Calcul des engagements en assurance-vie : quel calibrage ‘cohérent avec des valeurs de marché’ ? », L’Actuariel, n°16 du 01/03/2015.
Laurent J.P., Norberg R., Planchet F. (editors) [2016] Modelling in life insurance – a management perspective,  EAA Series, Springer.
Planchet F., Leroy G. [2013] « Risque de taux, spread et garanties de long terme », la Tribune de l’Assurance (rubrique « le mot de l’actuaire »), n°178 du 01/03/2013.
Turc J., Ungarl S., Kurpel A., Huang C. [2009] « Filtering the interest rate curve : the MENIR framework », Société Générale, Fixed Income du 27/11/2009.

Séminaire petit déjeuner du 28 mars 2017 : Approches prédictives et personnalisées dans le digital

Par Sébastien Loustau, CEO & Chercheur chez Artfact, start-up spécialisée dans le data science

Artfact est une start-up du numérique spécialisée dans l’aide à la décision. Fondée à l’université dans un laboratoire de mathématiques, elle se distingue par la conception d’algorithmes innovants pour le numérique.
Dans cet exposé, nous aborderons en détail les dernières techniques de ciblages prédictifs et de détection de leader d’opinions, d’un point de vue algorithmique et business. Le ciblage prédictif est monnaie courante dans le digital, et notamment sur le web où chaque comportement va déclencher sur un site marchant un traitement spécifique. Depuis l’apparition des systèmes de recommandations, de nombreuses évolutions ont eu lieu. Nous discuterons de la matière première de ces évolutions technologiques, à savoir la théorie statistique et l’apprentissage (machine learning) et l’apprentissage temps réel (online learning) et nous illustrerons ces propos à travers deux cas spécifiques : la segmentation client temps réel et la détection de communautés dans un réseau.

Paris, mardi 28 mars 2017, 9h 

Détails et inscription gratuite ici

Expérimentation… De l’indépendance de la gouvernance d’entreprise

img_1071Jean-Louis Rullière, ISFA

L’expérimentation en économie présente la vertu de pouvoir mieux appréhender les comportements économiques « tels qu’ils sont ». En effet cet outil se révèle particulièrement crucial dès que l’agent économique n’a pas intérêt à révéler à l’enquêteur son comportement réel ou hypothétique. Après avoir décrit les principaux biais déclaratifs qui peuvent être réduits par le recours à l’expérimentation, on présente une expérimentation en finance comportementale d’entreprise sur l’indépendance de l’administrateur par rapport au cadre dirigeant.

Il existe une vaste littérature sur la gouvernance d’entreprise qui plaide pour l’indépendance des comités de rémunération. L’indépendance au sein du comité de rémunération est considérée comme un élément clé pour éviter une inflation des rémunérations des cadres dirigeants (CEO). Dans les travaux empiriques, l’indépendance est généralement mesurée par la proportion d’administrateurs présentant un certain nombre de caractéristiques socio-économiques, comme le fait de ne pas être un employé de la firme, de ne pas être membre de la famille du PDG, d’être un actionnaire important, etc…. Il est alors supposé que les administrateurs ayant les caractéristiques souhaitées sont indépendants et résistent ainsi à l’influence indue des cadres dirigeants. Ce type d’approche pose toutefois la question de savoir si les administrateurs qui apparaissent comme indépendants se comportent réellement de façon indépendante. En fait, lorsqu’on examine la conformité aux recommandations des codes de gouvernance d’entreprise, on examine les caractéristiques individuelles des administrateurs en termes de liens économiques et familiaux, mais l’indépendance d’esprit et le comportement réel qui en résulte ne sont jamais vraiment mesurés directement.

Un design expérimental est fondé sur un modèle de relation d’agent principal avec trois acteurs, où les deux premiers acteurs (l’actionnaire et le CEO génèrent un projet collectif (la valeur de l’entreprise) et le troisième joueur (l’administrateur) doit décider de la part de la valeur allouée à chacun des deux premiers joueurs. Quant à l’administrateur, il reçoit un salaire forfaitaire indépendamment de sa décision d’arbitrage. À cet égard, nous concevons une expérience de laboratoire avec deux traitements, un traitement de base versus un traitement avec communication dans lequel le CEO peut envoyer un message à l’administrateur sous la forme d’une demande / conseil sur la répartition de la valeur de l’entreprise. Ce qui permet de mesurer le comportement de l’administrateur indépendant: dans quelle mesure l’administrateur répond-il à la réception d’un message et de son contenu? Et surtout dans quelle mesure la fourniture d’effort de la part du CEO est conditionné par l’existence de ce canal de communication entre lui-même et l’administrateur ? Sur ce dernier point, on met en évidence très nettement que ce n’est pas tant le niveau de revendication du CEO en termes d’appropriation de la valeur de l’entreprise qui est déterminant mais qu’en revanche l’existence même d’un canal de communication entre le CEO et l’administrateur impacte négativement sur le comportement du CEO dans sa fourniture d’effort de gestion.

Les slides de la conférence