Catégorie : Non classé

Matinée Dépendance

La Chaire DAMI, Partenaire de l’Institut des Actuaires, pour l’organisation de la Conférence “Matinée Dépendance”, le 27 mai 2019 de 8h30 à 12h30.

La Conférence aura lieu à l’Auditorium Gilles Glicenstein
BNP Paribas – Bergère – 14, rue Bergère – 75009 PARIS.

La conférence “Lois biométriques pour le risque de perte d’autonomie”, organisée avec le soutien de la chaire DAMI, sera l’occasion de présenter les travaux qui ont été menés dans le cadre de l’étude QalyDays et de les mettre en perspective avec des réflexions sur la mesure de la durée de vie en bonne santé et le sujet de la dépendance en Suisse.

Du fait du vieillissement de la population, le risque de perte d’autonomie occupe une place croissante dans les réflexions sur la protection sociale, tant publiques que privées. Alors que des bases techniques sont disponibles pour les risques de décès et d’arrêt de travail, aucune information publique n’était jusqu’alors disponible pour réaliser des études quantitatives telles que des évaluations de coût.

Grâce à l’étude QalyDays, dont l’objectif est d’améliorer la connaissance du risque « Perte d’Autonomie » en France à partir de l’exploitation des bases nationales d’hospitalisation (PMSI), des lois biométriques permettant d’effectuer différentes mesures de l’ampleur du risque perte d’autonomie sont maintenant accessibles : des tables de mortalité prospectives pour la population jamais confrontée à une perte d’autonomie, des lois d’incidence et des lois de survie en dépendance.

Informations, programme et inscription ici

Filed under: Non classé

Petit déjeuner thématique – Modèle de diffusion des taux sans risque à long terme dans une optique assurance et gestion ALM

Par François BONNIN

On présente dans ce travail un modèle de taux spécifiquement développé en vue de simulations de long terme, soit sous la probabilité risque-neutre à des fin de valorisation, soit sous la probabilité physique à des fins de modélisation ALM; en intégrant la contrainte d’adjonction au modèle d’autres facteurs de risques financiers que celui des taux d’intérêts.

Jeudi 21 mars 2019 à 9h (accueil café à partir de 8h30)

Lieu :

Fondation du Risque
Palais Brongniart
28 Place de la Bourse
75002 PARIS

Inscrivez-vous ici

Filed under: Non classé, Séminaires trimestriels

Incertitude des termes comptables

Dans le cadre du partenariat entre le Laboratoire SAF et BNP Paribas Cardif, Pierre THEROND, membre de la Chaire DAMI, et Véronique BLUM (Université Grenoble Alpes), présenteront aux équipes de Cardif, le 12 février 2019, les résultats de leurs travaux sur l’ interprétation des termes comptables : langage, reporting comptable et incertitude. 

Quel est l’impact du choix des mots sur la propension des managers à décider ? Quelle est l’appréciation/appréhension des termes d’incertitude que l’on trouve dans les normes comptables (ex : likely, reasonable assurance, etc) ? Pour traiter cette problématique, Pierre Thérond et ses co-auteurs ont mené une expérimentation sur des utilisateurs des normes comptables (experts comptables, directeurs financiers, contrôleurs de gestion, etc)  auprès de qui une comparaison des interprétations des termes de vraisemblance utilisés dans les normes comptables internationales a pu être menée en deux langues : français et anglais.

Ils ont pu remarquer que la traduction des termes d’incertitude, chez les mêmes individus, ressort avec une variabilité qui entraîne des différences d’interprétation, induite entre autres par l’ambiguïté des termes utilisés.

Un papier scientifique est en cours de finalisation sur ce sujet.
Voici son résumé : 
The present study explores the triangular links between language, accounting reporting and uncertainty. To do so, we compare the interpretations of likelihood terms as used in international accounting standards in two languages, French and English. Unlike previous studies, our samples are not distinct but the same participants are surveyed twice. To assess the variability of terms’ interpretations, we fix the individual characteristics and context. We show that the translations of likelihood terms within the same individuals displays variability in point and range estimation causing differences in interpretations likely to hamper the comparability targeted by international standards. But such variability could also be induced by the ambiguity of the terms themselves. With a one-language control sample, we demonstrate that variability persists within languages. Our findings suggest that unstable interpretations of uncertainty languages exist both across and within languages. Such contribution is of importance to standard setters if they aim at enhancing the comparability and insure the neutrality of accounting on the consistency of decisions.

Co-auteurs : V. Blum, P.E. Thérond, D. Alexander, E. Laffort, S. Jancevska


Filed under: Non classé

Conférence ASSURANCE, ACTUARIAT, DONNEES & MODELES

Les porteurs de chaires et initiatives de recherche Frédéric PLANCHET & Christian ROBERT(Chaire DAMI), Arthur CHARPENTIER & Romuald ELIE (Chaire ACTINFO), Jean-Louis RULLIERE & Anne-Marie SCHOTT (Chaire PREVENT’HORIZON), Stéphane LOISEL (IDR ACTUARIAT DURABLE) organisent la conférence

ASSURANCE, ACTUARIAT, DONNEES & MODELES
Insurance, Actuarial Science, Data & Models
Lundi 11 et Mardi 12 Juin 2018
A Paris, FFA, 26 Boulevard Haussmann

Ils proposent pour la première fois une conférence de deux jours à la croisée des thématiques qui les rapprochent : Data Science et applications en assurance et finance (données incomplètes, tarification, provisionnement,…), et Prévention et risques (perception des risques; couverture et réduction des risques; auto-assurance, auto-protection  et assurance;  santé publique et prévention,…).

Les conférenciers invités :
Katrien ANTONIO, KU Leuven
Alexandre BOUMEZOUED, Milliman Paris
Alfred GALICHON, New-York University
Pierre-Yves GEOFFARD, Paris School of Economics
Meglena JELEVA, University of Paris Nanterre
Julie JOSSE, Ecole Polytechnique, Paris Palaiseau
Florence JUSOT, Paris Dauphine University
Michael LUDKOVSKI, University of California Santa Barbara
François PANNEQUIN, CREST and ENS Paris-Saclay
Florian PELGRIN, Edhec Business School
Dylan POSSAMAI, Columbia University
Julien TRUFIN, ULB Brussels

L’accès à la conférence est gratuit, sur inscription préalable obligatoire (Membres IA: 12 points PPC)

Informations et inscriptions ici

Filed under: Non classé

Application de Machine Learning pour le calcul des réserves, retour sur la présentation du 28 novembre 2017

Maximilien Baudry et Christian Robert ont présenté leurs premiers travaux de recherche sur l’application du Machine Learning au calcul des réserves… Une nouvelle façon de comprendre le risque porté par des polices d’assurance dans le portefeuille d’une compagnie.

Le Machine Learning se présente ainsi comme un nouvel outil de gestion des risques qui, en parallèle du Chain Ladder utilisé traditionnellement, apporter un angle d’analyse complémentaire pour le calcul des réserves.

102 personnes ont assisté à la conférence dans l’auditorium de BNP Paribas Bergère, où le sujet a soulevé de nombreuses questions sur l’utilisation en pratique et les potentielles mises en production.

Voir les diapos de la présentation

Lire l’article publié

Filed under: Non classé

Premier Hackaton Data sponsorié par la chaire DAMI

UN ETUDIANT ISFA DANS L’EQUIPE GAGNANTE
Durant 2 jours, des équipes pluridisciplinaires issues de l’écosystème web, les équipes du groupe APRIL et d’autres partenaires parmi lesquels la Chaire DAMI, Keyrus et l’ISFA ont travaillé sur le thème de l’expérience client afin d’imaginer un parcours assurantiel qui soit encore plus simple et plus fluide.
L’objectif était de mettre à l’honneur la «data» sous toutes ses formes, en lançant le premier hackaton data sur des projets open source.

Fayçal alami, étudiant en m2 Actuariat à l’ISFA raconte sa participation au projet vainqueur : Wizyou always with you
La thématique abordée était : «Comment améliorer l’expérience assuré ?»
Notre équipe a pu remporter le 1er prix à travers sa solution : Wizyou.
Wizyou, est une solution à destination des séniors isolés, atteints, ou en rémission d’une maladie grave.
En effet, avec le rallongement de l’espérance de vie –problématique de longévité-, de plus en plus de seniors souffrent d’isolement. Cette situation est d’autant plus pénible
lorsqu’ils sont, ou ont été atteints d’une maladie grave.
Wizyou repose sur deux services complémentaires :
Tout d’abord, une assistante vocale interactive : Scarlett, qui réagit aux instructions vocales qui lui sont données. Celle-ci repose sur une plateforme collaborative qui permet également l’accompagnement des seniors à travers des alertes :
rappelant les rendez-vous médicaux, le renouvellement d’ordonnance, l’achat de médicaments…
Wizyou offre également une relation de proximité personnalisée à travers un
conseiller dédié pour un accompagnement au quotidien : Prise en charge des démarches administratives, mise à jour des calendriers…
Cette solution innovante permet donc d’améliorer l’expérience client auprès des assurés. Le métier d’assureur ne se limitera donc plus au remboursement des frais
de santé, mais consistera aussi à accompagner les patients dans leurs parcours de soins et lors de leur rémission, changeant ainsi le rapport assuré-assureur. De plus,
cette solution est tout à fait viable économiquement, étant donné son coût limité. Elle peut très bien être intégrée à un produit d’assurance santé, moyennant un surcoût limité.

Filed under: Non classé

Séminaire petit déjeuner du 28 novembre 2017 : “Méthodes de provisionnement individuel à l’aide du Machine Learning”

Christian ROBERT, Chaire DAMI / Laboratoire SAF
Maximilien BAUDRY, Chaire DAMI / Laboratoire SAF / DataLab BNP Paribas Cardif

Abstract : Les montants des réserves des compagnies d’assurance constituent un élément important de leur bilan et une évaluation best-estimate est nécessaire. Ces montants sont généralement évalués à l’aide de modèles de niveau macro et sur des données agrégées dans des triangles en run-off. Au cours des dernières années, une littérature proposant des modèles d’évaluation à partir des données individuelles de sinistralités est apparue. Elle propose la plupart du temps des modèles paramétriques pour lesquels il est nécessaire de faire des hypothèses très fortes qui ne sont pas toujours simples à vérifier au regard des données. Dans cet atelier, nous proposerons des outils non paramétriques (apprentissage par machine principalement) pour estimer les réserves de type IBNR et RBNS pour chaque contrat d’assurance sous ‘exposition’ en incluant toutes les variables pertinentes liées au contrat, à l’assuré, ou au sinistre (expertise, paiements, …). Ces évaluations sont assez complexes à mettre en œuvre car la variable cible (sévérité des sinistres) est censurée à droite la plupart du temps. La performance de notre approche est évaluée en comparant les valeurs prédites avec leurs valeurs réelles sur un grand nombre de données simulées. Nous comparons également notre approche individuelle avec des méthodes agrégées classiques telles que Mack/Chain Ladder et étudions plus spécifiquement le biais et la volatilité des estimations pour ces différentes approches.

Paris, mardi 28 novembre, 9h
Membres IA : 12 points PPC

Lire l’article complet

Détails et Inscriptions ici

Filed under: Non classé

La chaire DAMI, partenaire du premier Hackaton Data a BlendWebMix

L’objectif est de mettre à l’honneur la “data” sous toutes ses formes, en lançant le premier hackaton data sur des projets open source.
Durant 2 jours, des équipes pluridisciplinaires issues de l’écosystème web, les équipes du groupe APRIL et d’autres partenaires parmi lesquels Keyrus et l’ISFA travailleront sur le thème de l’expérience client. Ceci afin d’imaginer un parcours assurantiel qui soit encore plus simple et plus fluide.

Les membres de la chaire mèneront une équipe d’étudiants en lice dans la compétition.

“Le mot “Hackathon” vient de l’association des termes “hacking” et “marathon” et désigne un événement où des groupes de développeurs volontaires programment de manière collaborative et intensive sur une courte période de temps. Depuis, le format a été adapté et élargi pour devenir un processus créatif fréquemment utilisé dans le domaine de l’innovation”

Plus d’informations

Filed under: Non classé

Retour sur le Workshop ” Data Science in Finance and Insurance ” à Louvain la Neuve (Belgique)

La conférence a eu lieu le 15 septembre 2017 à Louvain la Neuve. Une centaine de personnes ont assisté à la conférence dont 28 académiques (organisateurs et speakers compris), 55 professionnels dont la majorité sont actuaires et travaillent dans des entreprises qui comptent sur le marché belge (Ageas, P&V, Axa, Ethias, DKV) et luxembourgeois (La Luxembourgeoise). Il y avait également de nombreux consultants (EY, Kpmg, reacfin, addactis), quelques personnes en réassurance (Sécura-re) et une délégation de la Banque nationale de Belgique.

Abstracts & slides

Said ACHCHAB
A hybrid deep network approach for predictive analysis of massive and incomplete data of insurance
In this work we focus on machine learning methods in a context of massive and incomplete data of insurance. We adopt hybrid deep learning method for segmentation, classification and mapping of customer profiles to better understand their behavior in relation to existing insurance products and an optimized management of the of disasters cover.
We show in particular that the deep learning method gives more accurate results than classical neural networks. We illustrate the results on real data from an insurance company.

Katrien ANTONIO
Sparse modeling of risk factors in insurance analytics
Insurance companies use predictive models for a variety of analytic tasks, including pricing, marketing campaigns, claims handling, fraud detection and reserving. Typically, these predictive models use a selection of continuous, ordinal, nominal and spatial risk factors to differentiate risks. Such models should not only be competitive, but also interpretable by stakeholders (including the policyholder and the regulator) and easy to implement and maintain in a production environment. That is why current actuarial literature puts focus on generalized linear models where risk cells are constructed by binning risk factors up front, using ad hoc techniques or professional expertise. In statistical literature penalized regression is often used to encourage the selection and fusion of predictors in predictive modeling. Most penalization strategies work for data where predictors are of the same type, such as LASSO for continuous variables and Fused LASSO for ordered variables. We design an estimation strategy for generalized linear models which includes variable selection and the binning of risk factors through L1-type penalties. We consider the joint presence of different types of covariates and a specific penalty for each type of predictor. Using the theory of proximal operators, our estimation procedure is computationally efficient since it splits the overall optimization problem into easier to solve sub-problems per predictor and its associated penalty. As such, we are able to simultaneously select, estimate and group, in a statistically sound way, any combination of continuous, ordinal, nominal and spatial risk factors.
We illustrate the approach with simulation studies, an analysis of Munich rent data, and a case-study on motor insurance pricing.
This presentation will cover ongoing work by Sander Devriendt, Katrien Antonio, Edward (Jed) Frees and Roel Verbelen.
Slides K.Antonio

Bart BAESENS
Credit Risk Analytics: Basel versus IFRS 9
Credit risk modeling is undoubtedly among the most crucial and actual issues in the field of financial risk management. In this presentation, we elaborate on some key issues and challenges that arise when building credit risk models in a Basel versus IFRS 9 context. We start by outlining a three level credit risk model architecture: level 0 (data), level 1 (model) and level 2 (ratings and calibration).   From there onwards, the following topics will be addressed:
•    PD/LGD/EAD performance benchmarks
•    Basel versus IFRS 9 perspective
•    Model discrimination versus calibration
•    Model validation
The speaker will extensively comment on both his industry and research experience and clarify the various concepts with real-life examples.
Slides B.Baesens

Enrico BIFFIS
Satellite Data and Machine Learning for Weather Risk Management and Food Security
The increase in frequency and severity of extreme weather events poses challenges for the agricultural sector in developing economies and for food security globally. In this paper, we demonstrate how machine learning can be used to mine satellite data and identify pixel-level optimal weather indices that can be used to inform the design of risk transfers and the quantification of the benefits of resilient production technology adoption. We implement the model to study maize production in Mozambique, and show how the approach can be used to produce country-wide risk profiles resulting from the aggregation of local, heterogeneous exposures to rainfall precipitation and excess temperature. We then develop a framework to quantify the economic gains from technology adoption by using insurance costs as the relevant metric, where insurance is broadly understood as the transfer of weather driven crop losses to a dedicated facility. We consider the case of irrigation in detail, estimating a reduction in insurance costs of at least 30%, which is robust to different configurations of the model. The approach offers a robust framework to understand the costs vs. benefits of investment in irrigation infrastructure, but could clearly be used to explore in detail the benefits of more advanced input packages, allowing for example for different crop varieties, sowing dates, or fertilizers.
Slides E.Biffis

Sébastien CONORT
Discovery of Deep Learning – Illustration on a Natural Language Processing use case at BNP Paribas Cardif
First, we will remind shortly what is Deep Learning, why it is so popular right now in the machine learning community, and why it is accessible to passionate data scientists in insurance companies such as BNP Paribas Cardif. Second, we will present results we got at BNP Cardif’s Datalab on a Natural Language Processing use case . The use case consisted in identifying missing pieces of information in beneficiary clauses of some old savings contracts, for which beneficiary clauses are stored as unstructured free text in our databases. This use case helped at solving a regulatory issue for BNP Paribas Cardif.

Silvia FIGINI
Credit data science risk models for SMEs
This paper describes novel approaches to predict default for SMEs. Ensemble approaches and novel data science risk models are tested on a real data set provided by a financial institution. Out of sample mesaures obtained outperform standard approaches proposed in the literature.
In our paper we introduce a novel methodological idea for model selection based on distances among predictive distributions, thus supporting financial institutions in decision making.
This is joint work of Silvia Figini and Pierpaolo Uberti.
Slides S.Figini

Guojun GAN
Valuation of Large Variable Annuity Portfolios: Challenges and Potential Solutions
In the past decade, the rapid growth of variable annuities  has posed great challenges to insurance companies especially when it comes to valuing the complex guarantees embedded in these products. The financial risks associated with guarantees embedded in variable annuities cannot be adequately addressed by traditional actuarial approaches. In practice, dynamic hedging is usually adopted by insurers and the hedging is done on the whole portfolio of VA contracts. Since the guarantees embedded in VA contracts sold by insurance companies are complex, insurers resort to Monte Carlo simulation to calculate the Greeks required by dynamic hedging but this method is extremely time-consuming when applied to a large portfolio of VA contracts. In this talk, I will talk about two major computational problems associated with dynamic hedging and present some potential solutions based on statistical learning to address these computational problems.
Slides G.Gan

Montserrat GUILLEN
Telematics and the natural evolution of pricing in motor insurance
Telematics is a revolution in data analytics when applied to motor insurance, but the transition to a fully data-driven dynamic pricing is challenging. We present methods to quantify risk with applications to usage-based motor insurance. We show illustrations by modelling the time to the first crash and show that it is shorter for those drivers with less experience. The risk of accident increases with excessive speed, but the effect is higher for men than for women among the more experienced drivers. Additionally, nighttime driving reduces the time to first accident for women but not for men. Gender differences in the risk of accident are mainly attributable to the fact that men drive more often than women. We explore alternative methods to include mileage in the quantification of risk, as well as the way exposure to risk is contemplated in generalized linear models.  We also investigate changes in driving patterns after having an accident, and conclude that those who speed more and have accidents with bodily injuries reduce their proportion of speed violations after the accident. We show how to adapt existing models for pricing by kilometer driven, with a correction based on telematics information. We also introduce ideas about other aspects of optimal pricing in motor insurance by looking at the possibility of customer lapse.
Slides M.Guillen

Gareth PETERS
Feature Extraction Methods and Stochastic Mortality Modelling
In this presentation I will review recent work my co-authors and I have developed in the paper:
” Stochastic Period and Cohort Effect State-Space Mortality Models Incorporating Demographic Factors via Probabilistic Robust Principal Components”.
This work considers a multi-factor extension of the family of Lee-Carter stochastic mortality models. We build upon the time, period and cohort stochastic model structure to extend it to include exogenous observable demographic features that can be used as additional factors to improve model fit and forecasting accuracy. We develop a dimension reduction feature extraction framework which (a) employs projection based techniques of dimensionality reduction; in doing this we also develop (b) a robust feature extraction framework that is amenable to different structures of demographic data; (c) we analyse demographic data sets from the patterns of missingness and the impact of such missingness on the feature extraction, and (d) introduce a class of multi-factor stochastic mortality models incorporating time, period, cohort and demographic features, which we develop within a Bayesian state-space estimation framework; finally (e) we develop an efficient combined Markov chain and filtering framework for sampling the posterior and forecasting.
We undertake a detailed case study on the Human Mortality Database demographic data from European countries and we use the extracted features to better explain the term structure of mortality in the UK over time for male and female populations when compared to a pure Lee-Carter stochastic mortality model, demonstrating our feature extraction framework and consequent multi-factor mortality model improves both in sample fit and importantly out-off sample mortality forecasts by a non-trivial gain in performance.
Slides G.Peeters

Christian ROBERT
Non parametric individual claim reserving
Accurate loss reserves are an important item in the financial statement of an insurance company and are mostly evaluated by macro-level models with aggregate data in a run-off  triangle. In recent years, a small set of literature that proposed parametric reserving models using underlying individual claims data has emerged. In this paper, we introduce non parametric tools (machine learning mostly) to estimate outstanding and IBNR liabilities using covariables available for each policy and policyholder and which may be informative about claim frequency and severity as well as payments behaviors. This exercise is quite intricate and new since the target variable (claim severity) is right-censored most of the time. The performance of our approach is evaluated by comparing the predictive values of the reserve estimates with their true values on a large number of simulated data. We also compare our individual approach with aggregated classical methods such as Mack’s Chain Ladder with respect to the bias and the volatlity of the estimates.
Slides C.Robert

Sébastien de VALERIOLA
Decision trees & random forest algorithms in credit risk assessment
An increasing number of bankers and insurers now embed machine learning techniques in their operational processes. In this talk, we review the deployment of such a technique in a real-life company. More specifically, we present the implementation of a tree-based loss given default model. We highlight the advantages and disadvantages of these methods when considering their practical use in the industry, and show some of the issues we faced in the course of this implementation.
Slides S.deValeriola

 

Filed under: Non classé

Retour sur la conférence “Probabilités et Applications en Assurance et en Finance” au Vietnam

Le workshop “Stochastic processes- Actuarial science and Finance” a réuni des chercheurs spécialistes de la théorie des probabilités, travaillant sur des applications en assurance et en finance.

Il s’est tenu au VIASM, à Hanoi, du 31 juillet au 3 aout 2017. Le workshop a donné lieu à des échanges scientifiques entre des participants d’horizon variés : Allemagne, Chine, France, Royaume-Uni, Singapour, Turquie et Vietnam.

La participation de professionnels de BNP Paribas Cardif, qui ont donné deux exposés, a permis d’avoir un retour précis sur les besoins de modélisation actuarielle et sur les applications concrètes des probabilités.

Le workshop a été conjointement financé par le VIASM, la chaire DAMI et la chaire Actinfo.​

Voir les abstracts

 

 

Filed under: Non classé