Ouvrages et articles ACADEMIQUES

Laurence Barry

The moral economies of natural disasters insurance: solidarity or individual responsibility?

Journal of Cultural Economy, Octobre 2023

Laurence Barry & Arthur Charpentier

Melting contestation: insurance fairness and machine learning

Ethics & Information Technology 25, 49, Septembre 2023

Elsa Clara Massoc & Cyril Benoit

A tale of dualization: accounting for the partial marketization of regulated savings in France

Review of International Political Economy, Septembre 2023

Cyril Benoît, Fanny Devaux et Yasmine Tuffy

Big Data, régulation financière et trajectoires organisationnelles dans le secteur de l’assurance

Sociologie du travail ,Vol. 64 – n° 4 , Octobre-Décembre 2022

Arthur Charpentier et Laurence Barry

L’équité de l’apprentissage machine en assurance

Statistique et Société ,Vol. 10 No. 3 (2022)

Julien Caranton

Un premier tournant libéral dans les assurances ? La direction des Assurances et la personnalisation des primes de la responsabilité civile automobile (années 1960-1970)

Revue d’histoire moderne & contemporaine, 2022-3

Pierre François & Théo Voldoire

The revolution that did not happen: Telematics and car insurance in the 2010s

SAGE journals, Big Data & Society, First Online November 2022

Laurence Barry

Epidemic and Insurance: Two Forms of Solidarity

SAGE journals, Theory, Culture & Society, First Online May 2022

Pierre François

Financiariser l’Assurance, enquête sur Solvabilité II

Sciences Po-Les Presses, 2021

Le 23 septembre 2021, à l’occasion de la sortie du livre de Pierre François,
avec la collaboration de Sylvestre Frézal, Financiariser l’assurance, enquête sur Solvabilité II, le Centre de Sociologie des Organisations (Sciences Po – CNRS) et la chaire PARI proposaient un débat sur le thème : « Assurance : quelle dynamique entre marché et régulation ? ».

Arthur Charpentier, Laurence Barry & Molly R. James

Insurance against natural catastrophes: balancing actuarial fairness and social solidarity

The Geneva Papers on Risk and Insurance, 2021

Laurence Barry

Insurance, Big Data and Changing Conceptions of Fairness

European Journal of Sociology, Cambridge University Press, July 2020

Laurence Barry & Arthur Charpentier

Personalization as a promise: Can Big Data change the practice of insurance?

SAGE journals, Big Data & Society, First Online June 2020

Sylvestre Frezal & Laurence Barry

Fairness in Uncertainty: Some Limits and Misinterpretations of Actuarial Fairness

Journal of Business Ethics, First Online May 2019

Sylvestre Frezal

Quand les statistiques minent la finance et la société. Risque, responsabilité et décision

Editions L’Harmattan, Collection L'Esprit économique, 2018

Face à l’incertitude, les outils statistiques sont comme l’alcool : ils donnent du cœur au ventre, aident à prendre une décision, et permettent ensuite de se justifier si la situation tourne mal. Mais, comme l’alcool, ils biaisent notre perception de l’environnement, dégradent la qualité de la prise de décision et déresponsabilisent.
Cet ouvrage montre que les outils de quantification des risques sont issus de la transposition illégitime et mal maîtrisée des concepts statistiques depuis un champ où ils avaient du sens vers un domaine où ils n’en ont pas. Il détaille plusieurs cas d’école, montrant comment l’économie et la finance se fourvoient et expliquant pourquoi la société est incapable d’appréhender le risque.
Surtout, il présente une grille de lecture permettant d’identifier les limites de ces outils et propose, lorsqu’ils ne sont plus efficaces, une attitude et une méthode alternative pour la gestion des risques et la prise de décision en incertain.

Sylvestre Frezal

Solvency II is Not Risk Based. Could it be? Evidence from Non Life Calibrations

North American Actuarial Journal, 2018

Pierre François & Sylvestre Frézal

Instituer l’incohérence. Aléa et hétérogénéité au sein du secteur assuranciel

Sociologie du Travail, 2018

EXEC SUMS​

Chloé Bérut

Ouvrir puis refermer : les dynamiques d’accès aux données de santé en France depuis les années 1990

Aujourd’hui, l’exploitation des données numériques liées à la santé est un enjeu crucial de la scène politique, comme en témoigne la récente création du ‘Health Data Hub’ en France ainsi que les travaux européens menés sur l’‘espace européen des données de santé’. si l’intérêt pour ce type de données s’est accru au cours de la dernière décennie, notamment à la faveur de l’émergence des techniques de Big Data et d’Intelligence Artificielle, la création des bases de données de santé en France remonte en réalité aux années 1990. Aussi les règles et dispositifs actuels de régulation de l’accès aux données de santé se sont-ils construits à partir d’une série d’évolutions politiques que cet executive summary se propose de résumer (voir WP #30 et WP #31 pour une information détaillée). À partir des résultats d’une enquête qualitative menée en 2022, ce document revient sur les différentes séquences de la régulation de l’accès aux données de santé en France. ce faisant, une analyse de la création des bases de données et des dynamiques d’ouverture opérées au cours des années 2000 est proposée, ainsi qu’un compte-rendu de la restructuration plus récente de l’accès aux données de santé suite à la réforme de 2016, qui marque une dynamique de fermeture de l’accès pour de nombreux acteurs non-étatiques.

Assurance : quelle dynamique entre marché et régulation ?

Le 23 septembre 2021, à l’occasion de la sortie du livre de Pierre François, avec la collaboration de Sylvestre Frézal, Financiariser l’assurance, enquête sur Solvabilité II, le Centre de Sociologie des Organisations (Sciences Po – CNRS) et la chaire PARI proposaient un débat sur le thème « Assurance : quelle dynamique entre marché et régulation ? » . En voici les meilleurs extraits.

Sylvestre Frezal

Solvabilité 2 : bilan et propositions d’évolution

Solvabilité 2, malgré une gestation difficile, a incarné l’état de l’art en matière de régulation prudentielle des assurances. Début 2016, elle est entrée en vigueur. Déjà, en Europe, elle entre dans une phase de révision. Hors d’Europe, les pays la copient, s’en inspirent ou la rejettent. Dans ce cadre, nous présentons un retour d’expérience qui identifie les améliorations apportées par Solvabilité 2 et ses échecs, et permet de dégager des pistes d’amélioration ainsi que des do/don’t pour les autres refontes de régulation prudentielle à venir.

Sylvestre Frezal, Eléonore Haguet & Virak Nou

Contrats avec PB et régulation procyclicique : inéluctabilité, avantages et inconvénients

Les exigences de capital générées par une réglementation risk based, en vision économique, sont structurellement procycliques lorsqu’elles sont appliquées à des contrats avec participation aux bénéfices. Tout palliatif ne pourra donc être qu’une rustine.

Toutefois, cette grandeur largement formelle présente peu d’intérêt. Le capital à immobiliser, qui prend en compte à la fois les exigences de capital générées et les fonds propres créés ou détruits par les contrats, correspond davantage aux préoccupations des dirigeants. La sensibilité aux pertes du capital à immobiliser est également un outil de régulation précieux, source d’incitation à piloter les risques.

Nous discutons des avantages et inconvénients comparés de Solvabilité 1 et Solvabilité 2 à la lumière de ces deux indicateurs.

Sylvestre Frezal

Solvabilité 2 est-il risk based ? Quand le bruit noie le signal

L’exigence de capital sous Solvabilité 2 est réputée être fondée sur une mesure de risque. A l’aide de tests de robustesse interne, nous montrons que cette mesure n’est pas fiable, le bruit la parasitant étant d’une amplitude comparable à celle du signal qu’on cherche à capter. Nous montrons également que, au fil des calibrages de Solvabilité 2, les mesures censées nous éclairer sur le fait que telle branche serait plus risquée que telle autre sont, dans 80% des cas, démenties par une étude ultérieure, avant le cas échéant de se retourner de nouveau.

Ceci remet en cause la pertinence de ce système pour fonder des décisions de régulation prudentielle ou éclairer les choix d’orientation stratégique ou de gestion des risques des organismes d’assurance.

Anne EA van der Graaf

Managing risks with the fairest values

Theoretically, one could think of fair values as representing the (unique) right market values. However, a given asset, at a given moment, has numerous market values. How is such a value chosen?

The fairest value is the one that brings the least problems along with it: the one that keeps insiders out of trouble. For example, if it is likely that a problem with the regulator, counterparty or liquidity would happen, a different market type can be chosen in order to get a different market value.

The fair value is the right value under the right circumstances. It is used to make sure the organisation’s health is guaranteed, not necessarily through the organisation’s actions but through its representation.

Sylvestre Frezal

De quoi Solvabilité 2 est-il le nom ?

Solvabilité 2 est réputée être une régulation prudentielle, ayant pour objectif de veiller aux intérêts des bénéficiaires de contrat d’assurance.

En décortiquant chacune de ses composantes quantitatives, nous montrons que, dans ses principes sous-jacents comme dans ses conséquences, Solvabilité 2 est davantage une réforme de communication financière visant à offrir aux analystes financiers et aux équipes de direction une grille d’analyse partagée, centrée sur le pilotage de la valeur pour l’investisseur, qu’une réforme prudentielle. Dans les choix techniques de Solvabilité 2, la création d’un marché européen des portefeuilles d’assurance apparaît ainsi comme le critère de décision prioritaire auquel la protection des assurés devient un objectif subordonné.

Nous présentons également les conséquences logiques qui pourraient en résulter et soulevons des pistes susceptibles d’expliquer cette situation.

Côme Berbain et Elisa Salamanca

L’assurance de demain : reconnaîtrons-nous notre assureur en 2030 ?

La révolution du « Big Data » atteint l’ensemble des secteurs et génère de nombreux fantasmes et peurs dans le domaine de l’assurance. Néanmoins de nombreuses limites structurelles et techniques doivent nous inciter à considérer les impacts de cette révolution avec réserve.

En revanche, elle occulte un mouvement de fond : la modification des marchés de l’assurance non vie liée à l’apparition de nouveautés technologiques, au déplacement des usages de la propriété au service, et au développement de l’économie du partage. Le risque majeur pour les assureurs n’est ici pas tant de voir un Google s’attaquer à l’assurance comme un compétiteur qu’une dilution de l’assurance au sein d’autres services.

Reconnaitrons-nous encore notre assureur en 2030 ?

Pierre François

Solvabilité 2, la fabrique d’une tabula rasa

La régulation prudentielle à l’œuvre dans le secteur des assurances à la fin des années 1990 est marquée par une volte-face de la Commission européenne entre 1997, où elle prône le statu quo, et 1999, où elle décide de procéder à une tabula rasa.

Cette volte-face constitue une étape, subite et spectaculaire, dans un processus (très progressif) de mise au point et d’imposition de nouveaux cadres cognitifs et institutionnels au monde de l’assurance : au cours des années 1990, quelques entreprises et des régulateurs, de plus en plus nombreux, les endossent au moins pour partie.

Le revirement de la Commission, à la fin des années 1990, se comprend dès lors comme le moment où la pénétration de ces nouveaux cadres chez les acteurs du monde assuranciel est telle que la Commission ne peut plus les tenir à distance mais doit les mettre au centre du jeu.

Sylvestre Frezal

Le couple risque/rendement : une chimère ?

Le couple risque rendement souffre d’un vice conceptuel, rédhibitoire pour un usage opérationnel : l’incohérence temporelle entre les deux indicateurs. L’espérance n’existe que sur le long terme, lorsqu’elle s’incarne dans une moyenne d’où le risque disparaît ; le risque est présent à plus court terme et lorsqu’on y est exposé, sa matérialisation rend l’espérance vide de sens.

Les outils fondés sur l’optimisation d’un couple risque/rendement quantifié ne sont pas des outils pertinents d’aide aux décisions d’investissement. Bien au contraire, ils dégradent la qualité de la prise de décision, de plusieurs façons.

Une méthodologie alternative est proposée.

Sylvestre Frezal

Re-penser le risque. Aléa et hétérogénéité : l'amalgame tyrannique

Les statistiques ont été conçues pour décrire l’hétérogénéité. Les assureurs se les sont appropriées dans ce cadre avec efficacité pour leur activité métier.

Mais, depuis quelques décennies, les financiers et les assureurs tentent d’utiliser ces outils pour gérer leur propre aléa, par exemple au sein de leur direction des risques.

Nous mettons en évidence le contresens associé, explorons ses conséquences en termes de pilotage, et proposons une méthodologie alternative de gestion des risques.

Working Papers

Arthur Charpentier & Xavier Vamparys

Working Paper #32 | Octobre 2023

Intelligence artificielle et individualisation des garanties en assurance : échec ou retard à l’allumage ?

Derrière l’engouement suscité par l’utilisation de l’intelligence artificielle dans le secteur de l’assurance se cache une réalité plus nuancée. Prenons par exemple l’assurance automobile et l’assurance santé. Les tentatives d’usage de l’intelligence artificielle à des fins de tarification n’y ont pour le moment pas engendré le « changement de paradigme » pourtant annoncé. Pourquoi ? Plusieurs raisons peuvent être invoquées, qui vont des fondamentaux de l’assurance au choix assumé de certains assureurs de ne pas toucher à la mutualisation des risques, dans un contexte marqué par deux tendances opposées : la recherche par les consommateurs de services et produits toujours plus personnalisés et le refus sociétal de solutions qui laisseraient certains individus au bord du chemin de l’assurabilité.

Chloé Bérut

Working Paper #31 | mai 2023

L’accès aux données de santé en France : ouverture en trompe l’œil et industrialisation de l’usage des données (période 2010-2020)

Ce second working paper a pour objectif d’analyser les transformations de la régulation de l’accès aux données de santé qui s’opèrent à partir du début des années 2010. Le début de cette décennie est en effet marqué par une forme de politisation de l’enjeu des données de santé, qui intéresse un nombre toujours plus grand d’acteurs et gagne en visibilité dans l’espace public. Suite à plusieurs ‘affaires’ (et notamment l’affaire Mediator des laboratoires Servier), l’État entame un travail de formulation d’une doctrine plus claire en matière d’accès aux données de santé. À l’issue de ce processus, un article sur les données de santé est adopté dans la loi de modernisation de notre système de santé de 2016. Cet article uniformise les procédures d’accès aux différentes bases de données, et renforce les conditions d’accès aux données de santé pour de nombreux acteurs du secteur privé. En parallèle, il facilite l’accès aux données de santé pour les acteurs du secteur public. Depuis la loi de 2016, l’essentiel des transformations opérées dans ce secteur sont d’ordre technique, avec la création d’une ‘plateforme des données de santé’ (Health Data Hub) qui vise à permettre un usage industriel des données de santé.

Chloé Bérut

Working Paper #30 | mars 2023

L’accès aux données de santé en France : de la création des bases à leur ouverture ‘en sourdine’ par l’Institut des Données de Santé (période 1990-2010)

Ce second working paper a pour objectif d’analyser les transformations de la régulation de l’accès aux données de santé qui s’opèrent à partir du début des années 2010. Le début de cette décennie est en effet marqué par une forme de politisation de l’enjeu des données de santé, qui intéresse un nombre toujours plus grand d’acteurs et gagne en visibilité dans l’espace public. Suite à plusieurs ‘affaires’ (et notamment l’affaire Mediator des laboratoires Servier), l’État entame un travail de formulation d’une doctrine plus claire en matière d’accès aux données de santé. À l’issue de ce processus, un article sur les données de santé est adopté dans la loi de modernisation de notre système de santé de 2016. Cet article uniformise les procédures d’accès aux différentes bases de données, et renforce les conditions d’accès aux données de santé pour de nombreux acteurs du secteur privé. En parallèle, il facilite l’accès aux données de santé pour les acteurs du secteur public. Depuis la loi de 2016, l’essentiel des transformations opérées dans ce secteur sont d’ordre technique, avec la création d’une ‘plateforme des données de santé’ (Health Data Hub) qui vise à permettre un usage industriel des données de santé.

Julien Caranton

Working Paper #29 | mars 2023

Dérèglementation de l’assurance et expertise. Le cas de l’assurance automobile en France (années 1960-2000)

Contrairement au secteur bancaire et aux marchés financiers, l’assurance privée est un champ de recherche encore peu investi par l’historiographie. Pour l’historien André Straus, deux éléments expliquent ce retard. Le premier est d’ordre culturel, l’assurance renvoyant une image négative auprès du public et des chercheurs. Le second élément est patrimonial. Jusque très récemment, les sociétés d’assurance n’ont ressenti aucun intérêt « pour la conservation et le classement professionnel de leurs archives ». Ce constat a cependant évolué depuis quelques années. D’une part, une série de travaux a entrepris une histoire intellectuelle et professionnelle de l’actuariat. D’autre part, les pratiques de la mesure des risques et des incertitudes, qu’elles relèvent de l’initiative publique ou privée, commence à rencontrer un certain écho au sein de la communauté historienne. Ce présent article, en prenant le cas de la tarification de la responsabilité civile automobile, propose un éclairage sur les pratiques des techniciens de l’assurance privée en matière de d’évaluation des risques et tarification entre les années 1960 et 2000.

Laurence Barry

Working Paper #28 | août 2022

La prime d’assurance à l’ère des données massives : signal du risque ou récompense ?

Dans la littérature assurantielle, la prime est parfois présentée comme signal du risque, c’est-à-dire comme moyen de transmission d’une information de l’assureur à l’assuré (rationnel) afin de favoriser des comportements plus prudents et donc la prévention. Cette perception de la prime comme signal est pourtant assez contre-intuitive : on imagine en effet qu’une prime plus élevée conduira aussi, ou plutôt, les assurés-consommateurs à renoncer à l’assurance. L’objet de cet article est de mettre en évidence le cadre discursif dans lequel est née la notion de prime comme signal et son déplacement récent lié aux données massives. Ce n’est pas dans l’économie néoclassique mais dans la théorie de la décision que prend forme cette notion, accompagnée d’une transformation de la perception de l’homo economicus. Le score de risque individualisé grâce aux données massives donnerait un meilleur signal que les primes classiques. Cependant dans un contexte théorique de remise en cause de l’homo economicus, le score ne sert plus de signal mais de récompense.

Pierre François

Working Paper #27 | avril 2022

La révolution qui n’a pas eu lieu. Télématiques et assurance automobile dans les années 2010.

Les tentatives de recourir aux Big Data pour transformer la tarification de l’assurance automobile, en France, se sont soldées par un échec au moins temporaire. Pourquoi ? En comparant quatre offres proposées par deux entreprises, une capitaliste et une mutualiste, trois grandes explications sont discutées pour expliquer cet échec : le poids des inerties organisationnelles, des préventions normatives, ou la mise en œuvre d’une stratégie délibérée. Les réticences morales ou politiques ne jouent qu’un rôle secondaire. L’échec des dispositifs télématiques est le résultat d’une stratégie d’expérimentation qui conclue qu’à court et moyen terme au moins, le recours aux Big Data pour tarifer les assurances automobile n’est pas rentable.

Laurence Barry & Arthur Charpentier

Working Paper #26 | février 2022

L’équité de l’apprentissage machine en assurance

Depuis le début de leur histoire, les assureurs sont réputés utiliser des données pour classer et tarifer les risques. A ce titre, ils ont été assez tôt confrontés aux problèmes d’équité et de discrimination associées aux données. Pourtant, si cette question est récurrente, elle connait un regain d’importance avec l’accès à des données de plus en plus granulaires, massives et comportementales. Nous verrons ici comment les biais de l’apprentissage machine en assurance renouvellent ou transforment ce questionnement pour rendre compte des technologies et des préoccupations sociétales actuelles : paradoxalement, alors que la plupart de ces biais ne sont pas nouveaux, la recherche d’une équité pour les contrer, elle, se transforme.

Cyril Benoit, Fanny Devaux & Yasmine Tuffy

Working Paper #25 | décembre 2021

Big Data, régulation financière et trajectoires organisationnelles dans l’industrie de l’assurance

Alors que le Big Data a été régulièrement présenté comme une révolution pour l’industrie de l’assurance, des analyses récentes suggèrent que ses effets sur les activités des entreprises demeurent assez limités. L’article soutient que cet apparent décalage pourrait avoir partie liée avec les évolutions de la régulation du secteur après la crise financière de 2007-2008. Plus précisément, nous formulons l’hypothèse que la directive européenne Solvabilité II aurait favorisé l’introduction de normes, de principes de gouvernance et de hiérarchies au prisme desquels le Big Data aurait été assimilé. Aux régulations précédentes basées sur un ensemble étroit et fixe de prescriptions coercitives, nous montrons que Solvabilité II a en effet substitué un dense réseau de concepts, conditionnant l’adaptation des firmes aux diverses évolutions associées au Big Data. Cet argument est établi sur la base d’une riche analyse documentaire, ainsi que sur une campagne d’entretiens ciblés au sein de deux firmes d’assurances françaises. Ce faisant, l’article contribue à l’étude de l’industrie financière, et plus globalement, à la compréhension du rapport entre transformation industrielle, régulation économique et dynamiques organisationnelles.

Pierre François

Working Paper #24 | octobre 2021

Catégorisation, individualisation. Retour sur les scores de crédit

Les big data sont souvent identifiées comme un outil de remise en cause fondamentale du modèle économique des entreprises d’assurance et de ce qui en constitue le fondement : la mutualisation des risques et l’impossibilité de proposer une mesure du risque attaché à tel ou tel assuré. Ainsi présentées, les big data constitueraient une révolution comparable à celles qu’ont connu les assureurs à la fin du XVIIIe Siècle, quand ils ont commencé à utiliser le calcul des probabilités. Des expériences, parfois fort anciennes, existent cependant, qui ont tenté de proposer une mesure individualisée des risques. C’est le cas, en particulier, des scores de crédit, dont les déclinaisons historiques relèvent de deux logiques très différentes : la catégorisation et l’individualisation. L’article propose un bilan des travaux portant sur ce dispositif de gestion des risques, en comparant les cas français et états-uniens sur quatre principaux points : l’invention des scores ; leur modalité de calcul ; les usages ; leurs conséquences.

Laurence Barry

Working Paper #23 | décembre 2020

Les scores ont-ils un sens ?

Cette étude est une tentative de mise à plat d’une interprétation des scores tels qu’ils sont calculés dans les grandes familles de modèles, et une critique du glissement sémantique vers une interprétation individuelle. Nous partirons des débats historiques sur l’interprétation des probabilités, débats qui se sont tus dès les années cinquante, sans pour autant avoir fourni une réponse consensuelle. De ces interprétations aucune ne s’applique parfaitement aux scores actuels, sauf peut-être la propension proposée par Karl Popper dans le contexte d’une polémique de mécanique quantique. Après avoir mis en avant le glissement des probabilités aux scores (comme propension ?) dans les modèles de data science, nous montrons les limites de l’interprétation individuelle dans ses applications aux phénomènes sociaux.

Arthur Charpentier, Laurence Barry & Molly R. James

Working Paper #22 | octobre 2020

Insurance against Natural Catastrophes Balancing Actuarial Fairness and Social Solidarity

Les catastrophes naturelles offrent un cas particulier pour l’étude du mix assurances privées/publiques. En effet, l’expérience accumulée au cours des dernières décennies a permis de transformer des dangers mal connus, longtemps considérés comme non assurables, en risques évalués avec une certaine précision. Ces risques illustrent toutefois les limites de la méthode dite « risk-based », car elle pourrait rendre l’assurance économiquement inaccessible pour certains. Historiquement, le régime français a été conçu pour rendre compte de cette difficulté et offrir une couverture la plus large possible pour une prime modérée. Mais ce régime est ébranlé aujourd’hui, notamment par le changement climatique : cette étude montre que certaines régions plus riches, qui n’étaient pas perçues comme « à risque » dans le passé, sont devenues exposées au risque de submersion dans un futur proche. Ainsi certaines propriétés aisées se retrouvent potentiellement bénéficiaires d’un régime censé protéger les plus démunis. Dans une perspective où une certaine segmentation pourrait devenir souhaitable, cette étude propose plusieurs modèles de tarification du risque inondation, en mettant en évidence de la disparité des primes qu’ils impliquent.

Pierre François

Working Paper #21 | mai 2020

Financiariser l’assurance

Ce texte constitue le chapitre 2 du livre portant sur Solvabilité II, sa nature, son histoire et ses conséquences, qui paraîtra dans les mois qui viennent aux Presses de Sciences Po. Il permet de replacer Solvabilité II dans la trajectoire de financiarisation des économies européennes.

Solvabilité II constitue une étape décisive dans la financiarisation – entendue comme l’imposition de logiques d’actions financières – du secteur assuranciel européen. Le nouveau dispositif prudentiel incorpore en effet des éléments déterminants de la théorie financière qui, dans l’ancien dispositif de régulation, étaient jusque-là marginaux ou absents. En incorporant ces hypothèses, ces raisonnements et ces outils, Solvabilité II les diffuse et les impose à l’ensemble des entreprises du secteur, y compris à celles qui, jusque-là, par choix délibéré ou par ignorance tacite, s’en étaient jusque-là tenues éloignées. Comme dans d’autres secteurs auparavant, les règles imposées par la puissance publique (en l’occurrence l’Union européenne) constituent un très puissant vecteur de financiarisation des économies occidentales.

Laurence Barry

Working Paper #20 | mai 2020

Individu/collectif : l’épidémiologie à l’épreuve du big data (ou l’inverse) ?

Ce papier est une tentative de réflexion sur cette situation inédite qui affecte le monde depuis plusieurs semaines. Ecrit au coeur de la tourmente, il est nécessairement maladroit. Il nous semblait pourtant qu’une mise en perspective dans le cadre épistémologique des réflexions menées au sein de PARI pouvait apporter un éclairage intéressant sur les débats actuels. Instruit de données dynamiques et conjoncturelles, il ne s’agit pas vraiment d’un working paper au sens habituel.

Le digital permettra-t-il d’apporter une réponse efficace à la gestion des pandémies ? Dans une approche rétrospective, les épidémies apparaissent au coeur de l’émergence du concept de population et des outils statistiques, tout en imposant un point de résistance à leur approche globale. Le contrôle de la contagion passe en effet par la détection de cas, et semble en cela en parfaite congruence conceptuelle avec les technologies actuelles d’intelligence artificielle. Pour autant, les résistances sont nombreuses et symptomatiques, à la fois de nos appréhensions et des forces et faiblesses de l’état actuel de ces techniques.

Julien Caranton

Working Paper #19 | avril 2020

Quand le réformisme conservateur gagne les assurances

Ce papier propose d’analyser la manière dont la direction des Assurances conçoit le prix de la responsabilité civile automobile durant les décennies 1960-1970. Cette institution, chargée de la règlementation et de la surveillance du secteur des assurances, défend l’idée qu’il existe un prix juste de l’assurance automobile, appréhendable par une combinaison entre la détermination de larges classes d’équivalence et une forme de personnalisation des risques. Dans cette conception, le rôle des fonctionnaires de la Direction consiste à guider les sociétés vers ce prix. Nous montrons ici comment ce cadre de pensée s’est construit et analysons ses conséquences sur le marché de l’assurance automobile au cours de la décennie 1970.

Laurence Barry

Working Paper #18 | février 2020

L’invention du risque catastrophes naturelles

Cette étude a pour objet le régime d’indemnisation des catastrophes naturelles en France. Après une revue de la notion d’aléa moral, nous verrons comment le législateur articule en 1982 solidarité et responsabilité dans un régime qui allie l’Etat et les compagnies d’assurance. Pourtant, comme le remarquent Baker et Simon, quelque chose se joue dans les sociétés occidentales à partir des années quatre-vingt qui conduit à la remise en cause du paradigme d’une assurance sociale sur la base d’une mutualisation très large, en faveur d’un paradigme centré sur la prise de risque individuelle, où la responsabilité et la responsabilisation semblent primer sur la solidarité. La transformation des catastrophes naturelles en risque au cours des deux dernières décennies, rendue possible par la multiplication des données et les nouveaux algorithmes, réinterroge elle aussi l’équilibre entre solidarité et responsabilité. Les implications pour le régime actuel sont enfin examinées.

Laurence Barry & Arthur Charpentier

Working Paper #17 | décembre 2019

Personalization as a Promise: Can Big Data Change the Practice of Insurance?

Ce papier a pour objet une mesure de l’impact des technologies issues du big data sur la tarification des produits d’assurance automobile. La première partie décrit comment le point de vue agrégé construit par les statistiques permet de mettre en évidence des régularités invisibles au niveau individuel. La deuxième partie met en avant le retournement de perspective induit par le big data dans l’analyse des données ; avec leur volume et les nouveaux algorithmes, le point de vue agrégé se trouve remis en cause. La troisième partie étudie enfin l’influence des boitiers télématiques à même d’importer le nouveau paradigme en assurance automobile. Une lecture des articles de recherches les plus récents sur une tarification automobile incluant ces nouvelles données montre cependant que le saut épistémologique, du moins pour l’instant, n’a pas eu lieu.

Pierre François

Working Paper #16 | septembre 2019

Le jour sans fin d’Omnibus II

L’adoption de la directive Solvabilité II, durant l’été 2009, ne clôt pas les débats autour du nouveau dispositif prudentiel. Alors que les discussions se concentrent sur les mesures d’application de la directive, très vite les discussions entre l’industrie européenne, d’une part, le(s) régulateur(s)(CEIOPS puis EIOPA, et Commission) d’autre part se tendent et virent au conflit ouvert. Les discussions autour des nouvelles règles du jeu dureront encore quatre ans. Elles portent sur l’ajout de mesures spécifiques permettant d’atténuer les conséquences de la directive pour l’industrie, dans un contexte économique extrêmement tendu, marqué en particulier par la baisse des taux.

Laurence Barry

Working Paper #15 | avril 2019

Justice ou justesse ? L'équité de l'assurance

Les mécanismes d’assurance ont historiquement promu une conception de l’équité fondée sur la solidarité d’une approche collective : alors que les aléas individuels relevaient d’une méconnaissance fondamentale, le risque pouvait lui se mesurer et être géré globalement sur des populations. Le texte propose une lecture des proceedings de la société actuarielle américaine (CAS) au long du vingtième siècle et souligne la lente cristallisation d’une autre conception de l’équité, rivale de la première. Cette équité, dite équité actuarielle, vise à un ajustement de la prime au risque individuel. Cette évolution se trouve aujourd’hui potentiellement radicalisée par les technologies du big data et les algorithmes. Tournés vers la prédiction plutôt que l’estimation de moyennes, ces derniers contribuent ainsi à remplacer l’équité comme justice par la justesse d’un calcul.

Pierre François

Working Paper #14 | janvier 2019

La machine infernale. Fermeture des possibles et négociation par temps de crise (1999-2009)

En 1999, l’unité d’assurance de la Commission européenne annonce le lancement d’un chantier de refonte du régime prudentiel du secteur assuranciel. Ce n’est qu’en 2009, dix ans plus tard, que la directive Solvabilité II sera adoptée par le Conseil et le Parlement européens. Le texte retrace la manière dont les grandes options qui fondent la directive ont été arrêtées, d’abord dans un cénacle étroit, puis lors d’échanges sans cesse élargis. Il analyse ensuite les négociations qui finalisent la directive, et la rupture qu’y introduit la faillite de Lehmann Brothers, en septembre 2008.

Pierre François & Laurence Barry

Working Paper #13 | novembre 2018

Les enjeux du Big Data pour l'assurance

Programme de recherche 2018-2021

PRESSE

Laurence Barry, Thierry Cohignac, Guillaume Rosolek, Barbara Zucconi

Les catastrophes naturelles en France à l’épreuve du XXIè siècle

L’Actuariel Magazine, Septembre 2021

Laurence Barry

Appréhension du risque automobile : une petite histoire américaine de l’équité assurantielle

Variances.eu, (Dossier Risques, Sélection 2019), Octobre 2019