Ouvrages et articles ACADEMIQUES
Laurence Barry
The moral economies of natural disasters insurance: solidarity or individual responsibility?
Journal of Cultural Economy, Octobre 2023
Laurence Barry & Arthur Charpentier
Melting contestation: insurance fairness and machine learning
Ethics & Information Technology 25, 49, Septembre 2023
Elsa Clara Massoc & Cyril Benoit
A tale of dualization: accounting for the partial marketization of regulated savings in France
Review of International Political Economy, Septembre 2023
Cyril Benoît, Fanny Devaux et Yasmine Tuffy
Big Data, régulation financière et trajectoires organisationnelles dans le secteur de l’assurance
Sociologie du travail ,Vol. 64 – n° 4 , Octobre-Décembre 2022
Arthur Charpentier et Laurence Barry
L’équité de l’apprentissage machine en assurance
Statistique et Société ,Vol. 10 No. 3 (2022)
Julien Caranton
Un premier tournant libéral dans les assurances ? La direction des Assurances et la personnalisation des primes de la responsabilité civile automobile (années 1960-1970)
Revue d’histoire moderne & contemporaine, 2022-3
Pierre François & Théo Voldoire
The revolution that did not happen: Telematics and car insurance in the 2010s
SAGE journals, Big Data & Society, First Online November 2022
Laurence Barry
Epidemic and Insurance: Two Forms of Solidarity
SAGE journals, Theory, Culture & Society, First Online May 2022
Pierre François
Financiariser l’Assurance, enquête sur Solvabilité II
Sciences Po-Les Presses, 2021
Le 23 septembre 2021, à l’occasion de la sortie du livre de Pierre François,
avec la collaboration de Sylvestre Frézal, Financiariser l’assurance, enquête sur Solvabilité II, le Centre de Sociologie des Organisations (Sciences Po – CNRS) et la chaire PARI proposaient un débat sur le thème : « Assurance : quelle dynamique entre marché et régulation ? ».
Arthur Charpentier, Laurence Barry & Molly R. James
Insurance against natural catastrophes: balancing actuarial fairness and social solidarity
The Geneva Papers on Risk and Insurance, 2021
Laurence Barry
Insurance, Big Data and Changing Conceptions of Fairness
European Journal of Sociology, Cambridge University Press, July 2020
Laurence Barry & Arthur Charpentier
Personalization as a promise: Can Big Data change the practice of insurance?
SAGE journals, Big Data & Society, First Online June 2020
Sylvestre Frezal & Laurence Barry
Fairness in Uncertainty: Some Limits and Misinterpretations of Actuarial Fairness
Journal of Business Ethics, First Online May 2019
Sylvestre Frezal
Quand les statistiques minent la finance et la société. Risque, responsabilité et décision
Editions L’Harmattan, Collection L'Esprit économique, 2018
Face à l’incertitude, les outils statistiques sont comme l’alcool : ils donnent du cœur au ventre, aident à prendre une décision, et permettent ensuite de se justifier si la situation tourne mal. Mais, comme l’alcool, ils biaisent notre perception de l’environnement, dégradent la qualité de la prise de décision et déresponsabilisent.
Cet ouvrage montre que les outils de quantification des risques sont issus de la transposition illégitime et mal maîtrisée des concepts statistiques depuis un champ où ils avaient du sens vers un domaine où ils n’en ont pas. Il détaille plusieurs cas d’école, montrant comment l’économie et la finance se fourvoient et expliquant pourquoi la société est incapable d’appréhender le risque.
Surtout, il présente une grille de lecture permettant d’identifier les limites de ces outils et propose, lorsqu’ils ne sont plus efficaces, une attitude et une méthode alternative pour la gestion des risques et la prise de décision en incertain.
Sylvestre Frezal
Solvency II is Not Risk Based. Could it be? Evidence from Non Life Calibrations
North American Actuarial Journal, 2018
Pierre François & Sylvestre Frézal
Instituer l’incohérence. Aléa et hétérogénéité au sein du secteur assuranciel
Sociologie du Travail, 2018
EXEC SUMS
Chloé Bérut
Ouvrir puis refermer : les dynamiques d’accès aux données de santé en France depuis les années 1990
Aujourd’hui, l’exploitation des données numériques liées à la santé est un enjeu crucial de la scène politique, comme en témoigne la récente création du ‘Health Data Hub’ en France ainsi que les travaux européens menés sur l’‘espace européen des données de santé’. si l’intérêt pour ce type de données s’est accru au cours de la dernière décennie, notamment à la faveur de l’émergence des techniques de Big Data et d’Intelligence Artificielle, la création des bases de données de santé en France remonte en réalité aux années 1990. Aussi les règles et dispositifs actuels de régulation de l’accès aux données de santé se sont-ils construits à partir d’une série d’évolutions politiques que cet executive summary se propose de résumer (voir WP #30 et WP #31 pour une information détaillée). À partir des résultats d’une enquête qualitative menée en 2022, ce document revient sur les différentes séquences de la régulation de l’accès aux données de santé en France. ce faisant, une analyse de la création des bases de données et des dynamiques d’ouverture opérées au cours des années 2000 est proposée, ainsi qu’un compte-rendu de la restructuration plus récente de l’accès aux données de santé suite à la réforme de 2016, qui marque une dynamique de fermeture de l’accès pour de nombreux acteurs non-étatiques.
Assurance : quelle dynamique entre marché et régulation ?
Le 23 septembre 2021, à l’occasion de la sortie du livre de Pierre François, avec la collaboration de Sylvestre Frézal, Financiariser l’assurance, enquête sur Solvabilité II, le Centre de Sociologie des Organisations (Sciences Po – CNRS) et la chaire PARI proposaient un débat sur le thème « Assurance : quelle dynamique entre marché et régulation ? » . En voici les meilleurs extraits.
Sylvestre Frezal
Solvabilité 2 : bilan et propositions d’évolution
Solvabilité 2, malgré une gestation difficile, a incarné l’état de l’art en matière de régulation prudentielle des assurances. Début 2016, elle est entrée en vigueur. Déjà, en Europe, elle entre dans une phase de révision. Hors d’Europe, les pays la copient, s’en inspirent ou la rejettent. Dans ce cadre, nous présentons un retour d’expérience qui identifie les améliorations apportées par Solvabilité 2 et ses échecs, et permet de dégager des pistes d’amélioration ainsi que des do/don’t pour les autres refontes de régulation prudentielle à venir.
Sylvestre Frezal, Eléonore Haguet & Virak Nou
Contrats avec PB et régulation procyclicique : inéluctabilité, avantages et inconvénients
Les exigences de capital générées par une réglementation risk based, en vision économique, sont structurellement procycliques lorsqu’elles sont appliquées à des contrats avec participation aux bénéfices. Tout palliatif ne pourra donc être qu’une rustine.
Toutefois, cette grandeur largement formelle présente peu d’intérêt. Le capital à immobiliser, qui prend en compte à la fois les exigences de capital générées et les fonds propres créés ou détruits par les contrats, correspond davantage aux préoccupations des dirigeants. La sensibilité aux pertes du capital à immobiliser est également un outil de régulation précieux, source d’incitation à piloter les risques.
Nous discutons des avantages et inconvénients comparés de Solvabilité 1 et Solvabilité 2 à la lumière de ces deux indicateurs.
Sylvestre Frezal
Solvabilité 2 est-il risk based ? Quand le bruit noie le signal
L’exigence de capital sous Solvabilité 2 est réputée être fondée sur une mesure de risque. A l’aide de tests de robustesse interne, nous montrons que cette mesure n’est pas fiable, le bruit la parasitant étant d’une amplitude comparable à celle du signal qu’on cherche à capter. Nous montrons également que, au fil des calibrages de Solvabilité 2, les mesures censées nous éclairer sur le fait que telle branche serait plus risquée que telle autre sont, dans 80% des cas, démenties par une étude ultérieure, avant le cas échéant de se retourner de nouveau.
Ceci remet en cause la pertinence de ce système pour fonder des décisions de régulation prudentielle ou éclairer les choix d’orientation stratégique ou de gestion des risques des organismes d’assurance.
Anne EA van der Graaf
Managing risks with the fairest values
Theoretically, one could think of fair values as representing the (unique) right market values. However, a given asset, at a given moment, has numerous market values. How is such a value chosen?
The fairest value is the one that brings the least problems along with it: the one that keeps insiders out of trouble. For example, if it is likely that a problem with the regulator, counterparty or liquidity would happen, a different market type can be chosen in order to get a different market value.
The fair value is the right value under the right circumstances. It is used to make sure the organisation’s health is guaranteed, not necessarily through the organisation’s actions but through its representation.
Sylvestre Frezal
De quoi Solvabilité 2 est-il le nom ?
Solvabilité 2 est réputée être une régulation prudentielle, ayant pour objectif de veiller aux intérêts des bénéficiaires de contrat d’assurance.
En décortiquant chacune de ses composantes quantitatives, nous montrons que, dans ses principes sous-jacents comme dans ses conséquences, Solvabilité 2 est davantage une réforme de communication financière visant à offrir aux analystes financiers et aux équipes de direction une grille d’analyse partagée, centrée sur le pilotage de la valeur pour l’investisseur, qu’une réforme prudentielle. Dans les choix techniques de Solvabilité 2, la création d’un marché européen des portefeuilles d’assurance apparaît ainsi comme le critère de décision prioritaire auquel la protection des assurés devient un objectif subordonné.
Nous présentons également les conséquences logiques qui pourraient en résulter et soulevons des pistes susceptibles d’expliquer cette situation.
Côme Berbain et Elisa Salamanca
L’assurance de demain : reconnaîtrons-nous notre assureur en 2030 ?
La révolution du « Big Data » atteint l’ensemble des secteurs et génère de nombreux fantasmes et peurs dans le domaine de l’assurance. Néanmoins de nombreuses limites structurelles et techniques doivent nous inciter à considérer les impacts de cette révolution avec réserve.
En revanche, elle occulte un mouvement de fond : la modification des marchés de l’assurance non vie liée à l’apparition de nouveautés technologiques, au déplacement des usages de la propriété au service, et au développement de l’économie du partage. Le risque majeur pour les assureurs n’est ici pas tant de voir un Google s’attaquer à l’assurance comme un compétiteur qu’une dilution de l’assurance au sein d’autres services.
Reconnaitrons-nous encore notre assureur en 2030 ?
Pierre François
Solvabilité 2, la fabrique d’une tabula rasa
La régulation prudentielle à l’œuvre dans le secteur des assurances à la fin des années 1990 est marquée par une volte-face de la Commission européenne entre 1997, où elle prône le statu quo, et 1999, où elle décide de procéder à une tabula rasa.
Cette volte-face constitue une étape, subite et spectaculaire, dans un processus (très progressif) de mise au point et d’imposition de nouveaux cadres cognitifs et institutionnels au monde de l’assurance : au cours des années 1990, quelques entreprises et des régulateurs, de plus en plus nombreux, les endossent au moins pour partie.
Le revirement de la Commission, à la fin des années 1990, se comprend dès lors comme le moment où la pénétration de ces nouveaux cadres chez les acteurs du monde assuranciel est telle que la Commission ne peut plus les tenir à distance mais doit les mettre au centre du jeu.
Sylvestre Frezal
Le couple risque/rendement : une chimère ?
Le couple risque rendement souffre d’un vice conceptuel, rédhibitoire pour un usage opérationnel : l’incohérence temporelle entre les deux indicateurs. L’espérance n’existe que sur le long terme, lorsqu’elle s’incarne dans une moyenne d’où le risque disparaît ; le risque est présent à plus court terme et lorsqu’on y est exposé, sa matérialisation rend l’espérance vide de sens.
Les outils fondés sur l’optimisation d’un couple risque/rendement quantifié ne sont pas des outils pertinents d’aide aux décisions d’investissement. Bien au contraire, ils dégradent la qualité de la prise de décision, de plusieurs façons.
Une méthodologie alternative est proposée.
Sylvestre Frezal
Re-penser le risque. Aléa et hétérogénéité : l'amalgame tyrannique
Les statistiques ont été conçues pour décrire l’hétérogénéité. Les assureurs se les sont appropriées dans ce cadre avec efficacité pour leur activité métier.
Mais, depuis quelques décennies, les financiers et les assureurs tentent d’utiliser ces outils pour gérer leur propre aléa, par exemple au sein de leur direction des risques.
Nous mettons en évidence le contresens associé, explorons ses conséquences en termes de pilotage, et proposons une méthodologie alternative de gestion des risques.
Working Papers
Arthur Charpentier & Xavier Vamparys
Working Paper #32 | Octobre 2023
Intelligence artificielle et individualisation des garanties en assurance : échec ou retard à l’allumage ?
Derrière l’engouement suscité par l’utilisation de l’intelligence artificielle dans le secteur de l’assurance se cache une réalité plus nuancée. Prenons par exemple l’assurance automobile et l’assurance santé. Les tentatives d’usage de l’intelligence artificielle à des fins de tarification n’y ont pour le moment pas engendré le « changement de paradigme » pourtant annoncé. Pourquoi ? Plusieurs raisons peuvent être invoquées, qui vont des fondamentaux de l’assurance au choix assumé de certains assureurs de ne pas toucher à la mutualisation des risques, dans un contexte marqué par deux tendances opposées : la recherche par les consommateurs de services et produits toujours plus personnalisés et le refus sociétal de solutions qui laisseraient certains individus au bord du chemin de l’assurabilité.
Chloé Bérut
Working Paper #31 | mai 2023
L’accès aux données de santé en France : ouverture en trompe l’œil et industrialisation de l’usage des données (période 2010-2020)
Ce second working paper a pour objectif d’analyser les transformations de la régulation de l’accès aux données de santé qui s’opèrent à partir du début des années 2010. Le début de cette décennie est en effet marqué par une forme de politisation de l’enjeu des données de santé, qui intéresse un nombre toujours plus grand d’acteurs et gagne en visibilité dans l’espace public. Suite à plusieurs ‘affaires’ (et notamment l’affaire Mediator des laboratoires Servier), l’État entame un travail de formulation d’une doctrine plus claire en matière d’accès aux données de santé. À l’issue de ce processus, un article sur les données de santé est adopté dans la loi de modernisation de notre système de santé de 2016. Cet article uniformise les procédures d’accès aux différentes bases de données, et renforce les conditions d’accès aux données de santé pour de nombreux acteurs du secteur privé. En parallèle, il facilite l’accès aux données de santé pour les acteurs du secteur public. Depuis la loi de 2016, l’essentiel des transformations opérées dans ce secteur sont d’ordre technique, avec la création d’une ‘plateforme des données de santé’ (Health Data Hub) qui vise à permettre un usage industriel des données de santé.
Chloé Bérut
Working Paper #30 | mars 2023
L’accès aux données de santé en France : de la création des bases à leur ouverture ‘en sourdine’ par l’Institut des Données de Santé (période 1990-2010)
Ce second working paper a pour objectif d’analyser les transformations de la régulation de l’accès aux données de santé qui s’opèrent à partir du début des années 2010. Le début de cette décennie est en effet marqué par une forme de politisation de l’enjeu des données de santé, qui intéresse un nombre toujours plus grand d’acteurs et gagne en visibilité dans l’espace public. Suite à plusieurs ‘affaires’ (et notamment l’affaire Mediator des laboratoires Servier), l’État entame un travail de formulation d’une doctrine plus claire en matière d’accès aux données de santé. À l’issue de ce processus, un article sur les données de santé est adopté dans la loi de modernisation de notre système de santé de 2016. Cet article uniformise les procédures d’accès aux différentes bases de données, et renforce les conditions d’accès aux données de santé pour de nombreux acteurs du secteur privé. En parallèle, il facilite l’accès aux données de santé pour les acteurs du secteur public. Depuis la loi de 2016, l’essentiel des transformations opérées dans ce secteur sont d’ordre technique, avec la création d’une ‘plateforme des données de santé’ (Health Data Hub) qui vise à permettre un usage industriel des données de santé.
Julien Caranton
Working Paper #29 | mars 2023
Dérèglementation de l’assurance et expertise. Le cas de l’assurance automobile en France (années 1960-2000)
Contrairement au secteur bancaire et aux marchés financiers, l’assurance privée est un champ de recherche encore peu investi par l’historiographie. Pour l’historien André Straus, deux éléments expliquent ce retard. Le premier est d’ordre culturel, l’assurance renvoyant une image négative auprès du public et des chercheurs. Le second élément est patrimonial. Jusque très récemment, les sociétés d’assurance n’ont ressenti aucun intérêt « pour la conservation et le classement professionnel de leurs archives ». Ce constat a cependant évolué depuis quelques années. D’une part, une série de travaux a entrepris une histoire intellectuelle et professionnelle de l’actuariat. D’autre part, les pratiques de la mesure des risques et des incertitudes, qu’elles relèvent de l’initiative publique ou privée, commence à rencontrer un certain écho au sein de la communauté historienne. Ce présent article, en prenant le cas de la tarification de la responsabilité civile automobile, propose un éclairage sur les pratiques des techniciens de l’assurance privée en matière de d’évaluation des risques et tarification entre les années 1960 et 2000.
Laurence Barry
Working Paper #28 | août 2022
La prime d’assurance à l’ère des données massives : signal du risque ou récompense ?
Dans la littérature assurantielle, la prime est parfois présentée comme signal du risque, c’est-à-dire comme moyen de transmission d’une information de l’assureur à l’assuré (rationnel) afin de favoriser des comportements plus prudents et donc la prévention. Cette perception de la prime comme signal est pourtant assez contre-intuitive : on imagine en effet qu’une prime plus élevée conduira aussi, ou plutôt, les assurés-consommateurs à renoncer à l’assurance. L’objet de cet article est de mettre en évidence le cadre discursif dans lequel est née la notion de prime comme signal et son déplacement récent lié aux données massives. Ce n’est pas dans l’économie néoclassique mais dans la théorie de la décision que prend forme cette notion, accompagnée d’une transformation de la perception de l’homo economicus. Le score de risque individualisé grâce aux données massives donnerait un meilleur signal que les primes classiques. Cependant dans un contexte théorique de remise en cause de l’homo economicus, le score ne sert plus de signal mais de récompense.
Pierre François
Working Paper #27 | avril 2022
La révolution qui n’a pas eu lieu. Télématiques et assurance automobile dans les années 2010.
Les tentatives de recourir aux Big Data pour transformer la tarification de l’assurance automobile, en France, se sont soldées par un échec au moins temporaire. Pourquoi ? En comparant quatre offres proposées par deux entreprises, une capitaliste et une mutualiste, trois grandes explications sont discutées pour expliquer cet échec : le poids des inerties organisationnelles, des préventions normatives, ou la mise en œuvre d’une stratégie délibérée. Les réticences morales ou politiques ne jouent qu’un rôle secondaire. L’échec des dispositifs télématiques est le résultat d’une stratégie d’expérimentation qui conclue qu’à court et moyen terme au moins, le recours aux Big Data pour tarifer les assurances automobile n’est pas rentable.
Laurence Barry & Arthur Charpentier
Working Paper #26 | février 2022
L’équité de l’apprentissage machine en assurance
Depuis le début de leur histoire, les assureurs sont réputés utiliser des données pour classer et tarifer les risques. A ce titre, ils ont été assez tôt confrontés aux problèmes d’équité et de discrimination associées aux données. Pourtant, si cette question est récurrente, elle connait un regain d’importance avec l’accès à des données de plus en plus granulaires, massives et comportementales. Nous verrons ici comment les biais de l’apprentissage machine en assurance renouvellent ou transforment ce questionnement pour rendre compte des technologies et des préoccupations sociétales actuelles : paradoxalement, alors que la plupart de ces biais ne sont pas nouveaux, la recherche d’une équité pour les contrer, elle, se transforme.
Cyril Benoit, Fanny Devaux & Yasmine Tuffy
Working Paper #25 | décembre 2021
Big Data, régulation financière et trajectoires organisationnelles dans l’industrie de l’assurance
Alors que le Big Data a été régulièrement présenté comme une révolution pour l’industrie de l’assurance, des analyses récentes suggèrent que ses effets sur les activités des entreprises demeurent assez limités. L’article soutient que cet apparent décalage pourrait avoir partie liée avec les évolutions de la régulation du secteur après la crise financière de 2007-2008. Plus précisément, nous formulons l’hypothèse que la directive européenne Solvabilité II aurait favorisé l’introduction de normes, de principes de gouvernance et de hiérarchies au prisme desquels le Big Data aurait été assimilé. Aux régulations précédentes basées sur un ensemble étroit et fixe de prescriptions coercitives, nous montrons que Solvabilité II a en effet substitué un dense réseau de concepts, conditionnant l’adaptation des firmes aux diverses évolutions associées au Big Data. Cet argument est établi sur la base d’une riche analyse documentaire, ainsi que sur une campagne d’entretiens ciblés au sein de deux firmes d’assurances françaises. Ce faisant, l’article contribue à l’étude de l’industrie financière, et plus globalement, à la compréhension du rapport entre transformation industrielle, régulation économique et dynamiques organisationnelles.
Pierre François
Working Paper #24 | octobre 2021
Catégorisation, individualisation. Retour sur les scores de crédit
Les big data sont souvent identifiées comme un outil de remise en cause fondamentale du modèle économique des entreprises d’assurance et de ce qui en constitue le fondement : la mutualisation des risques et l’impossibilité de proposer une mesure du risque attaché à tel ou tel assuré. Ainsi présentées, les big data constitueraient une révolution comparable à celles qu’ont connu les assureurs à la fin du XVIIIe Siècle, quand ils ont commencé à utiliser le calcul des probabilités. Des expériences, parfois fort anciennes, existent cependant, qui ont tenté de proposer une mesure individualisée des risques. C’est le cas, en particulier, des scores de crédit, dont les déclinaisons historiques relèvent de deux logiques très différentes : la catégorisation et l’individualisation. L’article propose un bilan des travaux portant sur ce dispositif de gestion des risques, en comparant les cas français et états-uniens sur quatre principaux points : l’invention des scores ; leur modalité de calcul ; les usages ; leurs conséquences.
Laurence Barry
Working Paper #23 | décembre 2020
Les scores ont-ils un sens ?
Cette étude est une tentative de mise à plat d’une interprétation des scores tels qu’ils sont calculés dans les grandes familles de modèles, et une critique du glissement sémantique vers une interprétation individuelle. Nous partirons des débats historiques sur l’interprétation des probabilités, débats qui se sont tus dès les années cinquante, sans pour autant avoir fourni une réponse consensuelle. De ces interprétations aucune ne s’applique parfaitement aux scores actuels, sauf peut-être la propension proposée par Karl Popper dans le contexte d’une polémique de mécanique quantique. Après avoir mis en avant le glissement des probabilités aux scores (comme propension ?) dans les modèles de data science, nous montrons les limites de l’interprétation individuelle dans ses applications aux phénomènes sociaux.
Arthur Charpentier, Laurence Barry & Molly R. James
Working Paper #22 | octobre 2020
Insurance against Natural Catastrophes Balancing Actuarial Fairness and Social Solidarity
Les catastrophes naturelles offrent un cas particulier pour l’étude du mix assurances privées/publiques. En effet, l’expérience accumulée au cours des dernières décennies a permis de transformer des dangers mal connus, longtemps considérés comme non assurables, en risques évalués avec une certaine précision. Ces risques illustrent toutefois les limites de la méthode dite « risk-based », car elle pourrait rendre l’assurance économiquement inaccessible pour certains. Historiquement, le régime français a été conçu pour rendre compte de cette difficulté et offrir une couverture la plus large possible pour une prime modérée. Mais ce régime est ébranlé aujourd’hui, notamment par le changement climatique : cette étude montre que certaines régions plus riches, qui n’étaient pas perçues comme « à risque » dans le passé, sont devenues exposées au risque de submersion dans un futur proche. Ainsi certaines propriétés aisées se retrouvent potentiellement bénéficiaires d’un régime censé protéger les plus démunis. Dans une perspective où une certaine segmentation pourrait devenir souhaitable, cette étude propose plusieurs modèles de tarification du risque inondation, en mettant en évidence de la disparité des primes qu’ils impliquent.
Pierre François
Working Paper #21 | mai 2020
Financiariser l’assurance
Ce texte constitue le chapitre 2 du livre portant sur Solvabilité II, sa nature, son histoire et ses conséquences, qui paraîtra dans les mois qui viennent aux Presses de Sciences Po. Il permet de replacer Solvabilité II dans la trajectoire de financiarisation des économies européennes.
Solvabilité II constitue une étape décisive dans la financiarisation – entendue comme l’imposition de logiques d’actions financières – du secteur assuranciel européen. Le nouveau dispositif prudentiel incorpore en effet des éléments déterminants de la théorie financière qui, dans l’ancien dispositif de régulation, étaient jusque-là marginaux ou absents. En incorporant ces hypothèses, ces raisonnements et ces outils, Solvabilité II les diffuse et les impose à l’ensemble des entreprises du secteur, y compris à celles qui, jusque-là, par choix délibéré ou par ignorance tacite, s’en étaient jusque-là tenues éloignées. Comme dans d’autres secteurs auparavant, les règles imposées par la puissance publique (en l’occurrence l’Union européenne) constituent un très puissant vecteur de financiarisation des économies occidentales.
Laurence Barry
Working Paper #20 | mai 2020
Individu/collectif : l’épidémiologie à l’épreuve du big data (ou l’inverse) ?
Ce papier est une tentative de réflexion sur cette situation inédite qui affecte le monde depuis plusieurs semaines. Ecrit au coeur de la tourmente, il est nécessairement maladroit. Il nous semblait pourtant qu’une mise en perspective dans le cadre épistémologique des réflexions menées au sein de PARI pouvait apporter un éclairage intéressant sur les débats actuels. Instruit de données dynamiques et conjoncturelles, il ne s’agit pas vraiment d’un working paper au sens habituel.
Le digital permettra-t-il d’apporter une réponse efficace à la gestion des pandémies ? Dans une approche rétrospective, les épidémies apparaissent au coeur de l’émergence du concept de population et des outils statistiques, tout en imposant un point de résistance à leur approche globale. Le contrôle de la contagion passe en effet par la détection de cas, et semble en cela en parfaite congruence conceptuelle avec les technologies actuelles d’intelligence artificielle. Pour autant, les résistances sont nombreuses et symptomatiques, à la fois de nos appréhensions et des forces et faiblesses de l’état actuel de ces techniques.
Julien Caranton
Working Paper #19 | avril 2020
Quand le réformisme conservateur gagne les assurances
Ce papier propose d’analyser la manière dont la direction des Assurances conçoit le prix de la responsabilité civile automobile durant les décennies 1960-1970. Cette institution, chargée de la règlementation et de la surveillance du secteur des assurances, défend l’idée qu’il existe un prix juste de l’assurance automobile, appréhendable par une combinaison entre la détermination de larges classes d’équivalence et une forme de personnalisation des risques. Dans cette conception, le rôle des fonctionnaires de la Direction consiste à guider les sociétés vers ce prix. Nous montrons ici comment ce cadre de pensée s’est construit et analysons ses conséquences sur le marché de l’assurance automobile au cours de la décennie 1970.
Laurence Barry
Working Paper #18 | février 2020
L’invention du risque catastrophes naturelles
Cette étude a pour objet le régime d’indemnisation des catastrophes naturelles en France. Après une revue de la notion d’aléa moral, nous verrons comment le législateur articule en 1982 solidarité et responsabilité dans un régime qui allie l’Etat et les compagnies d’assurance. Pourtant, comme le remarquent Baker et Simon, quelque chose se joue dans les sociétés occidentales à partir des années quatre-vingt qui conduit à la remise en cause du paradigme d’une assurance sociale sur la base d’une mutualisation très large, en faveur d’un paradigme centré sur la prise de risque individuelle, où la responsabilité et la responsabilisation semblent primer sur la solidarité. La transformation des catastrophes naturelles en risque au cours des deux dernières décennies, rendue possible par la multiplication des données et les nouveaux algorithmes, réinterroge elle aussi l’équilibre entre solidarité et responsabilité. Les implications pour le régime actuel sont enfin examinées.
Laurence Barry & Arthur Charpentier
Working Paper #17 | décembre 2019
Personalization as a Promise: Can Big Data Change the Practice of Insurance?
Ce papier a pour objet une mesure de l’impact des technologies issues du big data sur la tarification des produits d’assurance automobile. La première partie décrit comment le point de vue agrégé construit par les statistiques permet de mettre en évidence des régularités invisibles au niveau individuel. La deuxième partie met en avant le retournement de perspective induit par le big data dans l’analyse des données ; avec leur volume et les nouveaux algorithmes, le point de vue agrégé se trouve remis en cause. La troisième partie étudie enfin l’influence des boitiers télématiques à même d’importer le nouveau paradigme en assurance automobile. Une lecture des articles de recherches les plus récents sur une tarification automobile incluant ces nouvelles données montre cependant que le saut épistémologique, du moins pour l’instant, n’a pas eu lieu.
Pierre François
Working Paper #16 | septembre 2019
Le jour sans fin d’Omnibus II
L’adoption de la directive Solvabilité II, durant l’été 2009, ne clôt pas les débats autour du nouveau dispositif prudentiel. Alors que les discussions se concentrent sur les mesures d’application de la directive, très vite les discussions entre l’industrie européenne, d’une part, le(s) régulateur(s)(CEIOPS puis EIOPA, et Commission) d’autre part se tendent et virent au conflit ouvert. Les discussions autour des nouvelles règles du jeu dureront encore quatre ans. Elles portent sur l’ajout de mesures spécifiques permettant d’atténuer les conséquences de la directive pour l’industrie, dans un contexte économique extrêmement tendu, marqué en particulier par la baisse des taux.
Laurence Barry
Working Paper #15 | avril 2019
Justice ou justesse ? L'équité de l'assurance
Les mécanismes d’assurance ont historiquement promu une conception de l’équité fondée sur la solidarité d’une approche collective : alors que les aléas individuels relevaient d’une méconnaissance fondamentale, le risque pouvait lui se mesurer et être géré globalement sur des populations. Le texte propose une lecture des proceedings de la société actuarielle américaine (CAS) au long du vingtième siècle et souligne la lente cristallisation d’une autre conception de l’équité, rivale de la première. Cette équité, dite équité actuarielle, vise à un ajustement de la prime au risque individuel. Cette évolution se trouve aujourd’hui potentiellement radicalisée par les technologies du big data et les algorithmes. Tournés vers la prédiction plutôt que l’estimation de moyennes, ces derniers contribuent ainsi à remplacer l’équité comme justice par la justesse d’un calcul.
Pierre François
Working Paper #14 | janvier 2019
La machine infernale. Fermeture des possibles et négociation par temps de crise (1999-2009)
En 1999, l’unité d’assurance de la Commission européenne annonce le lancement d’un chantier de refonte du régime prudentiel du secteur assuranciel. Ce n’est qu’en 2009, dix ans plus tard, que la directive Solvabilité II sera adoptée par le Conseil et le Parlement européens. Le texte retrace la manière dont les grandes options qui fondent la directive ont été arrêtées, d’abord dans un cénacle étroit, puis lors d’échanges sans cesse élargis. Il analyse ensuite les négociations qui finalisent la directive, et la rupture qu’y introduit la faillite de Lehmann Brothers, en septembre 2008.
Pierre François & Laurence Barry
Working Paper #13 | novembre 2018
Les enjeux du Big Data pour l'assurance
Programme de recherche 2018-2021