Category Archives: Non classé

Conférence annuelle de la chaire PARI

“Comment pensent les machines et comment pensons-nous ?”

Mardi 21 janvier 2020, 18h
Conservatoire national des arts et métiers
Amphithéâtre Abbé Grégoire
292 Rue Saint-Martin, 75003 Paris

avec :

Pierre-Michel Menger
Sociologue, Professeur au Collège de France

Eric Moulines
Professeur de mathématiques appliquées à l’Ecole polytechnique,
Membre de l’Académie des Sciences


« Je ne discute jamais du nom pourvu qu’on m’avertisse du sens qu’on lui donne ». Le gentleman’s agreement proposé par le Pascal des Provinciales est mis à mal aujourd’hui lorsqu’on parle « d’intelligence », que l’on évoque d’autant plus qu’on la définit peu. Parler d’intelligence humaine et d’intelligence artificielle installe l’homme et la machine sur un continuum de commensurabilité, dont les affrontements aux jeux d’échec ou de go constitueraient une sorte de déclinaison paradigmatique. Mais ces verdicts, d’autant plus spectaculaires qu’ils donnent l’homme perdant, font bon marché d’une décomposition analytique permettant de mieux saisir ce qui fait l’intelligence humaine, et celle des machines. Volume d’informations, vitesse d’exécution, complexité calculatoire, puissance d’apprentissage, intuition, sens commun, créativité face à l’incertain ne sont que quelques-unes des dimensions qui permettent de décomposer l’intelligence, pour en préciser la nature et en situer le lieu. Cette décomposition implique comme une évidence que les pratiques peuvent occuper, sur ces différentes dimensions, des positions non congruentes : la meilleure machine à calculer n’est pas nécessairement la plus créative. En rendant caduque les appréciations trivialement ordinales des rapports que peuvent entretenir intelligence humaine et artificielle (qui donc est la plus forte ?), la décomposition de l’intelligence en lignes hétérogènes doit permettre de mieux cerner leurs spécificités irréductibles et leurs complémentarités potentielles.


Pierre-Michel Menger a fait des études de philosophie à l’Ecole Normale Supérieure à Paris, puis un doctorat de sociologie à l’Ecole des Hautes Etudes en Sciences Sociales. Après une carrière de chercheur au CNRS, il est, depuis 2013, professeur au Collège de France, où il occupe la chaire de Sociologie du travail créateur. Il est par ailleurs directeur d’études à l’EHESS. Ses recherches portent sur le travail, les recompositions du salariat, les carrières dans l’enseignement supérieur et la recherche scientifique, les industries créatives et les modèles de l’action en sociologie et en économie. Pierre-Michel Menger est notamment membre de la rédaction de la Revue française de sociologie, du comité éditorial de la Revue française de gestion et du comité scientifique de la Revue Economique.

Sélection de livres publiés : Le talent en débat (sous la direction de P.-M. Menger), PUF, 2018 ; Big data et traçabilité numérique (sous la direction de P.-M. Menger et S. Paye), Editions du Collège de France, 2017 ; La différence, la concurrence et la disproportion, Fayard, 2014; The Economics of Creativity, Harvard University Press, 2014; Les intermittents du spectacle. Sociologie du travail flexible, Paris, Editions de l’Ehess, 2011 ; Le travail créateur. S’accomplir dans l’incertain, Paris, Hautes Etudes Gallimard Le Seuil, 2009 ; Portrait de l’artiste en travailleur. Métamorphoses du capitalisme, Paris, La République des Idées / Seuil, 2003.

L’intervention de Pierre-Michel Menger

Learning machines” : le nom de l’outil clé de l’intelligence artificielle contient le terme learning, qui désigne tout à la fois le vecteur de l’émancipation humaine, celui de l’apprentissage formateur, le cœur de nos économies de la connaissance (l’investissement massif en capital humain), et la principale disjonction contemporaine entre les emplois dotés des caractéristiques désirables, au-delà de leur valeur simplement rémunératrice, et les emplois dans lesquels le travail est une désutilité et une charge. Cette disjonction sépare les emplois routiniers, à faible variabilité d’exercice, et qui apprennent peu à qui les exerce, et les emplois peu ou pas routiniers, qui sont à forte variabilité d’exercice et à forte teneur formatrice.

Le raisonnement en termes de routine ou de non routine, et de teneur formatrice du travail, a un complément : le risque d’échec ou, en d’autres termes, la variabilité de la performance, qui sont beaucoup plus importants dans le second type d’emploi. Lorsqu’elles sont très qualifiées, les activités faiblement routinières bénéficient d’un prestige qui est le corrélat de l’imprévisibilité de la réussite. Ce prestige peut être suspecté. Le partage entre emplois à fort versus faible coefficient de routine est-il si simple ? N’aurait-on pas affaire à une nouvelle mythologie qui héroïserait tout ce qui prétend être créateur, risqué, imprévisible? Les activités créatives sont-elles si peu routinières? Mieux, la distinction entre routine et non-routine ne transforme-t-elle pas un continuum de situations ou un mixte inextricable d’éléments répétitifs et d’éléments inattendus et variables, en une nouvelle hiérarchie séparatrice?

Une autre conception du travail et de son organisation émerge, qui se substitue à celle qui était ordonnée par le schéma suivant « 1) formation initiale ; 2) accès à l’emploi ; 3) gains d’expérience linéairement cumulatifs (entretien non critique du capital d’employabilité) ; 4) carrière salariale fondée sur un mécanisme contractuel doté de propriétés incitatives et assurantielles à long terme (rémunération initiale inférieure à la productivité réelle des travailleurs, mais rémunération supérieure à la productivité réelle dans la seconde partie de carrière) ». Apprendre est une capacité sollicitée sans cesse au travail, mais différentiellement. Apprendre est aussi le mot clé de la révolution de l’intelligence artificielle. Est-ce le même apprentissage?

La réponse à ces questions me paraît pouvoir être cherchée dans une conception probabiliste de l’action et du travail.


Ancien élève de l’École polytechnique et ingénieur du Corps des Telecom, Éric Moulines débute sa carrière à Télécom ParisTech. De 1996 à 2015, il y occupait le poste de professeur. Il y a notamment fondé l’enseignement en statistiques et en sciences des données. En septembre 2015, il rejoint l’École polytechnique comme professeur au Centre de mathématiques appliquées pour y développer ces enseignements au niveau du cycle ingénieur et des masters. Il est l’auteur de deux monographies de recherche sur les problèmes d’inférence de dynamiques complexes et de plus de cent articles de recherche dans des revues internationales. Entre 2013 et 2015, il est également l’éditeur en chef de la revue Bernoulli, revue européenne de référence dans le domaine des statistiques et des probabilités appliquées.

Médaille d’Argent du CNRS en 2010, il a reçu le Grand Prix « Orange » de l’Académie des Sciences en 2011. En 2018, il est nommé membre de l’Académie des sciences dans la section des sciences mécaniques et informatiques. Cette nomination confirme l’influence de ses travaux dans un domaine de mathématiques appliquées émergeant grâce aux grands ensembles de données : les statistiques numériques -approximation stochastique et simulation en grande dimension- pour l’inférence de modèles statistiques complexes.

L’intervention de Eric Moulines

Le facteur clé du récent boom de l’IA est l’émergence de l’apprentissage profond (ED). Le succès de ces méthodes – en particulier pour l’apprentissage supervisé – est étonnant. Toutefois, les limites de l’apprentissage profond apparaissent aujourd’hui clairement. Il est ainsi bien connu que ces algorithmes sont très ” gourmands” en données, les performances sont très fortement affectées par les différentes sources de “bruit”… Ces méthodes ne sont pas bien adaptées pour représenter l’incertitude. De plus, l’apprentissage profond est “boîte noire” : les décisions sont donc inexplicables.

La recherche actuelle en apprentissage profond est presque entièrement centrée sur des approches “guidées par les données” et “sans modèle”. Le déluge de données alimenté par la baisse du prix du stockage des données, l’augmentation considérable de la puissance de calcul (avec GPU, TPU, parallélisation massive) et la découverte de nouvelles architectures de réseaux neuronaux (CNN, LSTM) ont permis de résoudre des problèmes très difficiles qui semblaient hors de portée il y a une décennie.

Mais les approches entièrement “guidées par les données” ont leurs limites. Ces dernières seront rapidement atteintes si nous ne combinons pas efficacement des approches “pilotées par les données” avec des approches “pilotées par le modèle”. Par IA “pilotée par le modèle”, j’entends des approches qui capturent les connaissances antérieures et évitent de perdre du temps de calcul et (beaucoup) de données pour apprendre aveuglément des concepts qui sont déjà connus. Pour ce faire, il existe bien sûr différents types de modèles. Les modèles symboliques par exemple, qui capturent explicitement la “sémantique de haut niveau”, sont attrayants : parce qu’ils sont explicitement basés sur des “concepts”, ils sont explicables. Mais leurs lacunes sont maintenant bien documentées.

Mon penchant personnel va vers des modèles statistiques qui peuvent capturer des connaissances complexes tout en tenant compte des incertitudes. Je discuterai différentes approches pour construire de nouveaux systèmes d’IA “hybrides” de ce type.


Conférence inaugurale 2018-2021


Mardi 15 janvier, 18h
Sciences Po, Paris
Amphithéâtre Jacques Chapsal
27 rue Saint-Guillaume – 75007 Paris

Les intervenants :
Maud Bailly
Chief Digital Officer AccorHotels,
ancienne conseillère du Premier Ministre

Gilles Babinet
Multi-entrepreneur,
Vice-président du Conseil National du Numérique

Avec la participation de :
Daniel Antoni, Directeur général de Thélem assurances
Pierre Arnal, Vice-président de Addactis Group
Bertrand Labilloy, Directeur général de CCR
Christophe Lafond, Vice-président de MGEN


La personnalisation du risque : état de l’art ou quadrature du cercle ?

Le Big Data, dit-on, va changer le monde. L’ampleur de la proposition s’accommode trop souvent de son imprécision, qui touche d’abord la notion même : en désignant simultanément la nature des données – et d’abord leur ampleur – autant que la manière de les interroger, « le big data » renvoie à des enjeux cognitifs, organisationnels et politiques qui, pour être correctement saisis, doivent être décomposés.

Les enjeux de savoir tout d’abord s’organisent autour de conflits inédits, où l’on voit des modèles explicatifs développés par l’économie ou la psychologie depuis des décennies pour rendre compte des comportements humains soudain affronter une concurrence à l’issue incertaine : seront-ils remplacés par des boites noires qui mettent à profit la physique théorique ou les mathématiques appliquées pour attribuer des scores individuels difficilement explicables ? Et quelles ressources décideront de l’issue de cet affrontement ?
Les défis organisationnels renvoient quant à eux autant à la mise en place des systèmes d’informations nécessaires à la production et à l’appariement de ces vastes jeux de données qu’aux transformations de la division du travail que leur traitement sera susceptible d’engendrer : des différents spécialistes qui tentent aujourd’hui de se présenter comme data scientists, qui s’imposera et où ? Et comment se recomposeront les chaînes de valeur où s’inscrivent les organisations qui les emploient ?

L’individualisation prédictive que promettent les modèles rattachés au big data remettent enfin en cause jusqu’au fondement même de notre pacte social, ce qui engendre en retour des restrictions d’usage inédites dont le RGPD n’est peut-être qu’une première déclinaison : où et comment se définira l’équilibre entre les potentialités techniques de sur-segmentation individualisante et la volonté politique de conserver les logiques solidaires qu’elle vient contredire ? Ou faut-il concevoir les principes normatifs d’un vivre ensemble renouvelé, qu’il ne faudrait pas défendre contre ces nouveaux outils de connaissance mais qui, au contraire, en partiraient ?