Conférence annuelle de la chaire PARI

“Comment pensent les machines et comment pensons-nous ?”

Mardi 21 janvier 2020, 18h
Conservatoire national des arts et métiers
Amphithéâtre Abbé Grégoire
292 Rue Saint-Martin, 75003 Paris

avec :

Pierre-Michel Menger
Sociologue, Professeur au Collège de France

Eric Moulines
Professeur de mathématiques appliquées à l’Ecole polytechnique,
Membre de l’Académie des Sciences


« Je ne discute jamais du nom pourvu qu’on m’avertisse du sens qu’on lui donne ». Le gentleman’s agreement proposé par le Pascal des Provinciales est mis à mal aujourd’hui lorsqu’on parle « d’intelligence », que l’on évoque d’autant plus qu’on la définit peu. Parler d’intelligence humaine et d’intelligence artificielle installe l’homme et la machine sur un continuum de commensurabilité, dont les affrontements aux jeux d’échec ou de go constitueraient une sorte de déclinaison paradigmatique. Mais ces verdicts, d’autant plus spectaculaires qu’ils donnent l’homme perdant, font bon marché d’une décomposition analytique permettant de mieux saisir ce qui fait l’intelligence humaine, et celle des machines. Volume d’informations, vitesse d’exécution, complexité calculatoire, puissance d’apprentissage, intuition, sens commun, créativité face à l’incertain ne sont que quelques-unes des dimensions qui permettent de décomposer l’intelligence, pour en préciser la nature et en situer le lieu. Cette décomposition implique comme une évidence que les pratiques peuvent occuper, sur ces différentes dimensions, des positions non congruentes : la meilleure machine à calculer n’est pas nécessairement la plus créative. En rendant caduque les appréciations trivialement ordinales des rapports que peuvent entretenir intelligence humaine et artificielle (qui donc est la plus forte ?), la décomposition de l’intelligence en lignes hétérogènes doit permettre de mieux cerner leurs spécificités irréductibles et leurs complémentarités potentielles.


Pierre-Michel Menger a fait des études de philosophie à l’Ecole Normale Supérieure à Paris, puis un doctorat de sociologie à l’Ecole des Hautes Etudes en Sciences Sociales. Après une carrière de chercheur au CNRS, il est, depuis 2013, professeur au Collège de France, où il occupe la chaire de Sociologie du travail créateur. Il est par ailleurs directeur d’études à l’EHESS. Ses recherches portent sur le travail, les recompositions du salariat, les carrières dans l’enseignement supérieur et la recherche scientifique, les industries créatives et les modèles de l’action en sociologie et en économie. Pierre-Michel Menger est notamment membre de la rédaction de la Revue française de sociologie, du comité éditorial de la Revue française de gestion et du comité scientifique de la Revue Economique.

Sélection de livres publiés : Le talent en débat (sous la direction de P.-M. Menger), PUF, 2018 ; Big data et traçabilité numérique (sous la direction de P.-M. Menger et S. Paye), Editions du Collège de France, 2017 ; La différence, la concurrence et la disproportion, Fayard, 2014; The Economics of Creativity, Harvard University Press, 2014; Les intermittents du spectacle. Sociologie du travail flexible, Paris, Editions de l’Ehess, 2011 ; Le travail créateur. S’accomplir dans l’incertain, Paris, Hautes Etudes Gallimard Le Seuil, 2009 ; Portrait de l’artiste en travailleur. Métamorphoses du capitalisme, Paris, La République des Idées / Seuil, 2003.

L’intervention de Pierre-Michel Menger

Learning machines” : le nom de l’outil clé de l’intelligence artificielle contient le terme learning, qui désigne tout à la fois le vecteur de l’émancipation humaine, celui de l’apprentissage formateur, le cœur de nos économies de la connaissance (l’investissement massif en capital humain), et la principale disjonction contemporaine entre les emplois dotés des caractéristiques désirables, au-delà de leur valeur simplement rémunératrice, et les emplois dans lesquels le travail est une désutilité et une charge. Cette disjonction sépare les emplois routiniers, à faible variabilité d’exercice, et qui apprennent peu à qui les exerce, et les emplois peu ou pas routiniers, qui sont à forte variabilité d’exercice et à forte teneur formatrice.

Le raisonnement en termes de routine ou de non routine, et de teneur formatrice du travail, a un complément : le risque d’échec ou, en d’autres termes, la variabilité de la performance, qui sont beaucoup plus importants dans le second type d’emploi. Lorsqu’elles sont très qualifiées, les activités faiblement routinières bénéficient d’un prestige qui est le corrélat de l’imprévisibilité de la réussite. Ce prestige peut être suspecté. Le partage entre emplois à fort versus faible coefficient de routine est-il si simple ? N’aurait-on pas affaire à une nouvelle mythologie qui héroïserait tout ce qui prétend être créateur, risqué, imprévisible? Les activités créatives sont-elles si peu routinières? Mieux, la distinction entre routine et non-routine ne transforme-t-elle pas un continuum de situations ou un mixte inextricable d’éléments répétitifs et d’éléments inattendus et variables, en une nouvelle hiérarchie séparatrice?

Une autre conception du travail et de son organisation émerge, qui se substitue à celle qui était ordonnée par le schéma suivant « 1) formation initiale ; 2) accès à l’emploi ; 3) gains d’expérience linéairement cumulatifs (entretien non critique du capital d’employabilité) ; 4) carrière salariale fondée sur un mécanisme contractuel doté de propriétés incitatives et assurantielles à long terme (rémunération initiale inférieure à la productivité réelle des travailleurs, mais rémunération supérieure à la productivité réelle dans la seconde partie de carrière) ». Apprendre est une capacité sollicitée sans cesse au travail, mais différentiellement. Apprendre est aussi le mot clé de la révolution de l’intelligence artificielle. Est-ce le même apprentissage?

La réponse à ces questions me paraît pouvoir être cherchée dans une conception probabiliste de l’action et du travail.


Ancien élève de l’École polytechnique et ingénieur du Corps des Telecom, Éric Moulines débute sa carrière à Télécom ParisTech. De 1996 à 2015, il y occupait le poste de professeur. Il y a notamment fondé l’enseignement en statistiques et en sciences des données. En septembre 2015, il rejoint l’École polytechnique comme professeur au Centre de mathématiques appliquées pour y développer ces enseignements au niveau du cycle ingénieur et des masters. Il est l’auteur de deux monographies de recherche sur les problèmes d’inférence de dynamiques complexes et de plus de cent articles de recherche dans des revues internationales. Entre 2013 et 2015, il est également l’éditeur en chef de la revue Bernoulli, revue européenne de référence dans le domaine des statistiques et des probabilités appliquées.

Médaille d’Argent du CNRS en 2010, il a reçu le Grand Prix « Orange » de l’Académie des Sciences en 2011. En 2018, il est nommé membre de l’Académie des sciences dans la section des sciences mécaniques et informatiques. Cette nomination confirme l’influence de ses travaux dans un domaine de mathématiques appliquées émergeant grâce aux grands ensembles de données : les statistiques numériques -approximation stochastique et simulation en grande dimension- pour l’inférence de modèles statistiques complexes.

L’intervention de Eric Moulines

Le facteur clé du récent boom de l’IA est l’émergence de l’apprentissage profond (ED). Le succès de ces méthodes – en particulier pour l’apprentissage supervisé – est étonnant. Toutefois, les limites de l’apprentissage profond apparaissent aujourd’hui clairement. Il est ainsi bien connu que ces algorithmes sont très ” gourmands” en données, les performances sont très fortement affectées par les différentes sources de “bruit”… Ces méthodes ne sont pas bien adaptées pour représenter l’incertitude. De plus, l’apprentissage profond est “boîte noire” : les décisions sont donc inexplicables.

La recherche actuelle en apprentissage profond est presque entièrement centrée sur des approches “guidées par les données” et “sans modèle”. Le déluge de données alimenté par la baisse du prix du stockage des données, l’augmentation considérable de la puissance de calcul (avec GPU, TPU, parallélisation massive) et la découverte de nouvelles architectures de réseaux neuronaux (CNN, LSTM) ont permis de résoudre des problèmes très difficiles qui semblaient hors de portée il y a une décennie.

Mais les approches entièrement “guidées par les données” ont leurs limites. Ces dernières seront rapidement atteintes si nous ne combinons pas efficacement des approches “pilotées par les données” avec des approches “pilotées par le modèle”. Par IA “pilotée par le modèle”, j’entends des approches qui capturent les connaissances antérieures et évitent de perdre du temps de calcul et (beaucoup) de données pour apprendre aveuglément des concepts qui sont déjà connus. Pour ce faire, il existe bien sûr différents types de modèles. Les modèles symboliques par exemple, qui capturent explicitement la “sémantique de haut niveau”, sont attrayants : parce qu’ils sont explicitement basés sur des “concepts”, ils sont explicables. Mais leurs lacunes sont maintenant bien documentées.

Mon penchant personnel va vers des modèles statistiques qui peuvent capturer des connaissances complexes tout en tenant compte des incertitudes. Je discuterai différentes approches pour construire de nouveaux systèmes d’IA “hybrides” de ce type.