UE647 - À quoi a servi la modélisation mathématique et ce qu’elle n’a pas pu faire ?

Type d'UE
Séminaires DE/MC
Disciplines
Méthodes et techniques des sciences sociales, Philosophie et épistémologie
Page web
-
Langues
-
Mots-clés
-
Aires culturelles
-

C’est une des plus vieilles questions de la philosophie que de savoir ce que l’on peut justement savoir. Et aussi vieille comme question celle de savoir si ce que l’on pourrait effectivement savoir mérite qu’on s’attelle à la tâche de le savoir vraiment. Car le savoir, même celui qui paraît frivole, résulte d’une construction – l’astrologie aussi bien que le comportement d’un trou noir ou d’une pandémie – et d’une composition qui joue des divers entrelacs de la démonstration, de l’observation, mais aussi de l’écriture afin de constituer une connaissance, forcément située et pourtant avec une couverture d’intemporalité.  Car contrairement à l’art et à la politique, l’écrit est bien plus important pour celle que l’on qualifie de scientifique et qui a le grand avantage de ne pas être une incessante remise en cause, tout en reconnaissant l’importance de véritables révolutions, y compris dans la science dite à tort comme la plus immuable, les mathématiques. Du coup, la modélisation mathématique, quoique sans ce nom mais toujours avec l’affichage d’un virtuel, a joué un grand rôle dans la fabrication de science, par ses calculs écrits sous toutes les formes, des épicycles ptoléméens aux algorithmes des Big Data, en passant par les formules, les équations aux dérivées partielles, etc. Avec une forte tendance à assurer que la prévisibilité était une qualité a priori reconnue de par le côté axiomatique et logico-déductif des mathématiques. Cette croyance épistémologique a changé d’une part parce que l’investigation mathématique a quitté ce qui parut longtemps sa limitation fondamentale, le seul quantitatif des grandeurs numériques, ne serait-ce qu’en s’investissant en logique comme en topologie et retrouvant même l’objectif aristotélicien des classifications avec l’exemple pertinent de la théorie des catastrophes. D’autre part, parce que la révolution probabiliste est venue inscrire sa marque épistémologique profonde. Mon propos par  ces neuf séances n’est pas de faire de l’épistémologie abstraite, voire prévisionnelle, mais de choisir des cas concrets de modélisation, de mesurer leurs succès, ou leurs échecs sur différentes échelles, ce qui revient le plus souvent à les inscrire dans la trame historique qui le plus souvent en modifie les conditions d’exercice.   

Jeudi 8 octobre 2020 : Une modélisation ratée : la loi des chocs de Descartes ; une modélisation inachevée : la composition des forces au siècle des Lumières avec d’Alembert 

Cette séance se veut typique d’un déroulement. Sur deux exemples relativement bien connus, il s’agit de confronter les opinions d’historiens et d’épistémologues aux textes pertinents de Descartes et de d’Alembert. Mais aussi de confronter à la situation actuelle, notre inéluctable grille de lecture.

Jeudi 12 novembre 2020 : La Lune tombe !

Cette célèbre phase de Voltaire peut-elle passer pour l’exemple réussi d’une modélisation mathématique, avec Newton comme seul génie inspiré ? J’associerais à la lecture de passages du Voltaire des Eléments de la philosophie de M. Newton, des explications sur la  notion de vitesse depuis la latitude des formes du XIVe siècle et la loi de la chute des corps de Galilée. 

Jeudi 17 décembre 2020 : L’effet de serre, découvert par Fourier un peu après 1820 mais longtemps oublié, est-il le fait d’une modélisation mathématique d’occasion ou d’une théorie réussie car écrite comme étant réaliste ?

On dispose des textes par lesquels Fourier a découvert l’effet de serre, mais aussi le travail des historiens et des scientifiques qui ont redécouvert cet effet chez Fourier bien plus tard. Si l’écriture de la modélisation des échanges de chaleur à la surface du globe terrestre par les séries de Fourier et son équation de la chaleur, permettait en bonne science à ce dernier de pouvoir décrire un phénomène non identifié plus tôt, pourquoi fallut-il si longtemps pour le reconnaître ?   

Jeudi 14 janvier 2021 : La polémique en économie mathématique : le coût marginal

Inventé au XIXe siècle, la notion de coût marginal a été présentée comme une magnifique application du calcul différentiel à la science économique, et non comme une modélisation mathématique. Le propos n’est pas de faire l’histoire de la science économique, mais de prendre en compte les critiques ou enthousiasmes pour un calcul jusqu’à aujourd’hui dans ce qu’il dit sur la présentation de cette science et de son évolution.

Jeudi 18 février 2021 : Le retour à Aristote ? La question de la physique mathématique comme n’étant pas seulement, ou  pas du tout, une modélisation mathématique

C’est Paul Jorion qui parle d’un coup de force des astronomes des XVIe et XVIIe siècles, celui d’avoir inventé le concept de réalité pour se donner un champ d’exercice propre, une justification qui efface bien des philosophies des sciences, et surtout un usage quasi métaphysique des mathématiques. Peu de scientifiques actifs dans les sciences physico-mathématiques citent Aristote au XVIIIe siècle, l’auteur qui sépare nettement mathématique de la réalité physique. Et c’est une surprise de voir Fourier citer Aristote en 1798, de préférence à Archimède, à propos d’une preuve du théorème des vitesses virtuelles. Or Aristote apparaît chez les historiens comme une ressource pour orienter la science très mathématisée des Lumières - entre autres d’Alembert, Euler, Lagrange - vers une conception mieux équilibrée qui correspond à l’établissement de la physique mathématique, où les rôles des deux sciences réunies n’en sont pas moins assez nettement distingués. Ne le voit-on pas avec Fourier et la chaleur selon une méthode que le positivisme de Comte accueille avec ferveur, Laplace et Gauss avec la capillarité, Ampère avec l’électrodynamique, voire Young, Malus, et Fresnel avec la lumière, et Cauchy avec la mécanique des milieux continus. Par ailleurs les historiens des sciences mathématiques ont privilégié une autre séparation, celle qui tiendrait à la rigueur et à l’établissement des structures algébriques (Abel, Galois), qui serait alors un abandon d’Aristote. Je voudrais prendre comme thème de discussion jusqu’à aujourd’hui la présentation de la théorie de l’arc-en-ciel de Descartes et ce qu’il en est advenu en mécanique quantique. 

Jeudi 18 mars 2021 : L’effet papillon est-il la preuve de la limitation de toute modélisation mathématique

D’après Wikipedia, l’ « effet papillon » est une expression qui résume une métaphore concernant le phénomène fondamental de sensibilité aux conditions initiales de la théorie du chaos. La formulation exacte qui en est à l'origine fut exprimée par Edward Lorenz lors d'une conférence scientifique en 1972, dont le titre était :« Le battement d'ailes d'un papillon au Brésil peut-il provoquer une tornade au Texas ? » Je voudrais revenir sur les mots utilisés dans cette description : métaphore, sensibilité, théorie, à partir de quelques textes sur la prévisibilité de phénomènes, dont au moins un de Henri Poincaré à la fin du XIXe siècle.

Jeudi 15 avril 2021 : Le calculable

Je voudrais discuter par comparaison une polémique du Grand siècle vers 1658 pour savoir si l'on peut effectivement calculer la longueur d’un arc de courbe sans une connaissance transcendante préalable, et la réception du résultat de Turing sur l’existence a priori de nombres incalculables.   

Jeudi 20 mai 2021 : Quel est aujourd’hui le statut de la loi de Laplace-Gauss ? 

La tendance vers la loi normale, que Gauss et Laplace donnent vers 1810, est considérée par les épistémologues comme le premier théorème de la théorie des probabilités, donc comme une modélisation mathématique du hasard. Mais cette loi est aussi envisagée comme un résultat de la physique entendue comme la science des choses se passant dans le monde réel. Cette évolution n’affecte-t-elle pas l’utilisation même de la loi ? 

Jeudi 17 juin 2021 : Les modélisations mathématiques des épidémies : l’immunisation grégaire 

Cette notion, à juste titre, est considérée comme une réussite de la modélisation mathématique. Mon propos n’est pas de reprendre la théorie, qui n’est certes mathématiquement pas trop difficile, mais de discuter les modalités d’explication de la notion, confrontant hypothèses mathématiques de formalisation et pensées biologiques. Avec un retour sur la notion de pathocénose de Myrko Grmek. 

Cette UE n'est rattachée à aucune formation de master.

  • Jean Dhombres [référent·e]   directeur d'études (retraité·e), EHESS / Centre Alexandre-Koyré. Histoire des sciences et des techniques (CAK)
Contacts additionnels
eric.guichard@enssib.fr jean.dhombres@cnrs.fr
Informations pratiques
-
Direction de travaux des étudiants
-
Réception des candidats
-
Pré-requis
-

Aucun planning disponible.


Intervenant·e·s


  • Jean Dhombres [référent·e]   directeur d'études (retraité·e), EHESS / Centre Alexandre-Koyré. Histoire des sciences et des techniques (CAK)

Planning


Aucun planning disponible.


Description


Type d'UE
Séminaires DE/MC
Disciplines
Méthodes et techniques des sciences sociales, Philosophie et épistémologie
Page web
-
Langues
-
Mots-clés
-
Aires culturelles
-

C’est une des plus vieilles questions de la philosophie que de savoir ce que l’on peut justement savoir. Et aussi vieille comme question celle de savoir si ce que l’on pourrait effectivement savoir mérite qu’on s’attelle à la tâche de le savoir vraiment. Car le savoir, même celui qui paraît frivole, résulte d’une construction – l’astrologie aussi bien que le comportement d’un trou noir ou d’une pandémie – et d’une composition qui joue des divers entrelacs de la démonstration, de l’observation, mais aussi de l’écriture afin de constituer une connaissance, forcément située et pourtant avec une couverture d’intemporalité.  Car contrairement à l’art et à la politique, l’écrit est bien plus important pour celle que l’on qualifie de scientifique et qui a le grand avantage de ne pas être une incessante remise en cause, tout en reconnaissant l’importance de véritables révolutions, y compris dans la science dite à tort comme la plus immuable, les mathématiques. Du coup, la modélisation mathématique, quoique sans ce nom mais toujours avec l’affichage d’un virtuel, a joué un grand rôle dans la fabrication de science, par ses calculs écrits sous toutes les formes, des épicycles ptoléméens aux algorithmes des Big Data, en passant par les formules, les équations aux dérivées partielles, etc. Avec une forte tendance à assurer que la prévisibilité était une qualité a priori reconnue de par le côté axiomatique et logico-déductif des mathématiques. Cette croyance épistémologique a changé d’une part parce que l’investigation mathématique a quitté ce qui parut longtemps sa limitation fondamentale, le seul quantitatif des grandeurs numériques, ne serait-ce qu’en s’investissant en logique comme en topologie et retrouvant même l’objectif aristotélicien des classifications avec l’exemple pertinent de la théorie des catastrophes. D’autre part, parce que la révolution probabiliste est venue inscrire sa marque épistémologique profonde. Mon propos par  ces neuf séances n’est pas de faire de l’épistémologie abstraite, voire prévisionnelle, mais de choisir des cas concrets de modélisation, de mesurer leurs succès, ou leurs échecs sur différentes échelles, ce qui revient le plus souvent à les inscrire dans la trame historique qui le plus souvent en modifie les conditions d’exercice.   

Jeudi 8 octobre 2020 : Une modélisation ratée : la loi des chocs de Descartes ; une modélisation inachevée : la composition des forces au siècle des Lumières avec d’Alembert 

Cette séance se veut typique d’un déroulement. Sur deux exemples relativement bien connus, il s’agit de confronter les opinions d’historiens et d’épistémologues aux textes pertinents de Descartes et de d’Alembert. Mais aussi de confronter à la situation actuelle, notre inéluctable grille de lecture.

Jeudi 12 novembre 2020 : La Lune tombe !

Cette célèbre phase de Voltaire peut-elle passer pour l’exemple réussi d’une modélisation mathématique, avec Newton comme seul génie inspiré ? J’associerais à la lecture de passages du Voltaire des Eléments de la philosophie de M. Newton, des explications sur la  notion de vitesse depuis la latitude des formes du XIVe siècle et la loi de la chute des corps de Galilée. 

Jeudi 17 décembre 2020 : L’effet de serre, découvert par Fourier un peu après 1820 mais longtemps oublié, est-il le fait d’une modélisation mathématique d’occasion ou d’une théorie réussie car écrite comme étant réaliste ?

On dispose des textes par lesquels Fourier a découvert l’effet de serre, mais aussi le travail des historiens et des scientifiques qui ont redécouvert cet effet chez Fourier bien plus tard. Si l’écriture de la modélisation des échanges de chaleur à la surface du globe terrestre par les séries de Fourier et son équation de la chaleur, permettait en bonne science à ce dernier de pouvoir décrire un phénomène non identifié plus tôt, pourquoi fallut-il si longtemps pour le reconnaître ?   

Jeudi 14 janvier 2021 : La polémique en économie mathématique : le coût marginal

Inventé au XIXe siècle, la notion de coût marginal a été présentée comme une magnifique application du calcul différentiel à la science économique, et non comme une modélisation mathématique. Le propos n’est pas de faire l’histoire de la science économique, mais de prendre en compte les critiques ou enthousiasmes pour un calcul jusqu’à aujourd’hui dans ce qu’il dit sur la présentation de cette science et de son évolution.

Jeudi 18 février 2021 : Le retour à Aristote ? La question de la physique mathématique comme n’étant pas seulement, ou  pas du tout, une modélisation mathématique

C’est Paul Jorion qui parle d’un coup de force des astronomes des XVIe et XVIIe siècles, celui d’avoir inventé le concept de réalité pour se donner un champ d’exercice propre, une justification qui efface bien des philosophies des sciences, et surtout un usage quasi métaphysique des mathématiques. Peu de scientifiques actifs dans les sciences physico-mathématiques citent Aristote au XVIIIe siècle, l’auteur qui sépare nettement mathématique de la réalité physique. Et c’est une surprise de voir Fourier citer Aristote en 1798, de préférence à Archimède, à propos d’une preuve du théorème des vitesses virtuelles. Or Aristote apparaît chez les historiens comme une ressource pour orienter la science très mathématisée des Lumières - entre autres d’Alembert, Euler, Lagrange - vers une conception mieux équilibrée qui correspond à l’établissement de la physique mathématique, où les rôles des deux sciences réunies n’en sont pas moins assez nettement distingués. Ne le voit-on pas avec Fourier et la chaleur selon une méthode que le positivisme de Comte accueille avec ferveur, Laplace et Gauss avec la capillarité, Ampère avec l’électrodynamique, voire Young, Malus, et Fresnel avec la lumière, et Cauchy avec la mécanique des milieux continus. Par ailleurs les historiens des sciences mathématiques ont privilégié une autre séparation, celle qui tiendrait à la rigueur et à l’établissement des structures algébriques (Abel, Galois), qui serait alors un abandon d’Aristote. Je voudrais prendre comme thème de discussion jusqu’à aujourd’hui la présentation de la théorie de l’arc-en-ciel de Descartes et ce qu’il en est advenu en mécanique quantique. 

Jeudi 18 mars 2021 : L’effet papillon est-il la preuve de la limitation de toute modélisation mathématique

D’après Wikipedia, l’ « effet papillon » est une expression qui résume une métaphore concernant le phénomène fondamental de sensibilité aux conditions initiales de la théorie du chaos. La formulation exacte qui en est à l'origine fut exprimée par Edward Lorenz lors d'une conférence scientifique en 1972, dont le titre était :« Le battement d'ailes d'un papillon au Brésil peut-il provoquer une tornade au Texas ? » Je voudrais revenir sur les mots utilisés dans cette description : métaphore, sensibilité, théorie, à partir de quelques textes sur la prévisibilité de phénomènes, dont au moins un de Henri Poincaré à la fin du XIXe siècle.

Jeudi 15 avril 2021 : Le calculable

Je voudrais discuter par comparaison une polémique du Grand siècle vers 1658 pour savoir si l'on peut effectivement calculer la longueur d’un arc de courbe sans une connaissance transcendante préalable, et la réception du résultat de Turing sur l’existence a priori de nombres incalculables.   

Jeudi 20 mai 2021 : Quel est aujourd’hui le statut de la loi de Laplace-Gauss ? 

La tendance vers la loi normale, que Gauss et Laplace donnent vers 1810, est considérée par les épistémologues comme le premier théorème de la théorie des probabilités, donc comme une modélisation mathématique du hasard. Mais cette loi est aussi envisagée comme un résultat de la physique entendue comme la science des choses se passant dans le monde réel. Cette évolution n’affecte-t-elle pas l’utilisation même de la loi ? 

Jeudi 17 juin 2021 : Les modélisations mathématiques des épidémies : l’immunisation grégaire 

Cette notion, à juste titre, est considérée comme une réussite de la modélisation mathématique. Mon propos n’est pas de reprendre la théorie, qui n’est certes mathématiquement pas trop difficile, mais de discuter les modalités d’explication de la notion, confrontant hypothèses mathématiques de formalisation et pensées biologiques. Avec un retour sur la notion de pathocénose de Myrko Grmek. 


Master


Cette UE n'est rattachée à aucune formation de master.


Renseignements


Contacts additionnels
eric.guichard@enssib.fr jean.dhombres@cnrs.fr
Informations pratiques
-
Direction de travaux des étudiants
-
Réception des candidats
-
Pré-requis
-