De la modélisation…
et de l’innovation pédagogique
Parti pour sa petite enquête trimestrielle sur le thème de la modélisation, François Boucher nous livre finalement son analyse piquante de l’innovation pédagogique à l’Éducation nationale. La grande enquête sur la modélisation vous attend, quant à elle, ici.
François Boucher
© APMEP Mars 2022
⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅♦⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅
Dans cet article, nous allons nous intéresser à un thème largement rebattu. Le mot de modélisation est très récent (1975 ?) et fait son entrée dans les programmes dans les années 2000 — on se souvient de l’épisode radioactivité [1, 2] en même temps que les TPE1, poussant dans les oubliettes le joli terme de «mathématisation» tout plein de modestie. Il semble même qu’il soit devenu un mot-clef de toute publication didactique qui se respecte.
Disons-le tranquillement : on cherchera vainement un quelconque processus de modélisation dans les manuels du XXIe siècle ; des « mises en équation(s) » tout au plus. |
Au travers d’études partielles de cas, le but est de pointer l’inévitable complexité de tout processus réel de modélisation, même simple, et sur les collaborations multiples qu’il nécessite : le sens reste du côté de la physique 2. Au passage, nous rencontrerons la mathématisation proposée par Daniel Bernoulli au XVIIIe siècle au moment de la polémique (déjà !) sur l’« inoculation » de la variole. Nous conclurons sur la faible viabilité dans la scolarité d’une pratique réelle de la modélisation.
Déterminisme et équation différentielle
Prenons une petite étude de cas, issue de la « vraie vie » et accessible a priori aux lycéens : l’équation différentielle
\[\dfrac{\mathrm{d}\,c}{\mathrm{d}\,t}=-\mu\,c+D\]
est un (morceau de) modèle à deux paramètres très répandu, par exemple validé en pharmacocinétique pour décrire l’évolution de la concentration massique sanguine d’un médicament administré par voie intraveineuse. La signification des constantes (positives) \(\mu\) et \(D\) va être précisée. Une éventuelle condition initiale, \(c(0)=c_0\), ou limite, \(c(t_{\textrm{max}})=c_{\textrm{max}}\), peut s’ajouter à l’équation. Nous allons procéder à une analyse a posteriori du modèle alors que l’élaboration d’un modèle demande plutôt une analyse a priori posant des hypothèses de façon incrémentale.
Premier point : c désigne bien une fonction mais, pour le physicien, c’est une grandeur variable, dite variable dépendante ; on présuppose donc que la concentration est une fonction dérivable du seul temps 3 ; prendre comme unique variable indépendante le temps alors que le sang d’un patient est loin d’être ponctuel, est une hypothèse de modélisation ; on attendrait aussi la présence de variable(s) indépendante(s) d’espace. Le modèle proposé considère qu’en tout point du corps, au même instant, il se passe la même chose : en biologie, on parle de compartiment. L’hypothèse est raisonnable si les physiciens confirment que le temps caractéristique d’advection de la molécule dans les parties cibles du corps est petit devant celui du problème que le modèle doit permettre de résoudre.
Ensuite, on suppose que l’équation est la même pour tous les temps (ce que traduit la constance des deux paramètres \(\mu\) et \(D\)). La signification mathématique est simple : si \(t \longmapsto c(t)\) est une solution, \(t\longmapsto c(t-\tau)\) en est une autre ; dit autrement, les courbes intégrales sont invariantes par translation dans la direction de l’axe des temps.
La signification physique est qu’on postule que la dynamique du phénomène est invariable et n’est pas modifiée par l’administration du produit ; entre les instants \(t\) et \(t +\Delta t\), il se passe la même chose qu’entre les instants \(t’\) et \(t’+\Delta t\). Ce point est délicat à comprendre. C’est ce postulat (fort) qui implique la localisation temporelle du système étudié et donc la possibilité de le modéliser par une edo4. L’évolution du système à l’instant \(t\), ici fournie par la dérivée \(\dfrac{\mathstrut\mathrm{d}\,c}{\mathstrut\mathrm{d}\,t}(t)\) ne dépend que de l’état du système à l’instant \(t\) et pas des états antérieurs. Or les physiciens savent bien que les systèmes vivants réagissent aux intrusions : si on injecte du glucose à un individu, son système hormonal réagit et modifie la dynamique de l’absorption ; ajoutons que cette réaction à un instant donné dépend de l’histoire antérieure du système : les systèmes biologiques ont une mémoire mais ici encore tout est affaire de temps caractéristique. Qui plus est, s’il est chimiquement concevable que la vitesse d’évolution de la concentration soit dépendante de cette même concentration, relier la valeur de la dérivée \(c’\) à celle de \(c\) au même instant, c’est postuler une action instantanée physiquement peu réaliste5. Bref, la sur-simplification du modèle est maximale mais c’est la loi du genre ; c’est le prix à payer pour pouvoir modéliser en gardant la maîtrise du sens et celle du traitement mathématique et ne pas en être réduit à une simulation aveugle : « prédire n’est pas expliquer ».
Interprétons maintenant le modèle ce qui exige un peu plus de physique. L’équation apparaît comme un bilan massique, fondé sur l’extensivité de la masse, dont l’heuristique (pour un compartiment ouvert) peut se résumer à : « la variation vaut ce qui rentre moins ce qui sort » que le physicien traduit par l’égalité6 très générale
\[\Delta M = (\text{taux d’entrée})\,\Delta t-(\text{taux de sortie})\,\Delta t\]
avec des \(\Delta\) assez petit pour pouvoir négliger ce qui mérite de l’être, l’intention étant bien de passer à la limite.
Reprenons notre modèle : si \(D=0\), rien ne rentre (pas de perfusion) et \(\Delta{c}=-\mu\,c\,\Delta{t}\) réécrit \(\dfrac{\mathstrut1}{\mathstrut
c}\,\dfrac{\mathstrut\Delta{c}}{\mathstrut\Delta{t}}=-\mu\) traduit le fait (expérimental) que le taux relatif de croissance est constant ; \(-\mu\) est cette constante et \(\dfrac{\mathstrut1}{\mathstrut\mu}\) (homogène à un temps) est la constante de temps correspondante (durée pour que la concentration soit divisée par \(\mathrm{e}\))7. Le paramètre \(\mu\) est un paramètre constitutif (physiologique) que des mesures doivent permettre de déterminer et qui résume à lui tout seul les processus complexes par lequel le corps humain absorbe (ou transforme ou élimine) la drogue ; il s’agit d’une loi phénoménologique valide pour une large classe de médicaments.
Si \(D \neq 0\), la dynamique précédente est alimentée par la perfusion, codée dans le modèle par la constante \(D\) qui est le taux d’administration du produit (par exemple en milligramme par litre et par minute) ; ce paramètre \(D\) est donc contrôlé par le réglage de la perfusion. S’il n’y avait pas d’absorption tissulaire (compartiment fermé), on aurait évidemment simplement \(\Delta c = D\,\Delta t\) et l’équation différentielle serait \(\dfrac{\mathstrut\mathrm{d}\,c}{\mathstrut\mathrm{d}\,t}=D\).
Les deux effets sont introduits dans l’équation en les ajoutant, addition justifiée par le bilan de « masse » ce qui fournit une équation linéaire qui est le meilleur moyen mathématique de faire en sorte que « l’effet soit la somme des causes ».
Le déterminisme du modèle se traduit par le fait que, pour un état initial donné — \(c(0)=c_0\) — le modèle possède une unique solution, dans le cas présent calculable : \[c=\frac{D}{\mu}+\left(c_0-\frac{D}{\mu}\right)\mathrm{e}^{-\mu t}
=\frac{D}{\mu}\left(1-\mathrm{e}^{-\mu t}\right)+c_0\,\mathrm{e}^{-\mu t}\] que l’on peut voir comme barycentre de la concentration initiale \(c_0\) et de la concentration de saturation \(\dfrac{\mathstrut D}{\mathstrut\mu}\) ; le futur du système est donc déduit du modèle à partir de la seule connaissance de l’état initial : c’est le déterminisme laplacien. Sous certaines conditions, toutes les edo possèdent cette propriété. En ce sens, ce type d’équation ne peut modéliser que des systèmes déterministes.
Le modèle n’est pas simplement produit pour être contemplé mais parce qu’on voudra, par exemple, connaître le \(D\) suffisant pour assurer une concentration \(c_{max}\) en un temps \(t_{max}\). La simplicité du modèle permet de répondre facilement à ce type de question.
Arrêtons-nous ensuite sur une technique précieuse mais peu pratiquée dans la classe de physique : l’analyse dimensionnelle.
Une vertu de l’analyse dimensionnelle
Dans le modèle précédent, \(t\), \(c\) (ou plutôt \(c(t)\)), \(\mu\), \(D\) et \(c_0\) sont des grandeurs (et non pas des mesures de grandeurs8). Chaque grandeur possède une « dimension » : \(\mathsf{L}\) pour une longueur, \(\mathsf{T}\) pour une durée, \(\mathsf{M}\) pour une masse. Les nombres purs ont une dimension égale à 1 et sont dits… sans dimension. Ces signes peuvent être interprétés comme des réels strictement positifs : dire qu’une longueur possède une dimension \(\mathsf{L}\), c’est exactement dire que si l’unité utilisée pour la mesurer est divisée par \(\mathsf{L}\), la mesure est multipliée par \(\mathsf{L}\). En ce sens, la dimension d’une vitesse est \(\mathsf{L}\mathsf{T}^{-1}\) et celle d’un volume \(\mathsf{L}^3\).
On dispose de toute une algèbre des dimensions, traduction de la nécessaire homogénéité des formules physiques ; ainsi une égalité entre grandeurs, tout comme une somme de grandeurs, exige l’identité des dimensions. Dans la suite, la dimension d’une grandeur \(x\) est dénotée par l’écriture \([x]\). On a alors : \[[c]=[c_0]=[c_{\text{max}}]=\mathsf{M}\mathsf{L}^{-3},\space[t]=\mathsf{T},\space[\mu]=\mathsf{T}^{-1}\] et donc \([D]=[c\,\mu]=\mathsf{M}\mathsf{L}^{-3}\mathsf{T}^{-1}\).
On peut alors faire apparaître deux grandeurs sans dimension \(t^{\ast}=\mu\,t\) et \(c^{\ast}=\dfrac{\mathstrut\mu}{\mathstrut D}\,c\) (en supposant \(D>0\)) qui sont les mesures, l’une du temps en prenant le temps caractéristique \(\dfrac{\mathstrut1}{\mathstrut\mu}\) comme unité, et l’autre de la concentration en prenant la saturation \(\dfrac{\mathstrut |
Avec la condition initiale \(c(0){=}0\), soit \(c^{\ast}(0){=}0\), l’équation devient \(\dfrac{\mathstrut\mathrm{d}\,c^{\ast}}{\mathstrut\mathrm{d}\,t^{\ast}}=-c^{\ast}+1\), équation dite adimensionnée, de solution (globale)
\[c^{\ast}=-\mathrm{e}^{-t^{\ast}}+1.\]
C’est d’une certaine façon un modèle de modèles.
Pointons un fait que l’analyse dimensionnelle met en évidence ; le modèle ne dépend que d’un seul paramètre sans dimension : \(\chi\) qui est la fraction de la concentration initiale par rapport à concentration de saturation, un pourcentage donc.
Comme la saturation peut être toxique, on vise une plage thérapeutique, assez étroite, dans laquelle il est nécessaire de rester un temps déterminé. Le modèle montre bien qu’aucune perfusion constante ne peut atteindre cet objectif ; une solution est de procéder par une intermittence de perfusions ce que le modèle permet de déterminer.
Un modèle pour convaincre
Au XVIIIe siècle, la petite vérole, autre nom de la variole, tuait lors des flambées épidémiques jusqu’à \(30\,\%\) des personnes atteintes : 50 millions d’européens seraient morts durant le siècle des Lumières. La maladie était endémique dans les villes, périodiquement épidémiques dans les campagnes. Or en Turquie, sans doute depuis l’Antiquité, des femmes spécialisées pratiquaient aux enfants volontaires l’inoculation par scarification, avec une réussite réputée totale. L’importation de cette pratique en Angleterre, sans le savoir-faire, puis sur le continent européen, va voir les premiers accidents mortels d’où, surprise, la polémique entre les « pour » et les « contre ».
Dans ce contexte, en 1760, Daniel Bernoulli, figure du savant universel d’un siècle lumineux, lit devant l’Académie des sciences de Paris son Essai d’une nouvelle analyse de la mortalité causée par la petite vérole, & des avantages de l’inoculation pour la prévenir.
L’article de Bernoulli n’est pas simple à suivre pour qui n’est pas rompu à la lecture des textes de cette époque. Nous présentons une version « moderne » raccourcie de l’essentiel. Pour plus de détails, nous renvoyons le lecteur à l’analyse d’Annette Leroy [3] ;.
Pour construire son modèle, Bernoulli introduit un certain nombre de paramètres :
-
\(\mu\)(t) le taux de mortalité per capita hors variole de la tranche d’âge t, taux a priori inconnu ;
-
\(\alpha\) le taux de mortalité de la variole qu’il suppose indépendant de l’âge ;
-
\(\beta\) le taux de contamination des susceptibles supposé lui aussi indépendant de l’âge.
Par un raisonnement différentiel, Bernoulli obtient le modèle suivant qui couple les deux grandeurs \(S\) et \(I\) : \[
\left\{\begin{array}{rclp{6.8pt}rcl}
S'(t)&=&-(\mu(t)+\beta)\,S(t)&&S(0)&=&N_0\\
I'(t)&=&-\mu(t)\,I(t)+\beta\,(1-\alpha)\,S(t)&&I(0)&=&0
\end{array}\right.\]
Le problème du passage d’un temps a priori discret à un temps continu et des fonctions de comptage à des fonctions dérivables autorisant les procédures différentielles (petites variations) n’est pas examiné par Bernoulli et en réalité constitue, même aujourd’hui, une question fort délicate de modélisation, discrètement passée sous silence.
Le lecteur pourra noter les similitudes et les différences avec le modèle linéaire précédent et pourra se poser quelques questions au sujet des hypothèses sous-jacentes relatives au mode d’action de la maladie, non explicitées ici.
Le travail mathématique du modèle fournit à notre savant la relation
\[V_{\beta=0}(t)=\dfrac{\mathstrut V(t)}{\mathstrut\beta+\alpha\,(1-\beta)\,\mathrm{e}^{-\alpha\,t}}\]
L’influence du mémoire de Bernoulli sur le débat de l’époque fut sans doute quasi-nulle, mais pas sur les travaux de modélisation des maladies contagieuses qui vont se multiplier au xix siècle, ni sur ceux d’étude des risques en compétition.
Les hypothèses de modélisation de Bernoulli ont été largement critiquées par les épidémiologistes, par exemple la constance de \(\alpha\), \(\beta\) et \(gamma\) ou l’ignorance du facteur co-morbidité concept aujourd’hui fort médiatisé ; mise en accusation aussi et surtout, l’insuffisance des données statistiques disponibles à son époque ne reflétant que l’état de quelques grandes villes et fort peu celui des zones rurales – les plus peuplées – en réalité décimées par les flambées épidémiques de variole.
Les deux exemples présentés sont suffisants pour faire percevoir la complexité conceptuelle de ce que pourrait être une démarche de modélisation ; cette complexité est à mettre en regard de la difficulté ahurissante de nos lycéens de Seconde à maîtriser la proportionnalité.
Examinons maintenant ce qui a pu être promu par l’institution.
Témoignages
Le lieu possible d’une pratique de modélisation au lycée fut sans aucun doute celui des TPE. Des témoignages positifs de cette possibilité existent bien, mais les exemples à contenu non superficiel sont bien rares surtout ceux en mathématiques (alors que des millions de TPE ont été réalisés). Le niveau mathématique typique d’un TPE de sciences se réduit souvent à manipuler \(z=x\,y\) ou, parfois, un timide cosinus. Rudolph Bkouche critiqua sévèrement l’idée [4] ;.
Des nombreuses raisons qui devaient conduire de leur faible impact en mathématiques à leur abandon récent, on peut en isoler trois, significatives pour notre propos :
-
le ridicule semblant de prise en compte pour le baccalauréat et corrélativement une évaluation quasi-factice ;
-
la monovalence (viscérale) de l’enseignant de mathématiques couplée à la difficulté historique de la pluridisciplinarité ; Bkouche la justifie [5] ;
-
la démathématisation, voulue par l’institution, des disciplines scientifiques.
D’une toute autre ampleur est la (mini) révolution en CPGE scientifiques initiée par l’introduction des TIPE9 dûment évalués eux à l’oral des concours dès 1997. Poser un problème rentrant dans le thème imposé, modéliser, expérimenter, simuler, rencontrer un spécialiste du domaine, valider, communiquer – cela devrait rappeler au lecteur une autre liste. On peut parler de franche réussite quand bien même la communauté n’est pas unanime sur cette innovation. Mais toutes les conditions étaient remplies : un public sélectionné, capable de fournir des efforts dans la durée, intéressé par cette façon différente d’aborder un problème scientifique, un travail sur deux années, une collaboration entre enseignants plus facile, des étudiants n’hésitant pas à solliciter tous leurs enseignants sur telle ou telle question, un poids (en terme de coefficient) de l’épreuve interdisant toute velléité d’en faire l’impasse. Le prix à payer côté enseignant, est l’énorme investissement nécessaire pour l’encadrement et surtout la mise au point de l’exposé oral. Tout n’est pas parfait : l’évaluation correcte de cette épreuve s’avère souvent problématique ; les étudiants sont parfois trop facilement soupçonnés de « triche », les examinateurs ne peuvent pas être omniscients et la direction du tétraconcours sait manier la langue de bois. Plus grave est la critique inégalitaire – fort pertinente – liée au milieu d’origine : avoir une mère directrice de recherche au CNRS, section 08, ça facilite l’accès à un laboratoire pour un TIPE sur les nanotechnologies.
Charivarisons
L’histoire de l’enseignement des mathématiques est elle aussi jalonnée de fièvres éruptives, rarement endémiques, sécrétions innovantes de la noosphère. Citons sur un demi-siècle :
les mathématiques modernes (les patates et Piaget !), |
Ouf ! À chaque fois, des collègues motivés, entreprenants s’emparent intelligemment du sujet, expérimentent, voire publient sur le net ; les IREM (ce qu’il en reste) proposent des stages (en dehors du temps scolaire), les Journées nationales de l’APMEP proposent des ateliers, la didactique tend l’oreille si elle n’a pas été l’initiatrice, des thèses sont rapidement soutenues.
Cette effervescence est signe de bonne santé ; d’où un premier théorème noosphérien : en régime transitoire, l’innovation réussit toujours. |
Avec du retard à l’allumage, pas nécessairement scandaleux, l’institution introduit un morceau de l’innovation dans les programmes, avec diminution de l’horaire (faire mieux donc besoin de moins). La dixième version du manuel (numérique) XYZ est aussitôt disponible.
À l’autre bout de la chaîne, vit l’enseignant ordinaire, disons d’une modeste Seconde ordinaire de 35 élèves dans une classe de 30 m2, dans un lycée ordinaire, un enseignant bien seul, qui constate à la lecture de sa dernière évaluation (comprendre interro), que Kevin pense toujours que \({5,2}<{5,13}\), que Loona préfère encore ajouter les fractions en ajoutant les numérateurs et les dénominateurs (elle ne sait pas bien l’autre méthode), et que, seule Jade, horrescit referens, a été capable de calculer le pourcentage de la remise faite sur le prix d’un article de 90 € vendu 50 € ; certes, les calculatrices n’étaient pas autorisées (grave erreur).
Et cela malgré la nouvelle version de son activité de groupes « pourcentages » soigneusement mise au point (pendant les vacances) après avoir lu tout plein de blogs de collègues (on ne lit plus les livres, on gougle
). Peut-être le problème vient-il de son incapacité à mettre en œuvre les six temps de l’apprentissage ? Peut-être qu’il n’aurait pas fallu renoncer à cette activité de modélisation de Troisième un moment envisagée : la compétence « modéliser », ça a l’air important, peut-être faudrait-il suivre un stage ? Et on est déjà fin octobre avec deux semaines de retard sur le planning prévu. Et puis, il y a ces deux élèves qui ont fait une crise d’angoisse à la seule annonce, la semaine dernière, de l’évaluation à venir et qu’il a bien fallu dispenser sur le conseil amical du proviseur (« vous trouverez bien une solution »), et puis il y a les parents d’Alfred à qui il a confisqué le portable en classe et qui veulent le rencontrer (ça craint), et puis, et puis, et puis… c’est quand les vacances ?
On l’aura compris : la seule gestion consciencieuse, bienveillante du quotidien, fait d’un peu de mathématiques et de beaucoup de gestion de classe et des problèmes existentiels des uns et des autres, sans oublier les diverses réunions dont l’institution a le génie, consume toute l’énergie et remplit tout le temps disponible, y compris celui de la vie familiale. L’idée de donner du sens à une discipline toujours angoissée par son utilité sociale en introduisant le thème de la modélisation fut a priori séduisante10. On ne peut qu’être admiratif de ce que l’expérience Hippocampe lancée à Marseille en 2005 a pu réaliser grâce, entre autres, aux compétences plurielles (et au talent) de Dominique Barbolosi [6]. Mais il en faudrait combien comme lui pour épauler durablement les collègues sur tout le territoire ? L’institution applaudit les initiatives mais l’enseignant ordinaire est invité à s’auto-former, avec l’aide d’Eduscol
, ce fabuleux capharnaüm 0.0 du dématérialisé, et avec la reconnaissance de la nation (mais sans les applaudissements).
Tout est dit ; d’où un deuxième théorème noosphérien : en régime permanent, l’innovation est condamnée à l’alternative : rester localisée et confidentielle ou devenir un gadget indigent durablement installée dans le paysage, voire un simple élément de langage des programmes.
Mais pour ceux qui la font vivre d’une façon ou d’une autre, la première vaut bien la peine, pour eux et pour leurs élèves. C’est bien sûr ce qui s’est passé pour la modélisation et ce qui est en marche pour le « tout algorithmique » : à quand une mesure du taux d’incidence de la « pythonphobie » ?
Références
-
Jacques Ourliac. « Cinq ans de pratique des TPE Math- SVT ». In : L’ouvert Vol. 111 (2005). Disponible sur Publimath,, p. 15-24.
-
André Warusfel. « La radioactivité ». In : Bulletin de l’APMEP n° 455 (2004), p. 881-892.
-
Annette Leroy. « Un exemple de modélisation ». In : Bulletin de l’APMEP n° 459 (2005) , p. 469-476.
-
Rudolph Bkouche. « Le dernier gadget à la mode : les TPE ». In : Repères IREM n° 42 (2001) , p. 60-64.
-
Rudolph Bkouche. « De la fin de l’enseignement ». In : Repères IREM n° 58 (2005) , p. 39-60.
-
Dominique Barbolosi. « Un exemple de démarche scientifique ». In : Repères IREM n° 71 (2008) , p. 5-22.
⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅♦⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅
François Boucher est retraité de l’Éducation nationale et continue de s’intéresser aux mathématiques et à leur enseignement.
-
Terme employé ici pour désigner génériquement toute discipline, autre que mathématique, concernée par le sujet étudié.
-
Une équation dite à retard de la forme \(c'(t)=-\mu\,c(t-\tau)+D\) avec \(\tau>0\) conviendrait mieux.
-
L’usage d’un \(\approx\) à la place d’un \(=\) est fréquent.
-
En physique, on préfère la durée de demi-vie : \(\dfrac{\mathstrut\ln(2)}{\mathstrut\mu}\cdotp\)
-
Deux siècles après la parution de la théorie analytique de la chaleur la confusion semble entretenue partout avec ardeur.
-
A priori seulement ; les décennies passées ont montré qu’introduire du « mieux » (l’innovation) pour permettre de comprendre le « moins » (les mathématiques) en laissant la masse des enseignants sans réponse à la question du « comment ? » aboutissait à l’échec, ainsi qu’on a pu le constater systématiquement à l’entrée dans l’enseignement supérieur.
2 réflexions sur « De la modélisation… et de l’innovation pédagogique »
Les commentaires sont fermés.