UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN‐ MOHAMED BOUDIAF
FACULTE D’ARCHITECTURE ET DE GENIE CIVIL DEPARTEMENT DE GENIE CIVIL
COURS DE METHODES NUMERIQUES
M. B. BENMANSOUR B ENMANSOUR
Chapitre I : Rappels sur les systèmes d’équations
linéaires - Inversion de matrices Plan 1. Position du problème 2. Méthode du pivot 2.1. Méthode de GAUSS-JORDAN 2.2. Méthode de GAUSS 2.3. Cas des matrices bandes 3. Méthodes itératives 3.1. Méthode de JACOBI 3.2. Méthode GAUSS-SEIDEL 3.3. Facteur de relaxation 4. Inversion de matrices
1. Position du problème Considérons le système linéaire suivant de n équations à n inconnues :
Ce système s’écrit sous la forme :
2
Chapitre I : Rappels sur les systèmes d’équations
linéaires - Inversion de matrices Plan 1. Position du problème 2. Méthode du pivot 2.1. Méthode de GAUSS-JORDAN 2.2. Méthode de GAUSS 2.3. Cas des matrices bandes 3. Méthodes itératives 3.1. Méthode de JACOBI 3.2. Méthode GAUSS-SEIDEL 3.3. Facteur de relaxation 4. Inversion de matrices
1. Position du problème Considérons le système linéaire suivant de n équations à n inconnues :
Ce système s’écrit sous la forme :
2
si
,
et
i représente le numéro de ligne et j le numéro de colonne. Une matrice est dite triangulaire si pour j>i ou pour i>j. Une matrice bande est une matrice dont tous les éléments sont nuls sauf sur une bande autour de la diagonale principale. Ces matrices se rencontrent dans la résolution d'équations aux dérivées partielles par la méthode des différences finies ou dans la méthode des éléments finis. La résolution du système précédent peut s’effectuer par deux méthodes : - la méthode directe (dite méthode du pivot), - la méthode itérative. La méthode du pivot est commode pour les systèmes denses d’ordre supérieur, ainsi que pour les matrices bandes même d’ordre élevé. La méthode itérative est mieux adaptée aux autres matrices d’ordre élevé et comportant de nombreux éléments nuls.
2. Méthode du pivot 2.1. Méthode de GAUSS-JORDAN 2.1.1. Description de la méthode C’est la méthode la plus utilisée. Pour la présenter, nous allons prendre l’exemple d’un système de 4 équations à 4 inconnues :
La méthode classique de Cramer qui repose sur les déterminants, donne : où est le déterminant de la matrice, et celui déduit de en y remplaçant la j colonne par la colonne second membre. Pour résoudre le système, cette méthode nécessite n 4 opérations si n est le rang de la matrice. Dans la méthode du pivot, on choisit successivement successivement chaque ligne comme ligne pivot ; le le er pivot étant le 1 élément non nul de la ligne. ème
3
Ainsi, on divise la ligne n° 1 du système par
:
On annule le 1 er terme de chacun des autres lignes : à la 2 ème ligne, on retranche la 1 ère multipliée par , à la 3ème ligne, on retranche la 1 ère multipliée par retranche la 1ère multipliée par .
, à la 4ème ligne, on
Le système devient :
a- La 2ème ligne est considérée maintenant comme une ligne pivot, et comme un ème élément pivot. On répète sur cette 2 ligne les opérations précédentes, et on obtient après division de cette ligne par :
On annule les autres termes de la seconde colonne ; c’est à dire : à la 1 ère ligne, on retranche la seconde multipliée par , à la 3 ème ligne, on retranche la 2 ème multipliée par ligne, on retranche la 2 ème multipliée par .
, à la 4ème
On obtient :
a-
On considère ensuite la 3 ème ligne comme pivot, puis la 4 ème ligne ; ce qui donne :
4
soit la solution du système :
D’une manière générale, si on applique cette procédure au système matrice d’ordre n, •
•
•
où A est une
on remarque qu’à l’issue de la 1 ère étape, on obtient la matrice comportant des 0 et un 1 dans sa 1 ère colonne, à l’issue de la 2ème étape, on a une matrice comportant des 0 et des 1 dans ses 2 premières colonnes, etc. à l’issue de la k ième étape, on obtient un système de la forme : avec
et
matrice colonne d’éléments
Pour les k premiers éléments diagonaux, on a :
si
Pour les colonnes 1 à k éléments non diagonaux, on a : les composantes du vecteur
si
et
;
.
L’étape suivante consiste à prendre
comme élément pivot.
On divise la (k+1) ième ligne par cet élément, ce qui donne pour j=k+1 à n : et
si
et Pour chaque ligne
, la ligne k+1 multipliée par
On obtient alors le système
est retranchée.
avec :
Résumé de la procédure : 1. Transformation de la matrice [A,y] en une matrice [I,y’] : Pour k variant de 0 à n-1, on a :
5
et
étant
2. La solution x i du système résultant s’écrit alors :
; avec
Le nombre d’opérations nécessaires au passage de [A ,y](k) à [A, y] (k+1) est : n. additions (= n.a) = n. multiplications (= n.m) = (n-1).(n-k+1) n. divisions (= n.d) = (n-k+1) Le passage de [A ,y] à [A, y] (n) nécessite environ opérations de calculs. La méthode ainsi exposée, présente un certain nombre de défauts : • •
•
lenteur compte tenu du nombre d'opérations si le rang n de la matrice A est grand, difficulté si le pivot est nul puisque la division n'est plus possible (dans ce cas, il faut permuter les colonnes tout en veillant à la cohérence des calculs qui suivent), précision si le pivot est faible (<<1), les erreurs d’arrondi deviennent très importantes et affectent toute la suite des calculs.
2.1.2. Exemple
Soit le système à résoudre :
On forme tout d’abord la matrice [A, y] : K=1 k=1
Normalisation
Réduction
K=2 k=2
Normalisation
Réduction
6
K=3 k=3
Normalisation
La solution est
Réduction
; d’où :
2.2. Méthode de GAUSS On diagonalise la matrice A, et on ne fait apparaître les zéros qu’en dessous de la diagonale. La solution xi du système nécessite 2 étapes :
•
Une triangularisation de la matrice A,
Pour k variant de 0 à n-1, on a :
•
Une résolution du système triangulaire :
avec j=n-1 à 1
D’où l’expression de la solution finale :
7
Cette solution nécessite environ n3 /3 opérations. Pour les pivots nuls ou petits, on est confronté aux mêmes difficultés signalées dans la méthode précédente de GAUSS-JORDAN.
2.3. Cas des matrices bandes Soit le système tridiagonal suivant :
La matrice est connue par les 3n données :
où
Ainsi, le système décrit par ces 3n données peut être résolu par la méthode de triangularisation (méthode de Gauss).
3. Méthodes itératives Nous allons décrire ces méthodes brièvement sans passer par des calculs ou des démonstrations mathématiques complexes, car cela nous éloignera des objectifs du cours.
3.1. Méthode de JACOBI
Soit le système suivant de 3 équations à 3 inconnues :
On résout le système de la manière suivante :
8
On donne aux inconnues les valeurs arbitraires initiales , , . Si ces valeurs sont portées au second membre de la solution précédente, on obtient :
Ce nouvel ensemble porté dans le second membre des équations précédentes donne un autre ensemble
,
,
, et ainsi de suite.
3.2. Méthode de GAUSS-SEIDEL On reprend le calcul comme précédemment. Pour le système précédent par exemple, on choisit un ensemble de valeurs
On porte
et
,
,
.
dans la 1 ère équation et on obtient : , qui est portée dans la 2 ème équation du
C’est cette nouvelle valeur de x1, et non pas système, donnant :
De même dans la 3 ème équation, on porte
et
, et non
et
, et on obtient :
Lorsqu’une inconnue est utilisée, c’est automatiquement la plus récente valeur calculée. Ceci assure une convergence des calculs bien plus rapide que la méthode de JACOBI. On arrête les calculs lorsque les valeurs successives de x j sont suffisamment voisines. Pour cela, on peut utiliser, •
soit le critère de Convergence absolue :
•
soit le critère de Convergence relative :
9
Pour les systèmes où les matrices qui sont de rang élevé, il n’est pas commode de faire le test de convergence sur chaque inconnue x j. Dans ce cas, on fait le test soit seulement sur certaines inconnues que l'on choisit, soit les quantités suivantes :
ou
ou
ou
La convergence du procédé ne dépend pas du choix des valeurs initiales , mais seulement des valeurs des coefficients. On montre que la convergence est assurée si on a, pour chaque valeur de i (c’est à dire pour chaque ligne), la relation
est vérifiée.
Autrement dit, il y a convergence si chaque élément diagonal est supérieur ou égal, en module, à la somme des modules des autres éléments de sa ligne.
3.3. Facteur de relaxation Si la convergence existe, sa rapidité dépend du choix de . En effet, plus les valeurs initiales sont proches des valeurs réelles, et plus la convergence est rapide. L’utilisation d’un facteur de relaxation λ définie par où permet d’accélérer la convergence. λ est appelée " facteur de relaxation " (dans la pratique, il est compris entre 0 et 2). Pour
, le processus diverge.
Pour s’approcher de la valeur recherchée rapidement, on prend itératif déjà convergent et pour un processus divergent.
dans un processus
Les méthodes itératives jouent un rôle très important dans la résolution numérique de systèmes de grandes tailles et dans les systèmes (ou équations) non linéaires.
4. Inversion des matrices Selon la méthode de Cramer, une matrice A de rang n n’est inversible que si son déterminant -1 ∆ est différent de zéro. Dans ce cas, le produit de A par la matrice inverse A donne la matrice unitaire I . où En appliquant la méthode de Cramer sur la matrice A, on peut déterminer A-1. 10
Exemple :
;
qui vérifie que :
On obtient en utilisant la méthode de Cramer :
L’algorithme de Gauss-Jordan présenté au début de ce cours (méthode du pivot) opère aussi le passage de la matrice C=[A,y] à la matrice D=[I,X] où X est la solution du système linéaire A.X=y ; Soit X =A-1.y . Après les opérations de l’algorithme de Gauss-Jordan, on obtient : D=A-1.C=A-1.[A,I]=[I,A-1] Cette méthode, de calcul de l’inverse d’une matrice qui est résumée ci-dessous, permet de calculer A-1 avec un nombre d’opérations nettement inférieur à celui de la méthode de Cramer.
Transformation (A,I)
Pour
-1
(I,A )
, on a :
Pour
Pour
Exemple :
Soit la matrice
. Calculer A-1 par la méthode de Jordan.
11
k =1
Normalisation
; Réduction
k =2
Normalisation
; Réduction
k =3
; Réduction
Normalisation
Finalement, on vérifie que :
12
Chapitre II : Résolution des équations et systèmes non linéaires
Application à la recherche de valeurs non nulles des équations transcendantes
Plan 1. Introduction 2. Méthode itérative générale 3. Méthode de Newton-Raphson 4. Résolution d'une équation polynomiale 4.1. Application de la méthode de Newton au calcul d'une racine carrée 4.2. Application à la recherche des valeurs nulles des équations transcendantes 5. Méthode de Bairstow 6. Résolution des systèmes d'équations non-linéaires 6.1. Généralisation de la méthode de Newton-Raphson 6.2. Utilisation d'une méthode de minimisation de fonctions
1. Introduction Dans la pratique, la plupart des problèmes se ramènent à la résolution d’une équation de la forme : La résolution de cette équation dépend de la classe à laquelle appartient la fonction f . Si f est un polynôme de degré n, on sait que l’équation possède n racines complexes. Si l’équation est transcendante, elle peut avoir un nombre fini, voire nul, ou infini de racines. Le problème est alors de trouver la racine dont on sait l’existence et dont, parfois, on connaît une valeur approchée. Les méthodes de résolution sont toujours des méthodes itératives.
2. Méthode itérative générale On suppose que l’équation a été mise sous la forme : définissant par exemple puisque lorsque
(ceci est toujours possible en , ).
À partir d’une valeur initiale x1, que l’on se donne, on engendre la suite :
13
Si la suite des mesures x1, x2, x3,…, xn converge vers une valeur x0, alors :
, et
; x0 est une racine.
Fig. 1 : Exemple de solution convergente (régime oscillatoire convergent) Supposons que l’équation admette une racine x0 sur l’intervalle [a,b]. On peut légitimement supposer que f(x) prendra des valeurs sur cet intervalle. Si l’on n’ajoute pas d’hypothèses supplémentaires, on ne peut être sûr de la convergence. Il est donc impossible de donner une condition nécessaire sans expliciter la fonction f . C’est donc une étude de cas.
3. Méthode de Newton-Raphson Cette méthode s’applique à des équations du type , pour lesquelles on peut calculer la dérivée de f : f’(x). Soit x1 une valeur approchée de la racine s inconnue. Posons : x2=x1+h, et cherchons l’accroissement qu’il faut donner à x1, de façon à ce que : Après développement en série de Taylor à l’ordre 2, on obtient :
14
ou approximativement :
c’est à dire :
et plus généralement, la solution : Interprétation géométrique :
,soit
La valeur x2 est l’abscisse du point d’intersection avec l’axe ox de la tangente au graphe y=f(x) en x1.
Sens de l’approximation :
Si l’on avait fait aucune approximation dans l’écriture de pour la racine s, l'expression suivante :
, on aurait obtenu,
donc :
Ce qui conduit à la conclusion suivante : •
Si , x2 est plus proche de s que x1, et il est du même côté : x2 est donc une meilleure approximation. Si la racine est simple, et si f’ conserve un signe constant au voisinage de la racine, la suite est une suite monotone bornée par 0 ; elle converge, donc l’algorithme converge.
•
Si , x1 et x2 sont de part et d’autre de s : l’approximation x2 peut alors être moins bonne que x1. mais si la racine est simple, f(x2) sera de signe contraire à celui de f(x1) : f(x1) et f(x2) seront alors de même signe et l’algorithme converge. 15
4. Résolution d’une équation polynomiale L’application de la méthode de Newton implique le calcul du polynôme dérivée . Écrivons le polynôme
La division de
et de sa
sous la forme :
par le monôme
où R est une constante de valeur
où
est une valeur arbitraire donne :
.
En divisant de nouveau le polynôme de degré n-1 par
, on obtient :
Donc :
La valeur de la constante S est donnée par :
.
L’application de la formule de Newton peut donc se faire sous la forme : Les valeurs de R et de S s’obtiennent donc au moyen des relations de récurrence qu’on établit en égalant les puissances successives de x dans les diverses expressions du polynôme :
De même, les coefficients
s’obtiennent au moyen de formules analogues : 16
On peut remarquer que le calcul de R et de S est analogue à celui du calcul des polynômes
et
.
4.1. Application de la méthode de Newton au calcul d’une racine carré Soit l’équation
La formule de Newton s'écrit : soit la formule de récurrence : Quand n tend vers l’infini, xn+1 tend vers xn et par conséquent : Cet algorithme converge quelque soit la valeur de x1 d’initialisation, pourvu que
.
4.2. Application à la recherche des valeurs non nulles des équations transcendantes Dans le cas d'un problème unidimensionnel de conduction de la chaleur dans une barre par exemple de longueur , la solution analytique de la température obtenue par la méthode d'orthogonalisation est la somme d'une réponse en régime transitoire et d'une réponse en régime permanent. Selon l'axe de la barre, cette solution est de la forme :
(1) à cette solution, on ajoute l'équation transcendante donnée par : 17
(2) Pour déterminer la température
à tout instant
et en tout point
résoudre l'équation transcendante (2) afin d'obtenir les racines L'équation (2) est du type : En traçant sur le même graphe
, on doit
.
et et
, on obtient les courbes de la figure 2.
D'après ce graphe, on voit bien qu'il existe une solution par intervalle où . Cette solution est l'intersection de la courbe avec celle de
.
D'où pour l'intervalle comme cela est indiqué sur le graphique, on a les cinq racines suivantes pour une valeur égale à du terme ( ): 1ère racine = 0.988241 2ème racine = 3.542166 3ème racine = 6.509659 4ème racine = 9.580092 5ème racine = 12.684082
Fig. 2 : évolution des solutions
18
et
5. Méthode de Bairstow La méthode de Bairstow permet de calculer des racines réelles ou complexes d’une équation polynomiale à coefficients réels. La méthode consiste à extraire (le plus exactement possible) les racines (réelles ou complexes) deux à deux (à la fin, il en reste éventuellement une), jusqu’à épuisement des n racines. Soit à trouver les racines de l’équation polynomiale suivante :
On effectue la division eucludiènne de f par le trinôme deux nombres quelconques :
Les coefficients
, où p et q sont à priori
dépendent de p et q, de même que r et S.
Si r=S=0, alors f(x)=0 permet de donner
(donc deux racines de f(x) déjà).
Si r et/ou S ne sont pas nuls, la méthode de Bairstow va consister à déterminer par approximations successives les valeurs de p et q qui annulent r et s :
Ce système peut être non linéaire. On le supposera linéaire au voisinage de chaque couple (p,q) fixé. Pour cela ,on se donne 2 valeurs p0 et q0 arbitraires. On calcule alors successivement et de telle sorte que :
Soit au premier ordre en
et
:
Si l’on pose : 19
et
La solution du système précédent est (Cramer) :
Les expressions qui entrent dans le calcul de δ , P et Q vont être évaluées par étapes. Les coefficients sont liés aux coefficients relations suivantes :
du polynôme initial par l’intermédiaire ses
relations auxquelles on peut ajouter :
en ayant défini
et
par :
Ce tableau (I) permet de calculer les
et
.
, r et S en fonction de p et q.
Posant maintenant : 20
, avec k=0, 1, 2, …, n-1 et En dérivant le tableau (I) par rapport à p, on obtient :
Ce tableau (II) permet de calculer les C i (i=0 ,1, 2, …, n-1) . Posons maintenant :
, En dérivant le tableau (I) par rapport à q, il vient :
la comparaison des tableaux (II) et (III) montre que :
21
, pour On en conclut alors :
et Les tableaux (I) et (III) permettent de calculer les dérivée partielles :
et par conséquent, les quantités δ , P, Q recherchées sont :
Mise en œuvre de la méthode :
Le calcul du premier trinôme
s’obtient à l’issue des phases de calcul suivantes :
1. On fixe arbitrairement deux valeurs p0 et q0. 2. On calcule alors les deux valeurs :
On constitue le tableau : On calcule δ , P et Q et on en déduit :
, et le tableau
.
et
3. Si et , alors les racines de 4. Sinon, on remonte en 2 en reportant des valeurs 22
sont les racines du polynôme initial. et , et ainsi de suite.
Les deux premières racines ayant été extraites, on applique de nouveau la méthode de Bairstow au polynôme quotient.
6. Résolution des systèmes d’équations non linéaires 6.1. Généralisation de la méthode de Newton-Raphson La méthode Newton peut s ‘appliquer à la résolution d’un système de plusieurs équations non linéaires :
A partir d’un couple de valeurs approchées (x1 ,y1) d’une solution du système, on peut déterminer deux accroissements h et k à donner à x1 et y1 de manière à ce que :
En développant en 1 er ordre, il vient :
où l’on a posé :
et
Les quantités h et k s’obtiennent donc, en résolvant le système linéaire suivant : avec : Le calcul est alors relancé jusqu’à ce que h et k deviennent inférieures à une valeur ε que l’on se donne (selon la précision voulue pour le calcul). Ainsi, l’algorithme correspondant est :
avec : ou encore :
23
Cette méthode de résolution peut être généralisée pour la résolution de système de n équations non linéaires à n inconnues.
6.2. Utilisation d’une méthode de minimisation de fonctions La résolution du système non linéaire suivant :
peut se ramener à la recherche du minimum de la fonction : étant écrite sous la forme d’une somme de deux fonctions est positive ou nulle.
qui
Puisque les méthodes de minimisation d’une fonction (annulation de la dérivée, par exemple) ne donnent pas forcément le minimum absolu d’une fonction, il est nécessaire de vérifier que le minimum trouvé est bien la solution recherchée ; c’est à dire celle pour laquelle on a .
24
Chapitre III : Interpolation Polynomiale Extrapolation Plan 1. Position du problème 2. But de l’interpolation 3. Interpolation polynomiale de Lagrange 4. Erreur de l’interpolation de Lagrange 5. Polynôme d’interpolation de Newton
1. Position du problème Étant donné un ensemble de doublets numériques (résultats expérimentaux, par exemple), le problème à résoudre consiste à trouver un modèle mathématique (polynomial, trigonométrique, exponentiel, etc.), et ses paramètres significatifs (c'est à dire ses coefficients), afin de réduire (on parle de régression) toute une information en une expression mathématique utilisable, c’est à dire calculable, intégrable, dérivable, etc. Lorsque les doublets sont considérés comme ‘sûrs’, au sens expérimental du mot, on tentera une interpolation qui restituera toutes les valeurs numériques des doublets là où ils se trouvent. Lorsque les doublets sont entachés d’incertitudes sur leurs déterminations, en particulier s’ils sont très nombreux, on tentera une approximation qui restituera ‘au mieux’ l’information contenue dans les doublets. On raisonne sur une fonction numérique ‘ f ’ à une seule variable réelle x, connue pour N valeurs. Soit n, le nombre de paramètres du modèle mathématique à déterminer.
Le modèle est vérifié pour tous les doublets interpolation
Le modèle est optimisé entre tous les doublets approximation 25
2. But de l’interpolation Étant donnée une fonction f définie sur un intervalle fermé [a,b] de (a
linéairement indépendantes :
le but de l’interpolation est de trouver les a i pour que : où et où les fonctions de base devront pouvoir se prêter à tous les traitements numériques courants. Pratiquement, on pourra choisir la suite des monômes :
puisqu’on en vertu du théorème de WEIERSTRAUSS , toute fonction continue peut être approchée uniformément par un polynôme. Il pourrai être opportun pour simplifier les calculs, de choisir des fonctions de base qui en plus de l’indépendance linéaire, ont des propriétés d’orthogonalité, suivant la définition d’un produit scalaire. Enfin, pour une fonction périodique, la base formée par les fonctions sinus et cosinus paraît tout à fait adaptée.
3. Interpolation polynomiale de Lagrange La méthode est ancienne, mais elle est parfaitement adaptée aux traitements informatiques. Soit f une fonction définie sur un fermé [a,b] de (a
26
On cherche s’il existe un polynôme P(x), tel que
Posons :
, pour i variant de 0 à n+1
où les a0, a1, …,a j, …, am
On a donc :
Dans ce cas, trois éventualités peuvent se présenter : • • •
m>n système impossible aucune solution, m=n système de Cramer une solution unique, m
Ici, c’est le cas où m=n qui nous intéresse. La solution existe et est unique, car le déterminant des coefficients (
) est un déterminant de Van der Monde , non nul et qui vaut :
Recherche de la solution : Considérons les polynômes (de Lagrange) suivants :
; où i=0 à n. Le produit effectué sur les indices j tels que
Il est clair que
et que :
et
; si
27
.
Donc, ces polynômes sont de degré n, et sont tels que : Ils sont linéairement indépendants, puisque si :
alors pour :
, avec k=0 à n, on a :
Les n+1 polynômes de Lagrange forment une base de l’espace vectoriel des polynômes de degré au plus égal à n. Sur cette base, on a :
pour i=0 à n.
Car, on a bien : Autres propriétés :
et si l’on pose :
on a alors :
Cas particuliers des abscisses équivalentes :
Soit h un réel positif, appelé pas de la partition. On pose : Alors l’expression de
et
où s est un réel quelconque. donnée dans le polynôme de Lagrange devient :
est un polynôme de degré n, à coefficients purement numériques (
28
):
où Le tableau des coefficients forme une matrice, de rang n+1, appelée matrice régulière de Lagrange. Ces matrices peuvent être tabulées. Exercice :
Établir la matrice régulière correspondant au cas de l’interpolation quadratique (matrice régulière de Lagrange) Solution Soit les données de la fonction f suivante :
0
1
2
1
-2
-1
où : Recherchons tout d’abord le polynôme d’interpolation de Lagrange de la fonction f . Ce polynôme s’écrit sous la forme :
; où
i
0
0
1
1
2
2
j
1
2
0
2
0
1
On obtient alors 3 polynômes
:
,
et
D’où :
Détermination de la matrice régulière correspondante :
29
.
On a :
avec
,
On obtient alors :
D’où la matrice régulière de Lagrange correspondant à l’interpolation quadratique est la suivante :
On peut monter également les autres cas de matrices régulières d’ordre inférieur ou supérieur (interpolation linéaire, cubique, etc.) :
interpolation linéaire
interpolation cubique
Suivant les auteurs et/ou suivant la conduite des calculs, les matrices régulières de Lagrange peuvent être ces matrices ou leurs transposées.
30
4. Erreur de l’interpolation de Lagrange Pour
, il s’agit d’estimer
Si on ne possède d’aucun renseignement sur f , autre que sur
, on ne peut rien dire
). Si l’on ajoute des hypothèses sur f , elles se répercuteront sur .
(autre que
5. Polynôme d’interpolation de Newton : Il n’y a pas de relation simple entre le ième polynôme de Lagrange relatif à la partition et le (i+1)ième polynôme relatif à . Du point de vue numérique, ceci est un inconvénient auquel remédie l’interpolation de Newton. Exercice : Monter que les fonctions :
forment une base de l’espace vectoriel des polynômes de degré inférieur ou égal à n sur Soit le polynôme
développé sur la base
:
tel que : On a : , par convention de notation
d’où :
; par convention.
Remarques :
31
.
Soit ensuite : d’où l’on tire :
et :
, par convention.
On peut donc dresser le tableau suivant (algorithme) :
et on peut généraliser par récurrence :
avec les mêmes remarques que précédemment : est insensible à l’ordre
et cette propriété se généralise à l’ordre k par
récurrence.
qui se généralise sans difficulté à l’ordre k .
qui se généralise sous la forme :
32
qui se généralise sous la forme :
expression utile pour déterminer l’erreur d’interpolation.
propriété qui se généralise évidemment à l’ordre n.
Finalement, le polynôme d’interpolation de Newton relatif à la partition
33
est donnée par :
Chapitre IV : Approximation - Lissage des courbes -Méthode des moindres carrés Plan 1. Principe de la méthode 2. Lissage par un polynôme 3. Exemples de lissage
1. Principe de la méthode Lors d’une expérimentation, on a obtenu les résultats suivant représenté sur le graphique cidessous. Ces résultats sont les mesures physiques caractérisant, par exemple, la température en fonction du temps.
On a
et
. 34
La fonction f(x) peut être représentée par une ligne passant par tous les points, par exemple en utilisant l’interpolation de Lagrange. Du point de vue physique, ceci n’a pas de sens. Au contraire, pour mieux représenter f(x) par une courbe, celle-ci doit passer entre les points expérimentaux, voire ne passant par aucun d’entre eux comme c’est le cas de la figure cidessus. Une première méthode consiste à tracer ‘à l’œil’ la fonction g(x) censée représenter le mieux possible f(x) décrite par les points expérimentaux. Évidemment, il est préférable d’avoir cette représentation par une méthode plus sûre. Ainsi, on choisit une fonction g(x), censée représenter f(x). Dans le cas du graphique ci-dessus par exemple, g(x) est représentée par une droite de la forme :
g(x) dépend d’un certain nombre de paramètres
Donc, cette fonction sera de la forme on a : par
. . Dans le cas du graphe précédent,
. On désigne les coordonnées des points expérimentaux où
et nous formons la quantité (graphe précédent) :
Dans ce cas, on cherche si et seulement si :
de telle sorte que s soit minimal. Ainsi, s est minimal
on obtient alors un système de (r+1) équations (pas forcément linéaires) à (r+1) inconnues :
qui peut être résolu par l’une des méthodes développées au chapitre I.
35
2. Lissage par un polynôme Dans la pratique, on utilise fréquemment un polynôme de degré r pour la représentation de f(x). Dans ce cas, la fonction g(x) sera :
En appliquant la méthode précédente qui consiste à calculer s on obtient :
Après la minimisation, on obtient :
soit :
Dans le cas général, on a :
soit :
Pour k=0, on retrouve bien
; et pour k variant de 0 à r , on obtient un système de (r+1)
équations à (r+1) inconnues. Ces inconnues sont En posant :
le système précédent s’écrit : 36
.
Ce système peut être résolu par la méthode du pivot par exemple. Pour la résolution, il est fortement recommandé de travailler en double précision (si on n’utilise pas le langage MATLAB), car à partir d’un polynôme de degré 7, les erreurs d’arrondi donnent des résultats sans signification. En général, on utilise un polynôme de faible degré, et si c’est possible des droites de préférence. Il est souvent utile pour cela de changer d’échelles (échelles logarithmique ou semi-logarithmique par exemple).
3. Exemples de lissage 3.1. Cas d’une droite de régression (ou droite des moindres carrés) g(x) est un polynôme de degré 1 r=1.
Soit : Le système précédent devient alors :
En posant :
le système précédent devient :
37
Les solutions de ce système sont :
et g(x) devient :
Pour
, on a :
Ainsi, a1 s’écrit :
où
est la variance des abscisses xi des points M i.
avec :
En effet :
et en faisant x=y, on obtient :
y, on définit de la même façon que pour x la variance Pour y
38
:
x Ainsi, le coefficient de corrélation entre les variables xi et yi sera défini par :
On remarque que les coefficients a1 et C sont liés par la relation :
3.2. Cas d’une fonction comportant des exponentielles Exemple :
A la suite d’une série de mesures physiques, on a obtenu les résultats suivants dans le tableau ci-dessous :
1
2
3
4
5
6
7
8
9
10
11
0,00
0,40
0,80
1,20
1,60
2,00
2,40
2,80
3,20
3,60
4,00
2,97
2,87
2,45
1,91
1,24
1,29
0,71
0,57
0,74
0,42
0,39
Approcher la fonction
par une exponentielle.
Solution :
et il s'agit de calculer les constantes a et A à partir des mesures physiques. On a :
La minimisation de S donne :
39
avec :
Dans la 2ème équation du système, on remplace A par sa valeur obtenue dans la 1 ère équation, et on obtient :
Cette équation est donc du type f(a) = 0, on peut la résoudre par la méthode de Newton par exemple. exemple. Pour cela, cela, on choisit choisit une valeur valeur arbitraire arbitraire ‘ plusieurs itérations, on on montre que :
Après itérations, on trouve :
d’où la fonction :
40
’, et on calcule calcule
. En faisant faisant
Chapitre V : Intégrations numériques Méthodes d'intégration Plan 1. Introduction 2. Méthodes d’intégrations numériques 2.1. Méthode des trapèzes 2.2. Méthode de Simpson 2.3. Formules de Newton-Cotes 2.4. Méthode de Gauss 2.5. Intégration sur un pas quelconque 2.6. Problèmes liés aux limites de la fonction 2.6.1. Intégration sur un domaine infini 2.6.2. Singularité dans l’intégrale
1. Introduction Pourquoi utilise t-on l’intégration numérique ? Lorsque l’intégrale ne peut pas être évaluée analytiquement ou lorsque l’intégrale n’est pas donnée sous forme analytique mais numériquement en un certain nombre de valeurs discrètes, l’intégration numérique peut être utilisée. Il existe plusieurs méthodes permettant d’évaluer les intégrales de fonctions bornées sur un intervalle. La présence de singularité dans les fonctions (ou dans certaines fonctions) rend les calculs parfois difficiles.
2. Méthodes d’intégrations numériques 2.1. Méthode des trapèzes Cette méthode consiste à remplacer la courbe f(x) par une ligne brisée et à calculer l’aire de chaque trapèze, ensuite faire la somme des aires sur l’intervalle sur lequel la fonction est définie.
41
Dans ce cas, on a :
Si :
; et est l’intervalle d’intégration de f(x), qui est divisé en n intervalles , on a :
Dans la suite, on suppose que tous les points sont régulièrement espacés :
Ainsi, l’intégrale précédente devient :
Cette démonstration ne permet pas de mettre en évidence l’erreur d’intégration. Un développement en série de Taylor au 1 er ordre permet de faire apparaître l’erreur qui correspond aux termes du second ordre en . Cette erreur est d’autant plus faible que le pas est petit. D’où : où
42
Pour la plupart des fonctions, on peut obtenir une meilleure approximation en estimant simplement
par :
et l’intégrale précédente devient :
Cette méthode est appelée la méthode des trapèzes avec corrections aux extrémités. En tenant compte de cette correction, la méthode devient d’ordre 4. Cette méthode peut donc être utilisée pour l’intégration d’une fonction donnée numériquement à intervalles discrets. f’(a) et f’(b) peuvent être calculées par des différences finies par exemple.
2.2. Méthode de Simpson Cette méthode consiste à remplacer , entre
et
, la fonction par l’arc de parabole
passant par , et . Un développement en série de Taylor permet de démontrer la formule de Simpson. Pour cela, on pose :
avec Dans ce cas, on obtient :
L’aire de 2 tranches soit,
On remplace
d’intervalles
et
s'écrit
par son expression utilisant les différences centrales :
43
,
En posant ,
on obtient :
soit :
L’aire sur l’intervalle
est alors obtenue par :
Cette intégrale nécessite que le nombre d’intervalles soit pair . En remplaçant dans l’intégrale précédente les
par leurs expressions, on trouve :
Après regroupement des termes, et en remarquant que :
il vient alors :
soit finalement : 44
Cette méthode d’intégration est exacte pour l’intégration des polynômes jusqu’à l’ordre 3 inclus. La méthode de Simpson est une méthode d’ordre 4. Exemple :
Calculer par la méthode de Simpson. Avec 4 tranches, on a : L’erreur relative est :
2.3. Formules de Newton-Cotes Les méthodes des trapèzes et de Simpson sont des cas particuliers des formules de NewtonCotes. L’intégrale est une combinaison linéaire de ; ce qui signifie que cette intégrale est calculée de façon exacte lorsque est un polynôme de degré inférieur ou égal à n : le nombre de valeurs est égal à n+1, on intègre sur n tranches, et les valeurs des coefficients de la combinaison linéaire dépendent de n. La méthode des trapèzes et la méthode de Simpson correspondent respectivement à n=1 et n=2. Le principe de la méthode de Newton-Cotes dans le cas le plus général à pas non constant, sera donné dans la suite de ce cours. Les résultats de cette méthode donnent :
soit encore :
avec où A et ak sont données par le tableau suivant :
Nom de la formule
n
A
Trapèzes
1
2
1
45
1
Simpson
2
3
1
4
1
Villarceau
4
45
14
64
24
Hardy
6
140
41
216
27 272
64
14 27 216
41
Remarque :
Les formules de Newton-Cotes ne doivent pas être utilisées pour ‘ n’ élevé. La méthode de Simpson est couramment utilisée.
2.4. Méthode de Gauss C’est une méthode très précise. Elle utilise des points qui ne sont pas régulièrement espacés et convenablement choisis. Lorsque la fonction est connue analytiquement ou lorsqu’elle est tabulée numériquement en ces points précis, la méthode de Gauss peut être appliquée. En développant sur une base de polynômes, l’intégrale de peut s’écrire comme une combinaison linéaire des valeurs que prend la fonction en divers points :
Dans cette expression, la constante C est proportionnelle à (b-a) et les facteurs de pondération dépendent de la fonction par laquelle on approche (segments de droites pour la méthode des trapèzes, arcs de paraboles pour la méthode de Simpson). En ce qui concerne la méthode de Gauss, on développe dans une base de polynômes orthogonaux dont les sont les racines de ces polynômes, qui sont alors irrégulièrement espacés. Ces polynômes sont définis sur l’intervalle . Dans ce cas, il faut faire un changement de variable sur qui permet de transformer en ; c’est à dire :
(a) On obtient donc :
(b) où
et
sont tabulés.
Ainsi, l’intégrale de
, peut être évaluée en suivant la procédure :
46
• •
•
on choisit la valeur n qui donne le nombre de points où la fonction doit être évaluée, on lit dans la table donnant et les n valeurs de qui sont deux à deux symétriques par rapport à zéro (qui sont les racines du polynôme de Legendre d’ordre n) qui correspondent à la valeur de n choisie, on calcule (b)).
par l’équation (a), ensuite on évalue l’intégrale de
(expression
Racines et poids pour la méthode de Gauss - Legendre
2
0,5773502692
1,0000000000
3
0,0000000000
0,8888888889
0,7745966692
0,5555555556
0,3399810436
0,6521451549
0,8611363116
0,3478548451
0,0000000000
0,5688888889
0,5384693101
0,4786286705
0,9061798459
0,2369268850
0,2386191861
0,4679139346
0,6612093865
0,3607615730
0,9324695142
0,1713244924
0,0000000000
0,4179591837
0,4058451514
0,3818300505
0,7415311856
0,2797053915
0,949079123
0,1294849662
4
5
6
7
Exemple :
Calculer l’intégrale
par la méthode de Gauss.
Solution :
Analytiquement, on connaît :
. 47
On choisit un , et on calcule les tableau précédent.
donnés par (d). On extrait ensuite les
et les
du
Pour b=4 et a=0, on a :
-0,861136
0,277728
0,347855
-0,339981
1,320038
0,652145
0,339981
2,679962
0,652145
0,861136
3,722272
0,347855
On calcule ensuite l’intégrale
selon l’équation (b) :
d’où :
2.5. Intégration sur un pas quelconque Dans le cas précédent, on a soit le pas donnée numériquement en des points façon quelconque.
est constant, soit la fonction à intégrer est qui ne sont pas régulièrement espacés et disposés de
La méthode générale pour intégrer une telle fonction consiste à : •
approcher la fonction f(x) par un polynôme quelconque,
•
remplacer l’intégrale par une combinaison des
.
Ainsi : où Les coefficients
sont déterminés de la manière suivante : 48
et
.
On obtient alors un système linéaire de n+1 équations à n+1 inconnues et dont les inconnues sont les coefficients
donnés par :
On remarque que lorsque n=1, on obtient la formule des trapèzes. Quand les points sont différents les uns des autres, on obtient le système de Cramer avec une solution. Et lorsque les points sont équidistants, on obtient la formule de Newton-Cotes. Pour obtenir une bonne approximation de l’intégrale de , il est conseillé de ne pas prendre beaucoup de points, car le polynôme d’interpolation devient dans certains cas une mauvaise approximation.
2.6. Problèmes liés aux limites de la fonction 2.6.1. Intégration sur un domaine infini Pour calculer l’intégrale
suivante, par exemple :
49
il faut s’assurer que cette intégrale converge. Dans ce cas, on procède de la façon suivante : •
•
on fait un changement de variable qui permet de transformer les bornes infinies en bornes finies, on sépare l’intégrale en deux :
peut être facilement évaluée par l’une des méthodes évoquées précédemment.
En ce qui concerne le calcul de négligeable, et par conséquent :
, si b est suffisamment grand,
devient
Pour le critère donné sur b (b suffisamment grand), on calcule et Si
par exemple
. , alors b (ou 2b) est pris comme borne remplaçant l’infini.
Dans la plupart des cas, on connaît la forme asymptotique de Si
pour
où l’intégrale
.
suffisamment grand, on écrit :
peut souvent être évaluée analytiquement.
On peut également faire un changement de variables pour ramener la borne infinie de la seconde intégrale singularité.
à une valeur finie. Mais cette technique introduit souvent une
50
2.6.2. Singularité dans l’intégrale La meilleure méthode pour traiter les singularités est de les éliminer si possible par l’une des nombreuses techniques algébriques ; à savoir l’intégration par partie, le changement de variables, etc. Si on doit calculer l’intégrale par la méthode de Simpson à pas constants, l’intervalle d’intégration doit exclure la borne où la singularité apparaît. Exemple :
Soit à calculer l’intégrale suivante :
est infinie sur la borne inférieure. Analytiquement, cette intégrale peut être calculée facilement : Par la méthode de Simpson par exemple, on calcule :
où ε est suffisamment petit. Comme il est très difficile d’approcher une singularité par un polynôme, on partage deux intégrales :
avec
ou
en
par exemple.
On prend un grand pas entre c et 1 et un pas petit entre ε et c. La méthode de Gauss est la mieux adaptée en général parce qu’elle correspond à une approximation par un polynôme de degré n élevé d’une part, et si, d’autre part, on choisit n pair, on n’a pas besoin de la valeur de aux bornes. Cependant si la fonction pas de bons résultats.
oscille autour de la singularité, ce type d’approche ne donne
Une autre approche possible permettant de calculer lavariables en variable . Pour le cas particulier étudié, on obtient :
51
consiste à faire un changement de
si
et par suite :
52
Chapitre VI : Résolution numériques des équations différentielles Plan 1. Position du Problème 2. Méthodes de résolution des équations différentielles 2.1. Méthode d'Euler 2.2.1. Méthode de Runge-Kutta à l'ordre 2 2.2.2. Méthode de Runge-Kutta à l'ordre 4 2.2. Méthode de Runge-Kutta à pas unique 2.3. Méthode d'Adams à pas multiple 2.3.1. Formules d'Adams ouvertes 2.3.1.1. Formules d'Adams à l'ordre 1 2.3.1.2. Formules d'Adams à l'ordre 2 2.3.1.3. Formules d'Adams à l'ordre 3 2.3.1.4. Formules d'Adams à l'ordre plus élevé 2.3.2. Formules d'Adams fermées 2.4. Méthode de Prédicteur-Correcteur 2.5. Problèmes avec des conditions aux limites : Méthode de TIR 2.6. Problèmes avec des conditions aux limites : Méthode Matricielle
1. Position du Problème Les méthodes analytiques ne sont pas suffisantes pour résoudre les problèmes d'équations différentielles. En effet, il existe plusieurs types d'équation différentielles. Chaque type nécessite une méthode de résolution particulière. La résolution de la plupart des équations différentielles requiert donc l'utilisation de méthodes numériques. Chacune de ces méthodes peut être appliquée à la résolution de la plupart des équations différentielles. Les équations différentielles peuvent être classées en deux catégories : les équations différentielles aux conditions initiales et les équations différentielles aux conditions aux limites. Exemples :
1°) Soit l'équation différentielle suivante :
53
On donne en plus de cette équation différentielle les conditions initiales suivantes :
et Dans cette équation, la variable indépendante peut être le temps, mais aussi toute autre variable. Dans ce cas, on peut dire que toute équation différentielle d'ordre avec des conditions initiales peut être remplacée par un système de équations différentielles couplées du 1er ordre. En posant
, le système précédent devient :
avec : Ainsi, un problème aux conditions initiales est donc de la forme :
où
et
On obtient alors un système de équations à inconnues. Ce système peut être résolu par rapport à une seule variable (le temps par exemple) :
Les méthodes employées pour la résolution du système précédent se généralisent de façon immédiate pour résoudre les systèmes de équations à inconnues. 2°) Soit l'équation de la propagation de la chaleur le long d'une barre :
Ce problème est à conditions aux limites. Dans de nombreux cas, on trouve des problèmes où les conditions aux limites (ou les conditions initiales) n'ont pas de sens physique.
54
2. Méthodes de résolution des équations différentielles 2.1. Méthode d'Euler La méthode d' Euler est la méthode la plus simple et la moins précise. Soit à résoudre l'équation différentielle suivante :
En supposant connue à l'instant t, le développement en série de Taylor de voisinage de donne :
au
à l'ordre 1, on obtient :
Pour
constant, on a :
est connue à
, donc, la fonction y peut être déterminée à tout autre instant ultérieur.
Exemple :
Résoudre l'équation différentielle du 1 er ordre suivante :
La solution exacte de ce système est :
Selon la méthode d' Euler , la solution de ce système s'écrit :
car 55
Dans le tableau ci-dessous, donne une comparaison entre la solution numérique et la solution exacte obtenue analytiquement pour un pas de temps s:
i
ti
yi exact
yi Méthode d'Euler
% Err. relative
1
0,1
0,90909091
0,90000000
1,00
2
0,2
0,83333333
0,81900000
1,72
3
0,3
0,76923077
0,75192390
2,25
4
0,4
0,71428571
0,69538494
2,65
5
0,5
0,66666667
0,64702892
2,95
7
0,7
0,58823529
0,56854190
3,25
9
0,9
0,52631579
0,50746495
3,58
11
1,1
0,47619048
0,45850815
3,71
D'après ce tableau, on remarque que l'erreur augmente au fur et à mesure que augmente. Donc, cette méthode est peu précise. Elle n'est pas utilisée dans la résolution numérique des équations différentielles. Nous l'avons utilisée pour introduire les autres méthodes et donner une simple idée sur l'erreur commise.
2.2. Méthode de Runge-Kutta à pas unique Les méthodes de Runge-Kutta sont bien utilisée dans la pratique, car elles présentent plusieurs avantages (facilité de programmation, stabilité de la solution, modification simple du pas et la connaissance de suffit pour intégrer l'équation différentielle). Les inconvénients de cette méthode se résument au temps de calcul lent et à la difficulté de l'estimation de l'erreur locale.
2.2.1. Méthode de Runge-Kutta à l'ordre 2 Cette méthode est obtenue en prenant les différences centrées au 1 er ordre :
Or estimée
est inconnue. Dans ce cas, on remplace dans l'équation précédente, et on obtient :
56
par sa valeur
Pour évaluer
, la fonction
doit être calculée deux fois, d'où l'appellation " Formule
d'ordre 2" : la première fois pour l'obtention de
et la seconde fois pour évaluer
.
2.2.2 Méthode de Runge-Kutta à l'ordre 4 Dans la plupart des cas, la méthode de Runge-Kutta utilisée est celle d'ordre 4 :
Le calcul de nécessite alors 4 évaluations de la fonction compliquées le temps de calcul devient important.
, et par suite pour les fonctions
2.3. Méthode d'Adams à pas multiple Cette méthode est l'une des catégories à pas multiples. Elle peut être classée en formules ouvertes ou formules fermées.
2.3.1. Formules d'Adams ouvertes Soit l'équation différentielle suivante :
(1) Le développement en série de Taylor autour de donne : 57
Dans l'équation différentielle (1), on a :
où :
(2)
2.3.1.1. Formules d'Adams à l'ordre 1 Dans l'équation (2), on garde les deux premiers termes (à l'ordre 1) :
(3) C'est l'équation d'Euler (ou méthode d' Euler ).
2.3.1.2. Formules d'Adams à l'ordre 2 On utilise les trois premiers termes de l'équation (2) :
(4) On remplace
par son expression en fonction des différences finies à gauche, et on obtient :
58
et l'expression (3) devient :
ou encore :
Les termes d'ordre 3 sont négligés. Donc, la formule est d'ordre 2. Pour calculer
, il faut
connaître et . On remarque que ne peut pas être déterminée car on ne connaît pas . Pour démarrer cette méthode, il faut utiliser une autre méthode pour évaluer (méthode de Runge-Kutta à l'ordre 2 par exemple).
2.3.1.3. Formules d'Adams à l'ordre 3 On utilise les 4 premiers termes de l'équation (2) :
On exprime trouve :
et
par leurs formules obtenues à partir des différences à gauches, et on
D'où la solution devient après regroupement des différents termes :
On a la même remarque que précédemment, on calcule Runge-Kutta à l'ordre 4.
et
en utilisant la méthode de
2.3.1.4. Formules d'Adams à l'ordre plus élevé En utilisant le même principe, on peut exprimer, par une formule générale d'ordre en fonction de
et
: 59
,
(4) Dans le tableau suivant, on donne les valeurs de formule d'ordre 6.
0
0
1
2
3
4
jusqu'à
, ce qui correspond à une
5
Ordre de la méthode
1
1
1
2
2
3
3
4
4
5
5
6
La formule la plus couramment utilisée est celle d'ordre 4 :
2.3.2. Formules d'Adams fermées Dans ces formules, on utilise le développement en série de Taylor "en arrière" :
Dans ce développement en série de Taylor , on remarque que :
60
D'où pour
, on a :
Ainsi, on obtient :
Cette formule est dite " fermée" car pour obtenir l'inconnue calculer
qui dépend lui même en général de
, il faut . On utilise donc une
méthode itérative. Pour cela, on injecte une première valeur estimée
On obtient alors une nouvelle
de
.
:
(pour l'ordre 1 par exemple) Ensuite, on injecte pour calculer . On arrête les calculs quand la convergence est réalisée. Si cette convergence s'effectue quand la précision est inférieure à une valeur donnée, on a donc :
à l'ordre
, on obtient la formule généralisée suivante :
61
Les valeurs de
0
0
sont donnée par le tableau ci-dessous jusqu'à
1
2
3
4
5
.
Ordre de la méthode
1
1
1
2
2
3
3
4
4
5
5
6
La méthode la plus couramment utilisée est celle à l'ordre 4, c'est à dire :
On constate que les formules fermées, qui sont itératives, demandent plus de temps de calcul que les formules ouvertes, puisqu'il faut calculer de telle sorte que la différence converge vers . Pour le même ordre, ces formules sont bien plus précises et plus stables que celles dites "ouvertes". Leur convergence est d'autant plus rapide que l'estimation initiale proche de la valeur exacte
est plus
.
2.4. Méthode de Prédicteur-Correcteur La combinaison des deux méthodes précédentes (formules d'Adams ouvertes et formules d'Adams fermées) constitue la méthode de prédicteur-correcteur. Il suffit de trouver une valeur estimée
proche de la valeur finale
. Le prédicteur
est obtenu par une
formule ouverte de même ordre. Cette valeur est introduite dans la méthode à formule fermée. Ceci permet d'accélérer la convergence vers la solution. Ainsi, on profite des avantages liés à la méthode d'Adams : temps de calcul réduit et erreur estimée de troncature réduite considérablement. 62
Pour la méthode d'Adams au 4 ème ordre, on a : Prédicteur : formules d'Adams ouvertes au 4 ème ordre :
(5) au pas précédent, on a
qui est la valeur du prédicteur (modificateur)
(6) Correcteur : obtenu à partir de la formule d'Adams fermée (au 4 ème ordre par exemple) :
(7) Les valeurs donné que
,
et
peuvent être calculées à partir des formules de Runge-Kutta. Étant
n'existe pas, la valeur
est calculée à partir des équations (5) et (6) et
va initialiser les calculs d'itérations (formule (7)). À partir de
, on estime
par
l'équation (5), puis par la formule (6). Cette valeur est injectée dans la formule (7) pour amorcer les itérations. Exercice :
Résoudre l'équation différentielle suivante par la méthode de Runge-Kutta à l'ordre 4, puis par la méthode de prédicteur-correcteur d'ordre 4 en se limitant à une itération pour le correcteur. On prendra et on comparera les résultats obtenus par les deux méthodes pour par exemple :
2.5. Problèmes avec des conditions aux limites : Méthode de TIR La méthode de TIR consiste à remplacer le problème de conditions aux limites par un problème de conditions initiales. Les conditions aux limites qui ne sont pas des conditions 63
initiales ne peuvent se concevoir que pour des équations différentielles d'ordre au moins égal à 2, ou pour les systèmes d'équations différentielles du 1 er ordre. Soit l'équation différentielle du second ordre suivante :
(8) avec les conditions aux limites suivantes :
On remplace ces conditions aux limites par des conditions initiales :
où
est arbitraire
En utilisant les méthodes décrites précédemment, la résolution de (8) donne une solution qui, pour fonction de , et on cherche
, prend la valeur de telle sorte qu'on ait :
. Cette solution est une
Ainsi, le problème devient une équation dont on est amené à chercher sa racine. Pour résoudre l'équation (8), on donne 2 valeurs arbitraires et
puis on déduit une valeur
et
à partir de
et
et
; ce qui donne
par interpolation linéaire. Ayant obtenu
, on en déduit
dans le cas général par :
(9) La convergence est réalisée quand
et
seront suffisamment proches l'une de l'autre.
64
Exemples : •
soit le système d'équations du 1 er ordre suivant avec des conditions aux limites :
Cette équation du 3 ème ordre peut être ramenée à un système de 3 équations du 1 er ordre, en posant :
d'où :
avec : Ce système est à conditions aux limites. Pour le résoudre, on le transforme en un système aux conditions initiales :
avec :
65
Ce système peut être résolu par l'une des méthodes décrites précédemment (prédicteurcorrecteur avec initialisation ou Runge-Kutta) ensuite on détermine la valeur de pour que soit égal à 1. •
Équations non linéaires ou à coefficients fonction de l'i nconnue :
On dit qu'une équation différentielle est non linéaire si puissances différentes de 1, comme par exemple :
,
,
, …,
apparaissent à des (10)
Si l'équation est à coefficients dépendants de l'inconnue, peut s'écrire sous la forme suivante par exemple :
Ces équations peuvent être résolues par décomposition en un système de équations à inconnues du 1 er ordre, comme c'est le cas de l'exemple précédent (équation 10) :
Cette équation peut être écrite sous la forme :
et on remplace l'ensemble des conditions aux limites par des conditions initiales.
2.6. Problèmes avec des conditions aux limites : Méthode Matricielle Equation différentielle du second ordre : différences finies
Soit à résoudre l'équation différentielle du second ordre suivante :
(11) On suppose connues :
(conditions aux limites)
66
On divise l'intervalle
en
intervalles égaux à
.
On utilise les formules d'ordre 2 aux différences centrées :
L'équation (11) devient en
et pour
:
Après regroupement des différents termes, on obtient :
équation qui peut être écrite aussi sous la forme suivante la plus simple :
Pour variant de 1 à , on obtient un système de équations à inconnues (où ). La première équation de ce système correspond à et la dernière correspond à . Ces deux équations s'écrivent, puisqu'on connaît les conditions aux limites
et
:
Ainsi, le système d'équations (12) devient :
67
Ce système est défini par une matrice tridiagonale. Sa résolution est simple et rapide : ( équations à
inconnues
). Pour aboutir à la précision recherchée, on résout le
système plusieurs fois avec des pas
, etc. jusqu'à la convergence souhaitée.
68
Chapitre VII : Calculs des équations aux dérivées partielles Plan 1. Position du Problème 2. Expression des dérivées partielles 3. Conditions aux limites 3.1. Cas où le contour suit le maillage 3.2. Cas où le contour est quelconque 4. Équations du premier ordre : Méthode des caractéristiques 4.1. Courbes caractéristiques associées à une équations du premier ordre 4.2. Exemples de problèmes liés aux conditions aux limites 4.3. Système d'équations du premier ordre 5. Équations du second ordre 6. Équations elliptiques 7. Problèmes en coordonnées cylindriques 8. Discrétisation de l'équation de la Conduction en régime instationnaire
1. Position du Problème Dans la pratique, la plupart des équations aux dérivées partielles sont du premier ou du second ordre à deux variables indépendantes, et l’extension de ces équations à un ordre plus élevé ne pose aucun problème pour la résolution. Si est une fonction des variables et , alors les équations aux dérivées partielles font intervenir
,
,
,
et
.
Dans la suite, nous exprimons ces quantités en fonction de leurs expressions établies à l’aide des différences finies. Les contours du domaine de la fonction permettent de donner les conditions aux limites.
69
2. Expression des dérivées partielles Pour calculer , on utilise les points situés de part et d’autre de . Considérons les développements en séries de Taylor autour de , de la fonction :
Posons
où
est l’un des points de la figure 1 ci-dessous :
Fig. 1 : Maillage utilisé en différences finies Pour
et
, on obtient à partir du développement précédent à l’ordre 2 les dérivées
partielles premières : soit :
(1) On a également :
soit :
(2)
70
En additionnant les développements en séries de Taylor des fonctions à l’ordre 2, on obtient les dérivées partielles secondes :
et
soit :
soit :
Pour l’obtention des dérivées croisées, équations (1) et (2) :
par exemple, on applique successivement les
Soit :
71
3. Conditions aux limites Dans le cas de plusieurs variables indépendantes, la limite représente le contour dans le cas de deux variables, la surface dans le cas de trois variables, etc. En général, on impose sur le contour (en tout point), des conditions portant soit sur la fonction (problème de Dirichlet ), soit sur le gradient de
:(
,
problème de Neumann).
3.1. Cas où le contour suit le maillage Dans la majorité des cas, le contour est constitué (ou approché) par des segments de droites qui suivent le maillage. Les conditions aux limites s'expriment de la même façon que dans le cas des équations différentielles (chapitre précédents).
Fig. 2 : Contour suivant le maillage
3.2. Cas où le contour est quelconque Un contour quelconque est remplacé par la ligne polygonale la plus voisine. Dans le cas de la figure 3 ci-dessous, c'est Aa, bB, Cc, dE, Ee, etc. Ainsi les équations du paragraphe précédent, faisant intervenir les dérivées partielles, et écrites pour tous les points intérieurs A,B, C, etc., font intervenir les points extérieurs a, b, c, etc. Les conditions aux limites fournissent des conditions supplémentaires sur ces points extérieurs. Sur le contour, il faut interpoler , formule de Gregory-Newton par exemple.
,
72
à partir des nœuds voisins à l'aide de la
Fig. 3 : Contour quelconque
4. Équations du premier ordre : Méthode des caractéristiques On s'intéresse ici aux équations du premier ordre qui sont quasi-linéaires et de la forme :
où Les coefficients , et ne dépendent ni de les conditions aux limites.
ni de
. À cette équation, il faut ajouter
4.1. Courbes caractéristiques associées à une équations du premier ordre L'équation précédente à résoudre est de la forme :
Considérons les vecteurs
Cette équation se réduit à : représentative de la solution
et
suivants :
. Ainsi, .
est un vecteur tangent à la surface
Le vecteur
parallèle à
est :
(1) Les courbes et obtenues à partir de ces équations sont appelées des courbes caractéristiques. La méthode caractéristique consiste à remplacer l'équation aux dérivées partielles précédente par un ensemble d'équations de la forme : 73
•
•
ou encore qui, une fois intégrée compte tenu de la constante d'intégration, donne l'équation . ou encore (ou ) qui, une fois intégrée donne la valeur de en tout point (donc ) de la caractéristique.
Ainsi, la solution recherchée
satisfait à :
4.2. Exemples de problèmes liés aux conditions aux limites Exemple 1:
Soit à résoudre la simple équation aux dérivées partielles suivantes :
En se reportant au paragraphe précédent, on a :
L'équation (1) s'écrit alors :
Cette équation est remplacée par deux autres équations :
(3)
D'après la première équation du système (3), les caractéristiques sont des droites parallèles. Ainsi, l'expression de devient :
74
Les constantes
et
(ou
) sont déterminées à partir des conditions aux limites.
Exemple 2: Soit à résoudre l'équation différentielle suivante :
Dans cette équation :
;
et
.
D'où :
L'équation des caractéristiques est :
Les conditions aux limites donnent :
D'où la solution :
Les constantes
et
sont déterminées par les conditions aux limites.
4.3. Système d'équations du premier ordre Soit le système suivant liant les dérivées des fonctions
75
et
:
(4) où les coefficients peuvent dépendre de supposées connues sur une courbe .
et
, mais pas de
ni de
.
et
sont
Suivant la procédure décrite dans le paragraphe précédent, on peut écrire :
(5) Les systèmes (4) et (5) ne définissent pas les 4 inconnues , , et de manière unique, seulement s'ils sont linéairement dépendants; c'est à dire si le déterminant est nul.
1)
En divisant le déterminant par , on obtient une équation du second degré en la solution est l'équation différentielle des caractéristiques.
, dont
2) En remplaçant dans le déterminant la dernière colonne par celle du second membre, on obtient :
76
et par intégration, on obtient les valeurs de
et de
le long des caractéristiques.
5. Équations du second ordre Soit l'équation aux dérivées partielles suivante :
(6)
, , et peuvent dépendre de , , fonction .
,
et
, mais pas des dérivées secondes de la
Posons :
et : L'équation (6) devient :
(7) avec :
(8) Les équations (7) et (8) comportent 3 inconnues , si .
77
et . La solution n'est pas unique
soit :
(9) Lorsque l'équation (10) est vérifiée, le système (7) et (8) n'admet pas de solution sauf si les autres déterminants du système sont nuls : c'est à dire en remplaçant dans le déterminant précédent la deuxième colonne par la colonne du second membre de l'équation :
(10) Pour pouvoir utiliser la méthode des caractéristiques, il faut que les racines de l'équation (9) soient réelles. En conséquence, les 3 cas suivants présentent : •
si
•
elliptique si
•
, l'équation (9) n'a pas de racines réelles, et l'équation (6) est dite . , l'équation (9) admet une racine réelle double, et cette équation est dite
parabolique (c'est le cas de l'équation de diffusion de la chaleur où si se confond avec la variable t ). si , l'équation (9) admet deux solutions réelles qui sont distinctes, et cette équation est dite hyperbolique (c'est le cas de l'équation de propagation
).
6. Équations elliptiques Dans cette partie, on montre comment on discrétise une équation aux dérivées partielles elliptique avec des conditions aux limites, dans le but de la transformer en un système de équations à inconnues. La mise en équation à l'aide des différences finies comporte les étapes suivantes : 78
• •
•
on définit un maillage couvrant le domaine et sa frontière, en tout nœud intérieur au domaine, on exprime les dérivées partielles à l'aide des différences finies (ces termes contiennent des points situés sur la frontière), on exprime les valeurs de la fonction en tout point sur la frontière en tenant compte des conditions aux limites.
Ainsi, on obtient un système de
équations à
inconnues.
Exemple :
Résoudre l'équation de Laplace suivante :
avec les conditions aux limites suivantes :
et •
Dans un premier temps, on définit le maillage qui coïncide avec la frontière du domaine : on choisit
pas sur
) et m + 1 pas sur y (
(
)
Fig. 4 : Définition du maillage •
En chaque nœud intérieur du domaine, on exprime l'équation de Laplace à l'aide des différences finies, ce qui permet de donner :
79
•
•
On vérifie bien que cette équation fait intervenir les points à la frontière ( à et à ). On exprime les conditions aux limites portant sur , , et
D'après les conditions aux limites imposées, l'équation précédente s'écrit pour
Les valeurs
Pour
à
et
donnent dans l'équation précédente :
, on a :
à l'ordre 4 s'écrit :
Soit :
On continue ainsi à exprimer les conditions aux limites, ce qui donne :
80
et
. :
Pour
, on obtient :
Les équations précédentes constituent un ensemble de équations. Pour variant entre 0 et , on obtient équations à inconnues (valeurs de dans les nœuds intérieurs au domaine). Ce système d'équations peut être résolu par exemple par la méthode de Gauss-Seidel (méthode itérative). Principe de la méthode :
Après multiplication par sous la forme :
Le coefficient
Pour
et regroupement des termes, l'équation discritisée peut s'écrire
est le plus grand en module. Donc :
, on obtient :
Pour résoudre l'équation discritisée, on applique le procédé d'itérations de Gauss-Seidel (méthode explicite ). Pour cela, on se donne une valeur (distribution) arbitraire initiale qui portée dans l'équation (19) au second membre pour chaque couple , donne une nouvelle valeur , et ainsi de suite. L'arrêt des calculs se fait quand est la limite de convergence que l'on se donne.
, où
Dans le cas de l'équation de Laplace, le procédé converge toujours. Pour d'autres équations plus compliquées, ce procédé de convergence pourra diverger. Dans ce cas, on utilise un facteur de relaxation . En général, la convergence est plus rapide lorsqu'on utilise un 81
procédé de relaxation
(où
).
7. Problèmes en coordonnées cylindriques Considérons l'équation de la conduction de la chaleur exprimée en coordonnées cartésiennes :
En coordonnées polaires, cette équation s'écrit sous la forme :
sur la domaine Sur ce domaine , on construit un maillage en coordonnées polaires comme le montre la figure 5 ci-dessous, avec et où et sont des entiers.
Fig. 5 : Système de maillage en coordonnées polaires
Ainsi, la température
et la fonction
deviennent au point
Pour des valeurs non nulles de , les dérivées secondes de s'écrivent sous la forme discrétisée suivante :
82
:
par rapport à
et
En utilisant les différences centrées,
peut s'écrire au point
sous la forme :
Ainsi, l'équation de la chaleur discrétisée est :
Soit, après regroupement des différents termes :
C'est l'équation de conduction de la chaleur discrétisée (différences finies) en coordonnées cylindriques, obtenue pour des valeurs de non nulles ( ). Les indices et sont des entiers (commençant par 1 dans Matlab). A l'origine ( ), l'équation de la conduction en coordonnées polaires présente une singularité. Cette dernière doit être éliminée. Pour cela, on utilise le Laplacien de l'équation de la conduction non pas en coordonnées cylindriques, mais en coordonnées cartésiennes :
quand On construit ensuite un cercle de rayon
, centré en
. Considérons
la température
à , et , , et sont les températures sur le cercle aux 4 nœuds (intersection avec les axes et ). Ainsi, l'équation précédente (en coordonnées cartésiennes) s'écrit sur le cercle de rayon :
83
La rotation des axes et autour de conduit au mêmes résultats (équation de la chaleur en coordonnées cartésiennes discrétisée). En considérant comme la moyenne arithmétique des températures autour du cercle de rayon , l'équation précédente devient :
à où est la moyenne arithmétique des valeurs de centre et est la valeur de la température à
autour du cercle de rayon .
et de
Les coordonnées polaires (deux dimensions) peuvent être extrapolées en coordonnées cylindriques (trois dimensions) pour l'obtention de l'équation de la conduction de la chaleur discrétisée. Pour le problème bidimensionnel en évoqué précédemment, compte tenu de la symétrie axiale, l'équation de la conduction de la chaleur peut être réduite à :
Pour
, l'équation précédente discrétisée s'écrit sous la forme :
où
,
Au centre (
, et est un entier positif. ), en utilisant la règle de l'Hopital nous obtenons :
D'où, l'équation de la conduction de la chaleur en deux dimensions de la symétrie axiale du problème :
en soit en différences finies :
pour 84
, s'écrit compte tenu
En coordonnées cylindriques, l'équation de la conduction de la chaleur est donnée par l'expression suivante :
Les coordonnées
où et La température
sont représentées par :
sont des entiers. au nœud
est notée par :
et les différentes dérivées partielles deviennent :
L'équation de la chaleur discrétisée en coordonnées cylindriques au nœud
pour des valeurs de Pour
non nulles.
, on a :
et l'équation de conduction en
devient :
en Soit en utilisant les différences finies au nœud 85
:
devient :
8. Discrétisation de l'équation de la Conduction en régime instationnaire Dans le système de coordonnées cartésiennes (trois dimensions), l'équation de conduction de la chaleur en régime instationnaire (temporel) s'écrit (si ):
Pour résoudre cette équation aux dérivées partielles en utilisant la méthode des différences finies, on utilise un maillage cubique (mailles de côtés avec :
où , et sont entiers positifs, et le domaine temporel est divisé en petits intervalles de temps de telle sorte que . Dans ce cas, la température représentée par :
au point
à un temps donné est
En utilisant la méthode des différences finies, les différents termes de l'équation ci-dessus au dérivées partielles s'écrivent au point :
et l'équation de la conduction discrétisée en trois dimensions devient :
86
En regroupant les différents termes de cette équation, on obtient :
Cette équation ne peut être résolue que par une méthode itérative (méthode de Gauss-Seidel par exemple). On pose :
La convergence de la solution recherchée est assurée si la quantité est strictement positive. Ainsi, le pas de temps et les autres pas spatiaux ( , et ) sont reliés par :
Pour amorcer le calcul itératif, on ensemence le domaine de frontière arbitraires ( condition
par exemple), et on arrête les calculs quand la est réalisée ( est une précision à fixer).
87
par des valeurs