3.1. Méthode de Galerkin#

3.1.1. Contexte#

Dans ce chapitre nous considérons un espace de Hilbert \(V\) muni du produit scalaire \(\PSV{\cdot}{\cdot}\) et de sa norme associée \(\normV{\cdot}\). Nous considérons la formulation variationnelle suivante

(3.1)#\[\begin{split}\left\{ \begin{array}{l} \text{Trouver } u\in V \text{ tel que}\\ \forall v\in V,\quad a(u,v) = \ell(v). \end{array} \right.\end{split}\]

Les formes continues \(a(\cdot,\cdot)\) et \(\ell(\cdot)\) sont respectivement bilinéaire et linéaire, et \(a(\cdot,\cdot)\) est de plus coercive. De cette manière, le Théorème de Lax-Milgram s’applique et le problème (3.1) admet une unique solution.

Nous noterons \(\PSV{\cdot}{\cdot}\) et \(\normV{\cdot}\) respectivement le produit scalaire et la norme sur \(V\).

3.1.2. Dimension finie#

Obtenir une solution de (3.1) est compliqué car \(V\) est (a priori) de dimension infinie. La méthode de Galerkin consiste à « approcher » l’espace fonctionnel \(V\) par un espace \(\Vh\subset V\), de dimension finie, mais toujours de Hilbert, et ce pour le même produit scalaire ! La formulation faible (3.1) est alors résolue dans \(\Vh\) uniquement, avec pour solution \(\uh\) :

(3.2)#\[\begin{split}\left\{ \begin{array}{l} \text{Trouver } \uh\in \Vh \text{ tel que}\\ \forall \vh\in \Vh,\quad a(\uh,\vh) = \ell(\vh). \end{array} \right.\end{split}\]

On espère alors que cette solution approchée \(\uh\) soit une bonne estimation de la solution exacte \(u\), c’est-à-dire que

\[\lim_{h\to 0}\normV{\uh-u} = 0.\]

Remarquons tout d’abord que la formulation faible (3.2) admet une unique solution.

Lemma 3.1

Le problème « approché » (3.2) admet une unique solution.

Proof. L’espace \(\Vh\subset V\) est un sous-espace de Hilbert de \(V\), nous pouvons donc appliquer le Théorème de Lax-Milgram, dont les hypothèses sur \(a(\cdot,\cdot)\) et \(\ell(\cdot)\) sont toujours vérifiées sur \(\Vh\).

Travailler dans un espace de dimension finie présente un très grand avantage : on peut en extraire une base de taille finie et ramener le calcul de \(\uh\) à la résolution d’un système linéaire, pour lequel les outils (numériques) ne manquent pas. Citons par exemple les bibliothèques suivantes :

  • MUMPS : solveur open-source direct parallèle

  • Pardiso : solveur direct parallèle privatif d’Intel

  • PETSc : Bibliothèque contenant entres autres de nombreux solveurs directs (dont MUMPS) ou itératifs (GMRES, …)

Lemma 3.2

Soit \(V\) un espace de Hilbert et \(\Vh\) un sous espace de dimension finie. Soit \(a(\cdot,\cdot)\) une forme bilinéaire continue et coercive sur \(V\), \(\ell(\cdot)\) une forme linéaire continue sur \(V\). Le problème approché (3.2) admet une unique solution. De plus, cette solution s’obtient par la résolution d’un système linéaire de matrice définie positive.

Proof. Le problème (3.2) admet toujours une unique solution d’après le Théorème de Lax-Milgram. Comme \(\Vh\) est de dimension finie, notée \(\Nh\), nous pouvons en extraire une base \((\mphi_{1}, \mphi_{2}, \ldots, \mphi_{\Nh})\) et écrire

\[\uh = \sum_{I=1}^{\Nh} u_I \mphi_I.\]

La formulation faible peut alors se réécrire sur les fonctions de cette base uniquement :

\[\forall I, \qquad \sum_{J=1}^{\Nh} a(\mphi_J,\mphi_I) u_J = \ell(\mphi_I),\]

ou encore

\[A_h U_h = B_h,\]

avec \(A_h = (a(\mphi_J, \mphi_I))_{ 1\leq I,J\leq \Nh}\), \(U_h=(u_I)_{1\leq J \leq \Nh}\) et \(B_h=(\ell(\mphi_I))_{1\leq I\leq \Nh}\). Montrons maintenant que la matrice \(A_h\) est définie positive :

\[\begin{split}\begin{aligned} \forall W_h\in\Rb^{\Nh}, W_h = (w_I)_{1\leq I \leq \Nh},\\ \PS{W_h}{A_hW_h} = W_h^T A_h W_h &= \sum_{I=1}^{\Nh} \sum_{J=1}^{\Nh} w_j a(\mphi_I,\mphi_J)w_I \\ &= \sum_{I=1}^{\Nh}\sum_{J=1}^{\Nh}a(w_I\mphi_I, w_j\mphi_J)\\ &= a\left(\sum_{I=1}^{\Nh}w_I\mphi_I, \sum_{J=1}^{\Nh}w_j\mphi_J\right) \end{aligned}\end{split}\]

L’indice \(J\) étant muet, nous pouvons changer son intitulé :

\[\PS{W_h}{A_hW_h} = a\left(\sum_{I=1}^{\Nh}w_I\mphi_I, \sum_{I=1}^{\Nh}w_I\mphi_I\right)\]

Nous utilisons maintenant la coercivité de \(a(\cdot,\cdot)\) :

\[\PS{W_h}{A_hW_h} \geq \alpha\normV{\sum_{I=1}^{\Nh}w_I\mphi_I}^2.\]

Comme \(\alpha > 0\), alors le terme \(\PS{W_h}{A_hW_h}\) est nul si et seulement si \(\normV{\sum_{I=1}^{\Nh}w_I\mphi_I}\) est nulle et donc si et seulement si \(\sum_{I=1}^{\Nh}w_I\mphi_I\) est la fonction nulle. Comme la famille \((\mphi_I)_{1\leq I \leq \Nh}\) forme une base de \(\Vh\), cela revient à dire que \(w_I = 0\) pour tout \(I\) et donc que \(W_h\) est le vecteur nul. Nous avons donc montré que

\[\forall W_h\in\Rb^{\Nh}\setminus\{0\}, \qquad \PS{W_h}{A_h W_h} > 0.\]

Remark 3.1

Quelques remarques :

  • La matrice \(A_h\) discrétise l’opérateur \(a(\cdot,\cdot)\) au sens où elle est de taille finie.

  • La coercivité d’une forme \(a(\cdot,\cdot)\) est, en quelque sorte, l’équivalent de la définie positivité de sa matrice. La coercivité s’applique au domaine « continu » (les fonctions ou opérateurs) tandis que la définie positivité est un terme appliqué au domaine « algébrique » (les matrices (infinies ou non)).

  • L’hypothèse de Lax-Milgram sur la coercivité de \(a(\cdot,\cdot)\) est une hypothèse forte puisque la matrice \(A_h\) discrétisant \(a(\cdot,\cdot)\) doit être définie positive !

Remark 3.2

La méthode des différences finies discrétise l’opérateur différentiel (\(\Delta\)) tandis que les éléments finis (issue de la méthode de Galerkin) approche l’espace fonctionnel. C’est une différence majeure !