Équations différentielles

Définition

Soit \( I \subset \mathbb{R} \) un intervalle, soit \( n \in \mathbb{N}, \, n \geq 1 \), et soit \( F : I \times \mathbb{R}^{n+1} \to \mathbb{R} \) une fonction. Soit encore \( f \in C^0(I) \). L'équation

\[ F(x, y, Dy, \cdots, D^n y) = f \quad (*) \]

est appelée équation différentielle ordinaire d'ordre \( n \). Une solution de (*) est une fonction \( y \in C^n(I) \) telle que (*) soit satisfaite en tout point \( x \in I \).

Définition

Une équation différentielle est dite linéaire si elle peut se mettre sous la forme suivante :

\[ y^{(n)} + a_1(x)y^{(n-1)}(x) + \cdots + a_{n-1}(x)y' + a_n(x)y = f(x) \]

Équations différentielles linéaires du premier ordre

Définition

Une équation différentielle linéaire d'ordre 1 est une équation de la forme

\[ y' = a(x)y + b(x) \]

où $a$ et $b$ sont deux fonctions définies sur un intervalle $I$ de $\mathbb{R}$. L'équation homogène associée est alors l'équation différentielle :

\[ y' = a(x)y (*) \]

Proposition

Soit $a : I \rightarrow \mathbb{R}$, et soit $A$ une primitive de $a$. Les solutions de l'équation (*) sont exactement les fonctions de la forme

\[ x \mapsto \lambda \exp(A(x)) \]

où $\lambda \in \mathbb{R}$ est une constante.

Démonstration

Soit $\phi : I \rightarrow \mathbb{R}$ définie par $\phi(x) = \lambda \exp(A(x))$, on a alors pour tout $x \in I$

\[ \phi'(x) = \lambda A'(x) \exp(A(x)) = \lambda a(x) \exp(A(x)) = a(x) \phi(x) \]

si bien que $\phi$ est solution de $(*)$.
Réciproquement, soit $\phi : I \rightarrow \mathbb{R}$ une solution de $(*)$, et soit $J \subset I$ un intervalle où $\phi$ ne s'annule pas. On a alors pour tout $x \in J$

\[ \frac{\phi'(x)}{\phi(x)} = a(x) \]

et donc

\[ \log(|\phi(x)|)' = a(x) \]

et on obtient en intégrant que

\[ \log |\phi(x)| = A(x) + C \]

où $C$ est une constante réelle. On en déduit qu'on a bien sur $J$

\[ \phi(x) = \lambda \exp(A(x)) \]

Il suit en particulier que $\phi$ ne peut pas s'annuler sur l'adhérence de $J$, si bien que $J = I$, et $\phi$ a donc la forme cherchée sur tout $I$.

$\square$

Corollaire

Si $a(x)$ est égale à une constante $a \in \mathbb{R}$, les solutions de l'équation différentielle homogène

\[ y' = ay \]

sont les fonctions de la forme $y(x) = \lambda \exp(ax)$, où $\lambda \in \mathbb{R}$.

Solution générale de l'équation

Lemma

Soit $y_0$ une solution particulière de (6). Une fonction $y : I \to \mathbb{R}$ de classe $C^1$ est solution de (6) si et seulement si $y - y_0$ est solution de (7).

Démonstration

Posons $z = y - y_0$. Alors

$$ y' - ay - b = (y_0 + z)' - a(y_0 + z) - b $$ $$ = (y_0' - ay_0 - b) + (z' - az) $$ $$ = z' - az $$

et le résultat suit.

$\square$

Variation de la constante

Théorème

On suppose $a, b$ continues. Soit $A$ une primitive de $a$. Alors les solutions de (6) sont les fonctions de la forme

\[ y(x) = \lambda(x) \exp(A(x)) \]

où $\lambda$ est une primitive de $x \mapsto b(x) \exp(-A(x))$.

Problème de Cauchy

Théorème du problème de Cauchy

Soit $x_0 \in I$, soient $y_0, y_1 \in \mathbb{R}$ (resp. $\mathbb{C}$). Il existe une unique solution $\phi$ de (8) telle que $\phi(x_0) = y_0$ et que $\phi'(x_0) = y_1$.

Théorème

Soit $a, b$ continues sur $I$, soit $x_0 \in I$, et soit $y_0 \in \mathbb{R}$. Il existe une unique solution $\phi$ de (6) sur $I$ telle que $\phi(x_0) = y_0$.

Équation de Bernoulli

Ce sont les équations de la forme

\[ y' = \alpha(x)y + \beta(x)y^n \]

où $n > 1$ est entier et $\alpha, \beta$ sont continues.

Solution

Pour résoudre ces équations, on divise par $y^n$ et on pose $z = 1/y^{n-1}$. On obtient l'équation équivalente :

\[ -\frac{1}{n-1}z' = \alpha(x)z + \beta(x) \]

qui est une équation linéaire du premier ordre.

Équation de Riccati

C'est l'équation de la forme

\[ y' = \alpha(x)y^2 + \beta(x)y + \gamma(x) \]

Solution

On peut la résoudre dès lors qu'on connaît une solution particulière $y_1$. En effet on peut alors poser $y = z + y_1$, et on obtient l'équation suivante sur $z$:

\[ z' = \alpha(x)z^2 + (2\alpha(x)y_1(x) + \beta(x))z \]

C'est une équation de Bernoulli, dont on a vu une méthode de résolution.

Solutions de l'équation homogène

Proposition

L'ensemble des solutions de l'équation homogène (9) forme un espace vectoriel.

Démonstration

On va montrer que c'est un sous-espace vectoriel de l'espace vectoriel des fonctions continues de $I$ dans $\mathbb{R}$ respectivement $\mathbb{C}$. Il suffit pour cela de remarquer que :

Wronskien

Définition

Soient $y_1, y_2$ deux solutions sur $I$ de l'équation homogène (9). Leur Wronskien est la fonction définie sur $I$ par le déterminant suivant :

\[ W_{y_1,y_2}(x) = \begin{vmatrix} y_1(x) & y_2(x) \\ y_1'(x) & y_2'(x) \end{vmatrix} \]

Proposition

Soient $y_1, y_2$ deux solutions sur $I$ de l'équation homogène (9), soit $x_0 \in I$. On a alors pour tout $x \in I$ :

\[ W_{y_1,y_2}(x) = \exp\left(-\int_{x_0}^{x} p(t)dt\right) W_{y_1,y_2}(x_0) \]

Démonstration

On remarque que

$$ W'_{y_1,y_2}(x) = \begin{vmatrix} y_1'(x) & y_2'(x) \\ y_1'(x) & y_2'(x) \end{vmatrix} + \begin{vmatrix} y_1(x) & y_2(x) \\ y_1''(x) & y_2''(x) \end{vmatrix}$$ $$ = \begin{vmatrix} y_1(x) & y_2(x) \\ -p(x)y_1'(x) - q(x)y_1(x) & -p(x)y_2'(x) - q(x)y_2(x) \end{vmatrix} $$ $$ = \begin{vmatrix} y_1(x) & y_2(x) \\ -p(x)y_1'(x) & -p(x)y_2'(x) \end{vmatrix}$$ $$= -p(x) \begin{vmatrix} y_1(x) & y_2(x) \\ y_1'(x) & y_2'(x) \end{vmatrix} $$ $$= -p(x) W_{y_1,y_2}(x)$$

On peut maintenant intégrer cette équation différentielle linéaire du premier ordre, et on obtient le résultat.

$\square$

Corollaire

Le Wronskien de $y_1$ et $y_2$ est soit identiquement nul, soit partout non nul.

Système fondamental de solutions

Définition

Soient $y_1$ et $y_2$ deux solutions de (9). Elles forment un système fondamental de solutions de l'équation homogène (9) si et seulement si $W_{y_1,y_2} \neq 0$ sur $I$.

Proposition

Supposons que $y_1$ et $y_2$ forment un système fondamental de solutions de l'équation homogène (9). Alors toute solution de cette équation peut s'écrire sous la forme

\[ y = c_1y_1 + c_2y_2 \]

où $c_1$ et $c_2$ sont deux constantes.

Démonstration

Comme le Wronskien est partout non-nul, on peut résoudre pour tout $x \in I$ l'équation linéaire suivante :

\[ \begin{pmatrix} y(x) \\ y'(x) \end{pmatrix} = \begin{pmatrix} y_1(x) & y_2(x) \\ y'_1(x) & y'_2(x) \end{pmatrix} \begin{pmatrix} c_1(x) \\ c_2(x) \end{pmatrix} \]

On peut ré-écrire cette relation sous la forme :

\[ \begin{pmatrix} y(x) \\ y'(x) \end{pmatrix} = c_1(x) \begin{pmatrix} y_1(x) \\ y'_1(x) \end{pmatrix} + c_2(x) \begin{pmatrix} y_2(x) \\ y'_2(x) \end{pmatrix} \]

Pour montrer que $c_1$ et $c_2$ sont constantes, on va dériver cette équation, on obtient que

\[ \begin{pmatrix} y'(x) \\ y''(x) \end{pmatrix} = c'_1(x) \begin{pmatrix} y_1(x) \\ y'_1(x) \end{pmatrix} + c'_2(x) \begin{pmatrix} y_2(x) \\ y'_2(x) \end{pmatrix} \] \[ + c_1(x) \begin{pmatrix} y'_1(x) \\ y''_1(x) \end{pmatrix} + c_2(x) \begin{pmatrix} y'_2(x) \\ y''_2(x) \end{pmatrix} \]

Comme $y$, $y_1$ et $y_2$ sont des solutions de (9), on a :

\[ \begin{pmatrix} y'(x) \\ -p(x)y'(x) - q(x)y(x) \end{pmatrix} = c'_1(x) \begin{pmatrix} y_1(x) \\ y'_1(x) \end{pmatrix} + c'_2(x) \begin{pmatrix} y_2(x) \\ y'_2(x) \end{pmatrix} \] \[ + c_1(x) \begin{pmatrix} y'_1(x) \\ -p(x)y'_1 - q(x)y_1(x) \end{pmatrix} + c_2(x) \begin{pmatrix} y'_2(x) \\ -p(x)y'_2(x) - q(x)y_2(x) \end{pmatrix} \]

Mais il suit de la définition de $c_1$ et $c_2$ que

\[ \begin{pmatrix} y'(x) \\ -p(x)y'(x) - q(x)y(x) \end{pmatrix} = c_1(x) \begin{pmatrix} y'_1(x) \\ -p(x)y'_1 - q(x)y_1(x) \end{pmatrix} \] \[ + c_2(x) \begin{pmatrix} y'_2(x) \\ -p(x)y'_2(x) - q(x)y_2(x) \end{pmatrix} \]

et on en déduit que

\[ c'_1(x) \begin{pmatrix} y_1(x) \\ y'_1(x) \end{pmatrix} + c'_2(x) \begin{pmatrix} y_2(x) \\ y'_2(x) \end{pmatrix} = 0 \]

Or on sait par l'hypothèse sur le Wronskien que

\[ \det \begin{pmatrix} y_1(x) & y_2(x) \\ y'_1(x) & y'_2(x) \end{pmatrix} \neq 0 \]

pour tout $x \in I$, et il suit que $c'_1(x) = c'_2(x) = 0$ pour tout $x \in I$. Les fonctions $c_1$ et $c_2$ sont donc constantes, ce qui prouve le résultat.

$\square$

Remarque

Supposons qu'on connaisse une solution, disons $y_1$, de l'équation homogène (9). On peut alors trouver une seconde solution de la manière suivante. On cherche une solution $y$ sous la forme $y = vy_1$, et on constate que (9) se traduit par une équation différentielle du premier ordre sur $v'$. Si on peut résoudre cette équation différentielle, on peut trouver $v'$ puis ensuite intégrer pour obtenir $v$. Les fonctions $y_1$ et $vy_1$ forment alors un système fondamental de solutions de (9).

Lemma

Soit $y_0$ une solution particulière de l'équation avec second membre (8). Alors les solutions de (8) sont exactement les fonctions de la forme $y = y_0 + z$, où $z$ est une solution de l'équation homogène (9).

Variation des constantes

Proposition

Soit $(y_1,y_2)$ un système fondamental de solutions de l'équation homogène (9). Pour tout $x \in I$, on note $c_1(x)$ et $c_2(x)$ les nombres tels que

\[ \begin{cases}c_{1}(x)y_{1}(x)+c_{2}(x)y_{2}(x)=0 \\ c_{1}(x)y_{1}^{\prime}(x)+c_{2}(x)y_{2}^{\prime}(x)=r(x) \end{cases} \]

qui existent et sont uniques puisque le Wronskien est non nul. Alors pour tout $x_0 \in I$ la fonction suivante est solution de (8):

\[ y_0(x) = \left( \int_{x_0}^x c_1(t)dt \right) y_1(x) + \left( \int_{x_0}^x c_2(t)dt \right) y_2(x) \]

Démonstration

Posons pour simplifier les notations

\[ C_1(x) = \int_{x_0}^x c_1(t)dt, \quad C_2(x) = \int_{x_0}^x c_2(t)dt \]

Ainsi,

\[ y_0(x) = C_1(x)y_1(x) + C_2(x)y_2(x) \]

et donc

\[ y'_{0}(x) = C'_1(x)y_1(x) + C_1(x)y'_1(x) + C'_2(x)y_2(x) + C_2(x)y'_2(x) \] \[ = c_1(x)y_1(x) + c_2(x)y_2(x) + C_1(x)y'_1(x) + C_2(x)y'_2(x) \] \[ = C_1(x)y'_1(x) + C_2(x)y'_2(x) \]

et donc

\[ y''_0(x) = c_1(x)y'_1(x) + c_2(x)y'_2(x) + C_1(x)y''_1(x) + C_2(x)y''_2(x) \] \[ = r(x) + C_1(x)y''_1(x) + C_2(x)y''_2(x) \]

Il suit que

\[ y''_0(x) + p(x)y'_0(x) + q(x)y_0(x) = r(x) + C_1(x)(y''_1(x) + p(x)y'_1(x) + q(x)y_1(x)) \] \[ + C_2(x)(y''_2(x) + p(x)y'_2(x) + q(x)y_2(x)) \] \[ = r(x) \]

ce qui montre bien que $y_0$ est solution de l'équation avec second membre (8).

$\square$

Equations différentielles linéaires d'ordre 2 à coefficients constants

Lemma

Démonstrations

$\square$

Théorème

Soit $\Delta = b^2 - 4ac$. Alors :

Cas des équations à coefficients réels

Lemmes

Théorème

On suppose ici $a, b, c \in \mathbb{R}$, et on pose encore $\Delta = b^2 - 4ac$. Alors :

Equations différentielles linéaires d'ordre supérieur

Proposition

Les solutions de l'équation homogène associée à (15) forment un espace vectoriel de dimension $n$.

Théorème du problème de Cauchy

Pour tout $x_0 \in I$ et tout $(y_0, y_1, \cdots, y_{n-1}) \in \mathbb{R}^n$ (resp. $\in \mathbb{C}^n$) il existe une unique solution de (15) telle que pour tout $i \in \{0, 1, \cdots, n-1\}$, $y^{(i)}(x_0) = y_i$.

Définition

Soient $y_1, y_2, \cdots, y_n$ des solutions de (16) sur l'intervalle $I$. Le Wronskien du système $(y_1, \cdots, y_n)$ est la fonction définie par

\[ W_{y_1, \cdots, y_n}(x) = \det \begin{pmatrix} y_1(x) & y_2(x) & \cdots & y_n(x) \\ y_1'(x) & y_2'(x) & \cdots & y_n'(x) \\ \vdots & \vdots & \ddots & \vdots \\ y_1^{(n-1)}(x) & y_2^{(n-1)}(x) & \cdots & y_n^{(n-1)}(x) \end{pmatrix} \]

Proposition

Soit $W_{y_1, \cdots, y_n}(x) = 0$ pour tout $x \in I$, soit $W_{y_1, \cdots, y_n}(x)$ ne s'annule en aucun point de $I$.

Définition

Le $n$-uplet $(y_1,\cdots,y_n)$ de solutions de (16) forme un système fondamental de solutions si et seulement si $W_{y_1,\cdots,y_n}(x) \neq 0$ pour un $x \in I$.

Propositions