Équations différentielles
Définition
Soit \( I \subset \mathbb{R} \) un intervalle, soit \( n \in \mathbb{N}, \, n \geq 1 \), et soit \( F : I \times \mathbb{R}^{n+1} \to \mathbb{R} \) une fonction. Soit encore \( f \in C^0(I) \). L'équation
\[ F(x, y, Dy, \cdots, D^n y) = f \quad (*) \]est appelée équation différentielle ordinaire d'ordre \( n \). Une solution de (*) est une fonction \( y \in C^n(I) \) telle que (*) soit satisfaite en tout point \( x \in I \).
Définition
Une équation différentielle est dite linéaire si elle peut se mettre sous la forme suivante :
\[ y^{(n)} + a_1(x)y^{(n-1)}(x) + \cdots + a_{n-1}(x)y' + a_n(x)y = f(x) \]Équations différentielles linéaires du premier ordre
Définition
Une équation différentielle linéaire d'ordre 1 est une équation de la forme
\[ y' = a(x)y + b(x) \]où $a$ et $b$ sont deux fonctions définies sur un intervalle $I$ de $\mathbb{R}$. L'équation homogène associée est alors l'équation différentielle :
\[ y' = a(x)y (*) \]Proposition
Soit $a : I \rightarrow \mathbb{R}$, et soit $A$ une primitive de $a$. Les solutions de l'équation (*) sont exactement les fonctions de la forme
\[ x \mapsto \lambda \exp(A(x)) \]où $\lambda \in \mathbb{R}$ est une constante.
Démonstration
Soit $\phi : I \rightarrow \mathbb{R}$ définie par $\phi(x) = \lambda \exp(A(x))$, on a alors pour tout $x \in I$
\[ \phi'(x) = \lambda A'(x) \exp(A(x)) = \lambda a(x) \exp(A(x)) = a(x) \phi(x) \]
si bien que $\phi$ est solution de $(*)$.
Réciproquement, soit $\phi : I \rightarrow \mathbb{R}$ une solution de
$(*)$, et soit $J \subset I$ un intervalle où $\phi$ ne s'annule pas. On
a alors pour tout $x \in J$
et donc
\[ \log(|\phi(x)|)' = a(x) \]et on obtient en intégrant que
\[ \log |\phi(x)| = A(x) + C \]où $C$ est une constante réelle. On en déduit qu'on a bien sur $J$
\[ \phi(x) = \lambda \exp(A(x)) \]Il suit en particulier que $\phi$ ne peut pas s'annuler sur l'adhérence de $J$, si bien que $J = I$, et $\phi$ a donc la forme cherchée sur tout $I$.
$\square$
Corollaire
Si $a(x)$ est égale à une constante $a \in \mathbb{R}$, les solutions de l'équation différentielle homogène
\[ y' = ay \]sont les fonctions de la forme $y(x) = \lambda \exp(ax)$, où $\lambda \in \mathbb{R}$.
Solution générale de l'équation
Lemma
Soit $y_0$ une solution particulière de (6). Une fonction $y : I \to \mathbb{R}$ de classe $C^1$ est solution de (6) si et seulement si $y - y_0$ est solution de (7).
Démonstration
Posons $z = y - y_0$. Alors
$$ y' - ay - b = (y_0 + z)' - a(y_0 + z) - b $$ $$ = (y_0' - ay_0 - b) + (z' - az) $$ $$ = z' - az $$et le résultat suit.
$\square$
Variation de la constante
Théorème
On suppose $a, b$ continues. Soit $A$ une primitive de $a$. Alors les solutions de (6) sont les fonctions de la forme
\[ y(x) = \lambda(x) \exp(A(x)) \]où $\lambda$ est une primitive de $x \mapsto b(x) \exp(-A(x))$.
Problème de Cauchy
Théorème du problème de Cauchy
Soit $x_0 \in I$, soient $y_0, y_1 \in \mathbb{R}$ (resp. $\mathbb{C}$). Il existe une unique solution $\phi$ de (8) telle que $\phi(x_0) = y_0$ et que $\phi'(x_0) = y_1$.
Théorème
Soit $a, b$ continues sur $I$, soit $x_0 \in I$, et soit $y_0 \in \mathbb{R}$. Il existe une unique solution $\phi$ de (6) sur $I$ telle que $\phi(x_0) = y_0$.
Équation de Bernoulli
Ce sont les équations de la forme
\[ y' = \alpha(x)y + \beta(x)y^n \]où $n > 1$ est entier et $\alpha, \beta$ sont continues.
Solution
Pour résoudre ces équations, on divise par $y^n$ et on pose $z = 1/y^{n-1}$. On obtient l'équation équivalente :
\[ -\frac{1}{n-1}z' = \alpha(x)z + \beta(x) \]qui est une équation linéaire du premier ordre.
Équation de Riccati
C'est l'équation de la forme
\[ y' = \alpha(x)y^2 + \beta(x)y + \gamma(x) \]Solution
On peut la résoudre dès lors qu'on connaît une solution particulière $y_1$. En effet on peut alors poser $y = z + y_1$, et on obtient l'équation suivante sur $z$:
\[ z' = \alpha(x)z^2 + (2\alpha(x)y_1(x) + \beta(x))z \]C'est une équation de Bernoulli, dont on a vu une méthode de résolution.
Solutions de l'équation homogène
Proposition
L'ensemble des solutions de l'équation homogène (9) forme un espace vectoriel.
Démonstration
On va montrer que c'est un sous-espace vectoriel de l'espace vectoriel des fonctions continues de $I$ dans $\mathbb{R}$ respectivement $\mathbb{C}$. Il suffit pour cela de remarquer que :
la fonction nulle est solution
-
si $y_1$ et $y_2$ sont deux solutions, alors $y_1 + y_2$ est une solution
-
si $y$ est une solution et $\lambda \in \mathbb{R}$ respectivement $\lambda \in \mathbb{C}$, alors $\lambda y$ est encore solution
Wronskien
Définition
Soient $y_1, y_2$ deux solutions sur $I$ de l'équation homogène (9). Leur Wronskien est la fonction définie sur $I$ par le déterminant suivant :
\[ W_{y_1,y_2}(x) = \begin{vmatrix} y_1(x) & y_2(x) \\ y_1'(x) & y_2'(x) \end{vmatrix} \]Proposition
Soient $y_1, y_2$ deux solutions sur $I$ de l'équation homogène (9), soit $x_0 \in I$. On a alors pour tout $x \in I$ :
\[ W_{y_1,y_2}(x) = \exp\left(-\int_{x_0}^{x} p(t)dt\right) W_{y_1,y_2}(x_0) \]Démonstration
On remarque que
$$ W'_{y_1,y_2}(x) = \begin{vmatrix} y_1'(x) & y_2'(x) \\ y_1'(x) & y_2'(x) \end{vmatrix} + \begin{vmatrix} y_1(x) & y_2(x) \\ y_1''(x) & y_2''(x) \end{vmatrix}$$ $$ = \begin{vmatrix} y_1(x) & y_2(x) \\ -p(x)y_1'(x) - q(x)y_1(x) & -p(x)y_2'(x) - q(x)y_2(x) \end{vmatrix} $$ $$ = \begin{vmatrix} y_1(x) & y_2(x) \\ -p(x)y_1'(x) & -p(x)y_2'(x) \end{vmatrix}$$ $$= -p(x) \begin{vmatrix} y_1(x) & y_2(x) \\ y_1'(x) & y_2'(x) \end{vmatrix} $$ $$= -p(x) W_{y_1,y_2}(x)$$On peut maintenant intégrer cette équation différentielle linéaire du premier ordre, et on obtient le résultat.
$\square$
Corollaire
Le Wronskien de $y_1$ et $y_2$ est soit identiquement nul, soit partout non nul.
Système fondamental de solutions
Définition
Soient $y_1$ et $y_2$ deux solutions de (9). Elles forment un système fondamental de solutions de l'équation homogène (9) si et seulement si $W_{y_1,y_2} \neq 0$ sur $I$.
Proposition
Supposons que $y_1$ et $y_2$ forment un système fondamental de solutions de l'équation homogène (9). Alors toute solution de cette équation peut s'écrire sous la forme
\[ y = c_1y_1 + c_2y_2 \]où $c_1$ et $c_2$ sont deux constantes.
Démonstration
Comme le Wronskien est partout non-nul, on peut résoudre pour tout $x \in I$ l'équation linéaire suivante :
\[ \begin{pmatrix} y(x) \\ y'(x) \end{pmatrix} = \begin{pmatrix} y_1(x) & y_2(x) \\ y'_1(x) & y'_2(x) \end{pmatrix} \begin{pmatrix} c_1(x) \\ c_2(x) \end{pmatrix} \]On peut ré-écrire cette relation sous la forme :
\[ \begin{pmatrix} y(x) \\ y'(x) \end{pmatrix} = c_1(x) \begin{pmatrix} y_1(x) \\ y'_1(x) \end{pmatrix} + c_2(x) \begin{pmatrix} y_2(x) \\ y'_2(x) \end{pmatrix} \]Pour montrer que $c_1$ et $c_2$ sont constantes, on va dériver cette équation, on obtient que
\[ \begin{pmatrix} y'(x) \\ y''(x) \end{pmatrix} = c'_1(x) \begin{pmatrix} y_1(x) \\ y'_1(x) \end{pmatrix} + c'_2(x) \begin{pmatrix} y_2(x) \\ y'_2(x) \end{pmatrix} \] \[ + c_1(x) \begin{pmatrix} y'_1(x) \\ y''_1(x) \end{pmatrix} + c_2(x) \begin{pmatrix} y'_2(x) \\ y''_2(x) \end{pmatrix} \]Comme $y$, $y_1$ et $y_2$ sont des solutions de (9), on a :
\[ \begin{pmatrix} y'(x) \\ -p(x)y'(x) - q(x)y(x) \end{pmatrix} = c'_1(x) \begin{pmatrix} y_1(x) \\ y'_1(x) \end{pmatrix} + c'_2(x) \begin{pmatrix} y_2(x) \\ y'_2(x) \end{pmatrix} \] \[ + c_1(x) \begin{pmatrix} y'_1(x) \\ -p(x)y'_1 - q(x)y_1(x) \end{pmatrix} + c_2(x) \begin{pmatrix} y'_2(x) \\ -p(x)y'_2(x) - q(x)y_2(x) \end{pmatrix} \]Mais il suit de la définition de $c_1$ et $c_2$ que
\[ \begin{pmatrix} y'(x) \\ -p(x)y'(x) - q(x)y(x) \end{pmatrix} = c_1(x) \begin{pmatrix} y'_1(x) \\ -p(x)y'_1 - q(x)y_1(x) \end{pmatrix} \] \[ + c_2(x) \begin{pmatrix} y'_2(x) \\ -p(x)y'_2(x) - q(x)y_2(x) \end{pmatrix} \]et on en déduit que
\[ c'_1(x) \begin{pmatrix} y_1(x) \\ y'_1(x) \end{pmatrix} + c'_2(x) \begin{pmatrix} y_2(x) \\ y'_2(x) \end{pmatrix} = 0 \]Or on sait par l'hypothèse sur le Wronskien que
\[ \det \begin{pmatrix} y_1(x) & y_2(x) \\ y'_1(x) & y'_2(x) \end{pmatrix} \neq 0 \]pour tout $x \in I$, et il suit que $c'_1(x) = c'_2(x) = 0$ pour tout $x \in I$. Les fonctions $c_1$ et $c_2$ sont donc constantes, ce qui prouve le résultat.
$\square$
Remarque
Supposons qu'on connaisse une solution, disons $y_1$, de l'équation homogène (9). On peut alors trouver une seconde solution de la manière suivante. On cherche une solution $y$ sous la forme $y = vy_1$, et on constate que (9) se traduit par une équation différentielle du premier ordre sur $v'$. Si on peut résoudre cette équation différentielle, on peut trouver $v'$ puis ensuite intégrer pour obtenir $v$. Les fonctions $y_1$ et $vy_1$ forment alors un système fondamental de solutions de (9).
Lemma
Soit $y_0$ une solution particulière de l'équation avec second membre (8). Alors les solutions de (8) sont exactement les fonctions de la forme $y = y_0 + z$, où $z$ est une solution de l'équation homogène (9).
Variation des constantes
Proposition
Soit $(y_1,y_2)$ un système fondamental de solutions de l'équation homogène (9). Pour tout $x \in I$, on note $c_1(x)$ et $c_2(x)$ les nombres tels que
\[ \begin{cases}c_{1}(x)y_{1}(x)+c_{2}(x)y_{2}(x)=0 \\ c_{1}(x)y_{1}^{\prime}(x)+c_{2}(x)y_{2}^{\prime}(x)=r(x) \end{cases} \]qui existent et sont uniques puisque le Wronskien est non nul. Alors pour tout $x_0 \in I$ la fonction suivante est solution de (8):
\[ y_0(x) = \left( \int_{x_0}^x c_1(t)dt \right) y_1(x) + \left( \int_{x_0}^x c_2(t)dt \right) y_2(x) \]Démonstration
Posons pour simplifier les notations
\[ C_1(x) = \int_{x_0}^x c_1(t)dt, \quad C_2(x) = \int_{x_0}^x c_2(t)dt \]Ainsi,
\[ y_0(x) = C_1(x)y_1(x) + C_2(x)y_2(x) \]et donc
\[ y'_{0}(x) = C'_1(x)y_1(x) + C_1(x)y'_1(x) + C'_2(x)y_2(x) + C_2(x)y'_2(x) \] \[ = c_1(x)y_1(x) + c_2(x)y_2(x) + C_1(x)y'_1(x) + C_2(x)y'_2(x) \] \[ = C_1(x)y'_1(x) + C_2(x)y'_2(x) \]et donc
\[ y''_0(x) = c_1(x)y'_1(x) + c_2(x)y'_2(x) + C_1(x)y''_1(x) + C_2(x)y''_2(x) \] \[ = r(x) + C_1(x)y''_1(x) + C_2(x)y''_2(x) \]Il suit que
\[ y''_0(x) + p(x)y'_0(x) + q(x)y_0(x) = r(x) + C_1(x)(y''_1(x) + p(x)y'_1(x) + q(x)y_1(x)) \] \[ + C_2(x)(y''_2(x) + p(x)y'_2(x) + q(x)y_2(x)) \] \[ = r(x) \]ce qui montre bien que $y_0$ est solution de l'équation avec second membre (8).
$\square$
Equations différentielles linéaires d'ordre 2 à coefficients constants
Lemma
-
Supposons que $s$ est solution du polynôme caractéristique (12). Alors la fonction $x \mapsto e^{sx}$ est solution de (11)
-
Si $s$ est solution double de (12), alors la fonction $x \mapsto xe^{sx}$ est aussi solution de l'équation homogène (11)
Démonstrations
-
Pour le premier point, on note simplement que si $y(x) = e^{sx}$ alors
\[ ay''(x) + by'(x) + cy(x) = (as^2 + bs + c)e^{sx} \]et le résultat suit.
-
Pour le second point, on calcule de même que si $y(x) = xe^{sx}$ alors \] \[ ay''(x) + by'(x) + cy(x) = (a(s^2x + 2s) + b(sx + 1) + cx)e^{sx} \] \[ = ((as^2 + bs + c)x + (2as + b))e^{sx} \]
Or comme $s$ est solution double de (12), on a $2as + b = 0$, si bien que $y(x) = xe^{sx}$ est encore solution de l'équation homogène.
$\square$
Théorème
Soit $\Delta = b^2 - 4ac$. Alors :
-
si $\Delta = 0$, alors l'équation (12) a une unique solution $s$ double. Dans ce cas, les solutions de l'équation homogène (11) sont les fonctions de la forme
\[ y(x) = (\lambda x + \mu)e^{sx} \]avec $\lambda, \mu \in \mathbb{C}$.
-
sinon, l'équation (12) a deux solutions distinctes $s_1$ et $s_2$, et les solutions de l'équation homogène (11) sont les fonctions de la forme
\[ y(x) = \lambda_1 e^{s_1 x} + \lambda_2 e^{s_2 x} \]avec $\lambda_1, \lambda_2 \in \mathbb{C}$.
Cas des équations à coefficients réels
Lemmes
-
Supposons que $s \in \mathbb{R}$ est solution du polynôme caractéristique (12). Alors la fonction $x \mapsto e^{sx}$ est solution de (11).
-
Si $s$ est solution double de (12), alors la fonction $x \mapsto xe^{sx}$ est aussi solution de l'équation homogène (11).
-
Si (12) n'a pas de racine réelle, alors il a deux racines complexes conjuguées de la forme $r \pm i\omega$. Dans ce cas, les fonctions $x \mapsto e^{rx}\cos(\omega x)$ et $x \mapsto e^{rx}\sin(\omega x)$ sont solutions de l'équation homogène (11).
Théorème
On suppose ici $a, b, c \in \mathbb{R}$, et on pose encore $\Delta = b^2 - 4ac$. Alors :
-
si $\Delta = 0$, alors l'équation (12) a une unique solution $s$ double. Dans ce cas, les solutions de l'équation homogène (11) sont les fonctions de la forme
\[ y(x) = (\lambda x + \mu)e^{sx} \]avec $\lambda, \mu \in \mathbb{R}$.
-
si $\Delta > 0$, l'équation (12) a deux solutions réelles distinctes $s_1$ et $s_2$, et les solutions réelles de l'équation homogène (11) sont les fonctions de la forme
\[ y(x) = \lambda_1 e^{s_1 x} + \lambda_2 e^{s_2 x} \]avec $\lambda_1, \lambda_2 \in \mathbb{R}$.
-
si $\Delta < 0$, l'équation (12) a deux solutions complexes conjuguées $s_1$ et $s_2 = \tau \pm i\omega$, et les solutions réelles de l'équation homogène (11) sont les fonctions de la forme
\[ y(x) = \lambda e^{\tau x}\cos(\omega x) + \mu e^{\tau x}\sin(\omega x) \]avec $\lambda, \mu \in \mathbb{R}$.
Equations différentielles linéaires d'ordre supérieur
Proposition
Les solutions de l'équation homogène associée à (15) forment un espace vectoriel de dimension $n$.
Théorème du problème de Cauchy
Pour tout $x_0 \in I$ et tout $(y_0, y_1, \cdots, y_{n-1}) \in \mathbb{R}^n$ (resp. $\in \mathbb{C}^n$) il existe une unique solution de (15) telle que pour tout $i \in \{0, 1, \cdots, n-1\}$, $y^{(i)}(x_0) = y_i$.
Définition
Soient $y_1, y_2, \cdots, y_n$ des solutions de (16) sur l'intervalle $I$. Le Wronskien du système $(y_1, \cdots, y_n)$ est la fonction définie par
\[ W_{y_1, \cdots, y_n}(x) = \det \begin{pmatrix} y_1(x) & y_2(x) & \cdots & y_n(x) \\ y_1'(x) & y_2'(x) & \cdots & y_n'(x) \\ \vdots & \vdots & \ddots & \vdots \\ y_1^{(n-1)}(x) & y_2^{(n-1)}(x) & \cdots & y_n^{(n-1)}(x) \end{pmatrix} \]Proposition
Soit $W_{y_1, \cdots, y_n}(x) = 0$ pour tout $x \in I$, soit $W_{y_1, \cdots, y_n}(x)$ ne s'annule en aucun point de $I$.
Définition
Le $n$-uplet $(y_1,\cdots,y_n)$ de solutions de (16) forme un système fondamental de solutions si et seulement si $W_{y_1,\cdots,y_n}(x) \neq 0$ pour un $x \in I$.
Propositions
-
Soit $(y_1,\cdots,y_n)$ un système fondamental de solutions de (16). Alors toute solution $y$ de (16) sur $I$ s'écrit sous la forme
\[ y = c_1y_1 + c_2y_2 + \cdots + c_ny_n \]avec $c_1,c_2,\cdots,c_n \in \mathbb{R}$ (resp. $\in \mathbb{C}$).
-
L'équation (16) admet un système fondamental de solution.