4D-Var classique

Soit $M_{0 \to i}$ l'opérateur a priori non-linéaire qui permet de propager l'état du système ${\mathbf x}$ de $t_0$ à $t_i$ :
$\displaystyle \forall i, \qquad {\mathbf x}(t_i)$ $\textstyle =$ $\displaystyle M_{0 \to i}({\mathbf x}).$ (5.26)

En supposant, dans un premier temps, le modèle parfait, la fonction coût $J$ du 4D-Var se décompose, comme pour le 3D-Var, en un terme $J^b$ lié à l'ébauche et un autre $J^o$ lié aux observations.

En tenant compte des instants de mesures $t_i$, la matrice de covariance d'erreur des observation est notée ${\mathbf R}_i$ et l'opérateur d'observation non-linéaire $H_i$. Les observations ${\mathbf y}^o_i$ sont donc comparées à leur équivalent modèle $H_i{\mathbf x}(t_i)$ à chaque instant d'observation. Le calcul du terme $J^o$ nécessite l'intégration du modèle d'évolution de $t_0$ à $t_N$. Le vecteur d'état ${\mathbf x}$ est ainsi propagé par le modèle numérique $M_{0 \to N}$ de $t_0$ à $t_N$$N$ représentent le nombre de pas de temps de l'intégration du modèle à l'intérieur d'un cycle d'assimilation.

L'algorithme d'assimilation identifie un état ${\mathbf x}^a$ de la variable ${\mathbf x}$ à l'instant $t_0$ (une condition initiale), qui, intégré par le modèle d'évolution fournit une trajectoire optimale au sens des moindres carrés (la trajectoire analysée) sur l'ensemble de la fenêtre d'assimilation5.13 :

$\displaystyle J^b({\mathbf x})$ $\textstyle =$ $\displaystyle \frac{1}{2}\left({\mathbf x}-{\mathbf x}^b\right)^T{\mathbf B}^{-1}\left({\mathbf x}-{\mathbf x}^b\right),$ (5.27)
$\displaystyle J^o({\mathbf x})$ $\textstyle =$ $\displaystyle \frac{1}{2}\sum_{i=0}^N \left({\mathbf y}^o_i - H_i{\mathbf x}(t_i)\right)^T{\mathbf R}_i^{-1}
\left({\mathbf y}^o_i - H_i{\mathbf x}(t_i)\right),$  
  $\textstyle =$ $\displaystyle \frac{1}{2}\sum_{i=0}^N \left({\mathbf y}^o_i - H_i M_{0\to i}({\...
...T{\mathbf R}_i^{-1}
\left({\mathbf y}^o_i - H_i M_{0\to i}({\mathbf x})\right),$  
  $\textstyle =$ $\displaystyle \frac{1}{2}\sum_{i=0}^N \left({\mathbf y}^o_i - G_i{\mathbf x}\right)^T{\mathbf R}_i^{-1}
\left({\mathbf y}^o_i - G_i{\mathbf x}\right),$ (5.28)

$G_i{\mathbf x}=H_i{\mathbf x}(t_i)=H_i M_{0\to i}({\mathbf x})$. L'opérateur $G_i$ est appelé l'opérateur d'observation généralisé pour l'état ${\mathbf x}$ propagé par le modèle de $t_0$ à $t_i$.

L'état optimal ${\mathbf x}^a$, qui minimise la fonction coût $J$, est obtenu quand le gradient de cette fonctionnelle est nul. Comme pour le 3D-Var, ce gradient s'obtient simplement :

$\displaystyle \nabla J({\mathbf x})$ $\textstyle =$ $\displaystyle {\mathbf B}^{-1}\left({\mathbf x}-{\mathbf x}^b\right)
- \sum_{i=...
...\mathbf H}^T_i{\mathbf R}_i^{-1} \left({\mathbf y}^o_i - G_i{\mathbf x}\right).$ (5.29)

Les opérateurs ${\mathbf H}_i$, ${\mathbf M}_{0\to i}$ et ${\mathbf G}_i={\mathbf H}_i {\mathbf M}_{0\to i}$ sont les opérateurs linéarisés de $H_i$, $M_{0 \to i}$ et $G_i$ au voisinage de l'ébauche. L'opérateur ${\mathbf M}^T_{0\to i}$ est l'adjoint de l'opérateur linéarisé ${\mathbf M}_{0\to i}$.

Nicolas Daget 2007-11-16