Erreur d'analyse optimale

L'erreur d'analyse a été obtenue par l'Eq. 4.7. En réinjectant la valeur du gain optimal dedans, il est possible d'obtenir une erreur d'analyse optimale :
$\displaystyle {\mathbf A}$ $\textstyle =$ $\displaystyle ({\mathbf I}-{\mathbf K}^*{\mathbf H}){\mathbf B}({\mathbf I}-{\mathbf K}^*{\mathbf H})^T + {\mathbf K}^*{\mathbf R}{\mathbf K}^{*T},$  
  $\textstyle =$ $\displaystyle ({\mathbf I}-{\mathbf K}^*{\mathbf H}){\mathbf B}- ({\mathbf I}-{...
...hbf B}{\mathbf H}^T{\mathbf K}^{*T} + {\mathbf K}^*{\mathbf R}{\mathbf K}^{*T},$  
  $\textstyle =$ $\displaystyle ({\mathbf I}-{\mathbf K}^*{\mathbf H}){\mathbf B}+ \left( {\mathb...
...H}{\mathbf B}{\mathbf H}^T - {\mathbf B}{\mathbf H}^T \right) {\mathbf K}^{*T},$  
  $\textstyle =$ $\displaystyle ({\mathbf I}-{\mathbf K}^*{\mathbf H}){\mathbf B}+ \left( {\mathb...
...}{\mathbf B}{\mathbf H}^T) - {\mathbf B}{\mathbf H}^T \right) {\mathbf K}^{*T},$  
  $\textstyle =$ $\displaystyle ({\mathbf I}-{\mathbf K}^*{\mathbf H}){\mathbf B}+ \left( {\mathb...
...}{\mathbf B}{\mathbf H}^T) - {\mathbf B}{\mathbf H}^T \right) {\mathbf K}^{*T},$  
  $\textstyle =$ $\displaystyle ({\mathbf I}-{\mathbf K}^*{\mathbf H}){\mathbf B}.$ (4.12)

Il est aussi possible de calculer le résidu d'analyse en réutilisant l'Eq. 4.4 :
$\displaystyle {\mathbf y}^o-{\mathbf H}{\mathbf x}^a$ $\textstyle =$ $\displaystyle {\mathbf y}^o -{\mathbf H}\left( {\mathbf x}^b + {\mathbf K}({\mathbf y}^o-{\mathbf H}{\mathbf x}^b)\right)$  
  $\textstyle =$ $\displaystyle ( {\mathbf y}^o - {\mathbf H}{\mathbf x}^b) - {\mathbf H}{\mathbf K}({\mathbf y}^o-{\mathbf H}{\mathbf x}^b)$  
  $\textstyle =$ $\displaystyle ({\mathbf I}-{\mathbf H}{\mathbf K})({\mathbf y}^o-{\mathbf H}{\mathbf x}^b)$ (4.13)

En repartant de l'Eq. 4.11 et en réutilisant l'Eq. 4.12, il est possible de définir le gain optimal en fonction de l'erreur d'analyse. En effet :
$\displaystyle {\mathbf K}^*$ $\textstyle =$ $\displaystyle \left( {\mathbf B}^{-1}+{\mathbf H}^T{\mathbf R}{\mathbf H}\right)^{-1} {\mathbf H}^T{\mathbf R}^{-1},$  
  $\textstyle =$ $\displaystyle \left( {\mathbf B}^{-1}+{\mathbf H}^T{\mathbf R}{\mathbf H}\right)^{-1} {\mathbf B}^{-1}{\mathbf B}{\mathbf H}^T{\mathbf R}^{-1},$  
  $\textstyle =$ $\displaystyle \left( {\mathbf B}^{-1}+{\mathbf H}^T{\mathbf R}{\mathbf H}\right...
...}^T{\mathbf R}^{-1}{\mathbf H}\right) {\mathbf B}{\mathbf H}^T{\mathbf R}^{-1},$  
  $\textstyle =$ $\displaystyle \left( {\mathbf I}-( {\mathbf B}^{-1}+{\mathbf H}^T{\mathbf R}{\m...
...}^T{\mathbf R}^{-1}{\mathbf H}\right) {\mathbf B}{\mathbf H}^T{\mathbf R}^{-1},$  
  $\textstyle =$ $\displaystyle \left( {\mathbf I}- {\mathbf K}^*{\mathbf H}\right) {\mathbf B}{\mathbf H}^T{\mathbf R}^{-1},$  
  $\textstyle =$ $\displaystyle {\mathbf A}{\mathbf H}^T{\mathbf R}^{-1}.$ (4.14)

Il est aussi possible de définir l'inverse de l'erreur d'analyse optimale en fonction des erreurs d'ébauche et d'observation. En effet, en reprenant l'Eq. 4.12 définissant l'erreur d'analyse optimale et en lui injectant le gain optimal obtenu avec l'Eq. 4.14, on obtient :
$\displaystyle {\mathbf A}$ $\textstyle =$ $\displaystyle ({\mathbf I}-{\mathbf K}^*{\mathbf H}){\mathbf B},$  
$\displaystyle {\mathbf A}$ $\textstyle =$ $\displaystyle ({\mathbf I}-{\mathbf A}{\mathbf H}^T{\mathbf R}^{-1}{\mathbf H}){\mathbf B},$  
$\displaystyle {\mathbf A}$ $\textstyle =$ $\displaystyle {\mathbf B}- {\mathbf A}{\mathbf H}^T{\mathbf R}^{-1}{\mathbf H}{\mathbf B},$  
$\displaystyle {\mathbf A}({\mathbf I}+ {\mathbf H}^T{\mathbf R}^{-1}{\mathbf H}{\mathbf B})$ $\textstyle =$ $\displaystyle {\mathbf B},$  
$\displaystyle ({\mathbf I}+ {\mathbf H}^T{\mathbf R}^{-1}{\mathbf H}{\mathbf B})^{-1} {\mathbf A}^{-1}$ $\textstyle =$ $\displaystyle {\mathbf B}^{-1},$  
$\displaystyle {\mathbf A}^{-1}$ $\textstyle =$ $\displaystyle ({\mathbf I}+ {\mathbf H}^T{\mathbf R}^{-1}{\mathbf H}{\mathbf B}){\mathbf B}^{-1},$  
$\displaystyle {\mathbf A}^{-1}$ $\textstyle =$ $\displaystyle {\mathbf B}^{-1} + {\mathbf H}^T{\mathbf R}^{-1}{\mathbf H}.$ (4.15)

Cette équation est intéressante car elle veut dire que les matrices de confiance (les inverses des matrices de covariance d'erreurs) sont additives. En d'autres termes, tout apport d'information, quelque soit sa qualité objective, augmente forcément la confiance dans l'état analysé. D'autres formulations du gain optimal ou des l'erreur d'analyse sont encore possibles.

Nicolas Daget 2007-11-16