Hessien

A partir du gradient de la fonction coût (Eq. 4.19), il est facile d'en déduire le Hessien :
$\displaystyle \nabla^2 J({\mathbf x})$ $\textstyle =$ $\displaystyle {\mathbf B}^{-1} + {\mathbf H}^T{\mathbf R}^{-1}{\mathbf H}.$ (4.21)

En comparant avec l'Eq. 4.15, il est possible de réécrire l'Eq. 4.21 en fonction de la matrice de covariance d'erreur d'analyse :
$\displaystyle {\mathbf A}$ $\textstyle =$ $\displaystyle \left( \nabla^2 J({\mathbf x}) \right)^{-1}.$ (4.22)

Cette nouvelle formulation de la matrice de covariance d'erreur d'analyse est particulièrement intéressante, car elle permet de comprendre que la qualité de l'analyse est proportionnelle à la convexité de la fonction coût. Moins la fonction coût sera convexe, moins bonne sera l'analyse. Il est donc très important de formuler le problème de manière à obtenir une fonction très convexe.



Nicolas Daget 2007-11-16