Approche statistique

Malgré tout l'intérêt que la méthode de Cressman et ses dérivées peuvent avoir, elles restent trop limitées. En effet, si la première estimation de l'analyse (l'ébauche) est de bonne qualité tandis que les observations sont, quant à elles, de moins bonnes qualités, le remplacement de cette bonne estimation par les observations n'est pas profitable. D'autre part, il est difficile de définir la fonction de rappel $w$ vers les observations car il n'y a aucune raison objective de choisir une forme plutôt qu'une autre. Enfin, l'état analysé doit respecter certaines caractéristiques de l'état vrai. Les variations des champs sont parfois limitées. Il existe des relations physiques entre les différentes variables. Ces contraintes physiques ne sont pas prises en compte par ce type de méthode et les corrections apportées par l'analyse peuvent parfois générer des structures non physiques.

Du fait de sa simplicité, ce type de méthode est vite limité mais reste très utile comme point de départ. Pour obtenir une analyse de bonne facture, les ingrédients sont aujourd'hui bien connus. Il faut d'abord une bonne première estimation de l'état du système. Une précédente analyse ou une prévision sont un bon choix en tant qu'ébauche. Ensuite, quand les observations sont nombreuses, leur moyenne est souvent proche de la valeur vraie. Il faut donc faire un bon compromis entre l'ébauche et les observations. Il faut être capable de donner un poids plus important aux observations de confiance et minimiser l'impact des observations suspicieuses. L'état analysé doit rester suffisamment lisse car l'état vrai l'est. Il faut donc que les observations aient une influence sur une région de la taille des phénomènes physiques mis en jeux et que cette influence diminue doucement pour revenir vers l'ébauche. L'analyse doit enfin être capable de tenir compte des structures physiques connues et aussi d'être capable de reconnaître des événements extrêmes pour ne pas les limiter car ils sont aussi très importants.

Les informations utilisées sont donc les observations, l'ébauche et propriétés physiques connues du système. Toutes ces sources d'informations sont importantes et doivent être prises en compte pour obtenir une bonne analyse. Par ailleurs, toutes ces sources d'information sont empreintes d'erreur et il n'est pas possible de leurs faire entièrement confiance. Il faut donc réussir un compromis, mais comme il y a des erreurs dans le modèle et dans les observations, il est difficile de savoir en quelles sources d'information avoir confiance. L'idée est donc de construire un système qui tente de minimiser en moyenne l'écart entre l'état analysé et vrai.

Pour construire ce type d'algorithme, il faut représenter mathématiquement l'incertitude sur les différentes sources d'information. Cette incertitude peut être définie en mesurant (ou en supposant) les statistiques d'erreur et modélisée avec des probabilités. L'algorithme d'analyse peut alors être écrit pour que, formellement, l'erreur d'analyse soit, en moyenne, minimale dans une norme définie par l'utilisateur. L'analyse devient ainsi un problème d'optimisation.

Nicolas Daget 2007-11-16