Un exemple plus théorique

Une autre façon de penser l'assimilation de données est de la comparer aux méthodes traditionnelles de la recherche scientifique.

En général, face à un système inconnu, la première démarche est d'essayer de comprendre comment il fonctionne. Ceci se traduit par le développement d'un modèle qui va tenter de simuler toutes les composantes internes du système. Ce modèle, aussi perfectionné soit-il, nécessite des paramètres d'entrée. Une fois le modèle abouti, il est ensuite comparé à des résultats expérimentaux. En supposant que le modèle est adapté, les comparaisons entre les sorties du modèle et les mesures expérimentales permettent d'améliorer les entrées du modèle. Il s'agit donc d'un problème inverse.

Une autre approche, inspirée de l'automatisme, est de considérer le système inconnu comme une boîte noire. En faisant évoluer les paramètres d'entrées du système et en étudiant les variations des mesures expérimentales obtenues en sortie, il est possible de construire des lois appelées généralement des fonctions de transfert. Ces lois ne décrivent pas le fonctionnement interne du système mais lient seulement les entrées aux sorties. De ce fait, si le système est complexe et non-linéaire, il est alors difficile d'obtenir les sorties prévues. Comme dans l'optique de l'automatisme, l'objectif est de contrôler les entrées afin d'obtenir les sorties espérées, il suffit de faire une boucle de rétroaction qui compare les sorties obtenues aux sorties désirées en temps réel et de corriger en conséquence les entrées su système. Il s'agit donc encore une fois d'un problème inverse.

L'approche de l'assimilation de données est encore différente. Elle nécessite qu'un modèle paramétrique ait déjà été développé. Elle ne peut donc intervenir qu'après une étude sur le système inconnu. Ensuite, elle envisage la comparaison des sorties du modèle et des mesures expérimentales sous l'angle probabiliste afin d'estimer les paramètres d'entrée du modèle. Il s'agit donc aussi d'un problème inverse pour lequel les erreurs (c'est-à-dire les incertitudes) sur les sorties du modèle, sur les mesures expérimentales et sur le modèle lui-même doivent être estimées. Cette méthode consiste à obtenir le meilleur du modèle et des mesures expérimentales. En effet, le meilleur n'est pas toujours d'obtenir des sorties du modèles très proches des mesures expérimentales si cela se fait au détriment de la dynamique du système et des sorties du modèle qui n'ont pas d'équivalent en mesures expérimentales. En effet, aux erreurs de mesures s'ajoutent généralement des erreurs de représentativité dues au caractère discontinu des modèles numériques et des erreurs liées à la transformation des sorties du modèle afin d'obtenir un équivalent des observations (de la simple interpolation jusqu'à la transformation des variables des sorties du modèle pour obtenir des grandeurs comparables aux mesures expérimentales). La comparaison avec des mesures expérimentales est donc très différente de la comparaison avec un état vrai. L'assimilation de données est donc particulièrement adaptée aux systèmes de grandes tailles pour lesquels les modèles doivent être simplifiés (simplification des lois physiques et discrétisation ne permettant pas de résoudre des processus fins) ou pour les systèmes pour lesquels les observations sont parcellaires et inhomogènes. Elle reste cependant aussi adaptée à des problèmes plus simples .

L'assimilation de données est donc définie comme l'ensemble des techniques statistiques qui permettent d'améliorer la connaissance de l'état d'un système à partir de sa connaissance théorique et des observations expérimentales.

L'interpolation statistique est alors une technique permettant de trouver une solution à ce problème. Ces techniques sont souvent mathématiquement assez simple (équivalent à la méthode des moindres carrés), mais techniquement complexe du fait de la taille des systèmes.

Nicolas Daget 2007-11-16