Préambule

$\textstyle \parbox{100truemm}{\fontfamily{\sfdefault}\fontseries{l}\fontshape{n...
...ily{\sfdefault}\fontseries{m}\fontshape{sl}\selectfont
\large{Norbert Wiener}}$



Historique

La recherche scientifique repose sur deux sources d'information et d'étude différentes, les observations d'une part, et les modèles d'autre part. Au cours de l'histoire des Sciences, les observations furent d'abord qualitatives avant de devenir quantitatives. Parallèlement, les modèles descriptifs s'améliorèrent grâce aux techniques mathématiques, et particulièrement à l'analyse numérique.

La charnière du XVIII et XIX siècle vit ainsi apparaître l'assimilation de données. Cette technique vise à estimer l'état d'un système dynamique en utilisant toutes les sources d'information. Elle appartient au domaine de l'estimation statistique et de la théorie du contrôle (Gelb, 1974 et Lions, 1968). Johann Tobias Mayer (1723-1762), astronome allemand, calcula les mouvements de la lune avec une admirable précision, et mérita, par ses Tables de la Lune, le grand prix décerné par le Bureau des longitudes de Londres (1755). En effet, il évalua les erreurs dues aux imperfections des réglages des instruments de mesure et eut le premier l'idée de répéter la mesure des angles pour atténuer les erreurs de mesure. À cette époque, de nombreux mathématiciens et astronomes développèrent des méthodes proches de la Méthode aux moindres carrés. Adrien Marie Legendre (1752-1834), professeur de mathématiques à l'école militaire de Paris, exposa, dans un traité sur les orbites des comètes en 1805, cette méthode d'ajustement dite des moindres carrés. Elle fut cependant attribuée à Karl Friedrich Gauss (1777-1855) qui publia en 1809 son travail sur les mouvements des corps célestes contenant la méthode aux moindres carrés et permettant de calculer l'orbite de Cérès. Il affirma, pour sa défense, qu'il utilisait cette méthode depuis 1795. Cependant, l'astronome, physicien et mathématicien Pierre Simon Laplace revendiqua aussi la paternité de cette méthode dans ses travaux sur la stabilité mécanique du système solaire dans lesquels il développa en 1783 une méthode proche de celle aux moindres carrés visant à résoudre un système d'équations sous-déterminé.

Les astronomes furent donc les premiers à travailler sur la théorie de l'estimation avant que les mathématiciens ne reprennent la thématique. C'est au XX siècle que Sir Ronald Aylmer Fisher (1890-1962) apporta une contribution majeure au domaine de l'estimation. Il publia en 1912 (Fisher, 1912) un article sur les fonctions de densité de probabilité en utilisant, sans le citer, l'estimateur du maximum de vraisemblance. Il publia ensuite en 1925 l'ensemble de ses travaux sur l'estimation (Fisher, 1925) qui devint un best-seller de la statistique (14 éditions et traduit en 6 langues). Il faut ensuite attendre les années 40 pour que Norbert Wiener (1894-1964), philosophe et mathématicien, en se fondant sur la théorie des processus aléatoires, présente une approche du filtrage optimal adaptée aux problèmes spectraux (Wiener, 1949). Cette technique nommée filtre de Wiener traite les problèmes continus dans le temps à l'aide de fonctions de corrélation et se limite aux processus stationnaires. À la même époque, Andreï Nikolaïevich Kolmogorov (1903-1987) traite le problème discret dans le temps : ce que les historiens des sciences appellent une double découverte. Durant les années suivantes, le travail de Wiener fut étendu aux cas non-stationnaires. Dans les années 60, Rudolf Emil Kalman (1930- ) unifia d'abord le problème continu et discret dans le temps avant de développer le filtrage optimal récursif (Kalman, 1960 et Kalman et Bucy, 1961), plus connu sous le nom de filtre de Kalman. À la différence du filtre de Kalman, le filtre de Wiener n'a pas cette bonne propriété de récursivité. Le filtre de Kalman est maintenant utilisé dans beaucoup de domaines tels que la détermination d'orbites satellitales, les systèmes de guidage, le traitement d'images, les sciences de la terre ou l'économétrie. Vers la même époque, Yoshi Kazu Sasaki, qui travaillait sur la prévision des trajectoires des ouragans, proposa une approche variationnelle de l'estimation (Sasaki, 1958 et Sasaki, 1970) qui, sous certaines hypothèses, conduit à des résultats semblables à ceux du filtrage optimal. La formulation tri-dimensionnelle est connue sous le nom de 3D-Var tandis que celle quadri-dimensionnelle est ordinairement nommée 4D-Var.

L'assimilation de données en météorologie...

Des sciences de la terre, la météorologie s'empara la première de l'assimilation de données. Gandin développa une analyse objective des champs de précipitations totales dès 1963 (Gandin, 1963). Au cours des dernières décennies, les progrès en météorologie ont été rendues possible par la conjonction systématique des observations et des apports de la théorie. La motivation et l'enjeu essentiel de ces différentes sources d'informations étaient et sont encore le besoin de prévisions météorologiques numériquement calculables. Très rapidement s'est imposée l'idée que les modèles dynamiques utilisés devaient rendre compte de la propagation des informations dans le temps et l'espace. Cette notion de propagation tente de compenser la disparité et l'imprécision des observations en permettant de construire une image consistante et quadri-dimensionnelle de l'atmosphère. Convaincus de l'importance cruciale de l'assimilation de données, de nombreux centres de recherche ou de prévision opérationnels tels que Météo-France ou le CEPMMT1.1CEPMMT Centre Européen pour les Prévisions Météorologiques à Moyen-Terme (ECMWF)(Rabier , 2000) participent à des projets internationaux ayant pour objectif l'amélioration des prévisions opérationnelles, mais aussi l'étude de l'impact anthropique sur l'évolution du climat et l'amélioration de la connaissance de nombreux phénomènes climatiques régissant ce système. Ceci devient possible par une amélioration, qualitative et quantitative, des sources d'informations, grâce notamment aux nouvelles générations de satellites d'observation (ER2, Jason, Envisat), et par une incessante augmentation des capacités de calcul.

...puis en océanographie

L'essor de l'océanographie physique est plus récent. Cependant l'intérêt de plus en plus marqué pour l'étude de la dynamique de l'océan, ainsi que l'amélioration des modèles numériques (Gent et McWilliams, 1990 ; Holloway, 1992 ; Large , 1994 et Griffies , 2000) ont motivé l'émergence de l'assimilation de données dans le domaine de la prévision océanique (Koblinsky et Smith, 2001). Le déploiement de réseaux d'observation des océans avec des bouées ou des flotteurs (données in situ) et l'utilisation des données satellitaires (altimétriques, radiométriques,...) ont soutenu l'émergence et le développement de l'assimilation de données appliquée à l'océanographie. Ses objectifs sont de satisfaire, d'une part, aux besoins de l'étude de la dynamique océanique en effectuant la meilleure estimation possible de l'état de l'océan au cours du temps. Cette estimation permet d'obtenir un état initial le plus réaliste possible pour la prévision océanique et pour la prévision saisonnière qui utilise des systèmes couplés océan-atmosphère. D'autre part, l'assimilation de données permet d'estimer, voire d'améliorer, les paramètres du modèle numérique d'océan (Smedstad et O'Brien, 1991), les forçages (Stammer , 2002 et Vossepoel et Behringer, 2000) ou les conditions aux frontières (Bennet et McIntosh, 1982 et Deltel, 2002). La capacité du système à s'ajuster vers les observations permet d'identifier certains biais ou dérives du modèle numérique d'océan (Bennett , 1998). De la même manière, des écarts trop importants identifiés par l'assimilation entre les observations et le modèle peuvent mettre en évidence une incohérence dans les observations (Holland, 1989). Enfin, l'assimilation peut aussi être utilisée pour évaluer un système d'observations (Miller, 1990 et Carton , 1996).

Les principaux objectifs

L'assimilation de données passées disponibles sur de longues périodes se nomme ré-analyse. Le projet européen ENACT1.2ENACTENhanced ocean data Assimilation and Climate predicTion avait ainsi pour objectif de réaliser, entre autre, des ré-analyses sur la période 1962-2001. La compréhension de la circulation océanique, de la variabilité du système et des mécanismes qui engendrent les phénomènes physiques majeurs de l'océan (Stammer, 2002) peut être améliorée avec les produits issus de ces ré-analyses.

Comme en météorologie, la connaissance d'un état initial le plus juste possible permet de produire des prévisions les plus fiables. L'assimilation de données a ainsi pour objectif de construire cette condition initiale afin d'améliorer les prévisions météorologiques ou océaniques. C'est pourquoi elle est au c\oeur de projets d'océanographie opérationnelle comme MERCATORMERCATORProjet d'océanographie opérationnelle - http://www.mercator-ocean.fr. Les prévisions obtenues permettent de connaître au mieux la dynamique globale des courants et masses d'eau, ainsi que l'équilibre biologique régnant dans l'océan qui en découle. Tous ces produits sont directement utiles dans les domaines de la pêche, du transport maritime, de la protection des espèces marines, de la défense et, plus anecdotiquement, dans celui des courses au large. La qualité des systèmes permet aujourd'hui une analyse de la circulation océanique réelle (Leetmaa et Ji, 1989) ainsi que la représentation de la physique méso-échelle globale (Fu et Smith, 1996). Un système d'océanographie opérationnel performant doit ainsi être composé d'un modèle océanique réaliste, d'une méthode d'assimilation efficace et d'observations nombreuses et de qualité.

Pour la prévision saisonnière, la connaissance la plus réaliste de l'état de l'océan est primordiale. En effet, la qualité du couplage océan-atmosphère est conditionnée fortement par la composante océanique qui représente la mémoire du système : la capacité de stockage de l'océan est 1200 fois supérieure à celle de l'atmosphère. L'assimilation de données permet de déterminer des conditions initiales suffisamment réalistes à l'interface océan-atmosphère. En supposant que le couplage soit réalisé parfaitement entre un modèle d'océan et un modèle d'atmosphère tout deux parfaits, l'information contenue dans l'état initial de l'océan est préservée et propagée par le modèle d'océan, puis transmise correctement au modèle d'atmosphère. Une des hypothèses fortes des modèles parfaits est d'être non biaisée. Cependant, et malgré ces hypothèses fortes, la capacité des méthodes d'assimilation à améliorer la qualité des conditions initiales océaniques et des prévisions saisonnières n'est plus à démontrer. La mise en évidence d'un impact positif sur l'ensemble du globe est cependant plus compliquée. Ces difficultés sont dues notamment aux techniques de couplage, par exemple l'échange des flux entre les modèles d'océan et d'atmosphère, et à la qualité des modèles toujours perfectibles. Cependant, pour certaines régions du globe où la dynamique est spécifique, ou dans un contexte d'étude particulier, l'assimilation de données a pu clairement montrer son intérêt. L'exemple de la région Pacifique tropical avec l'assimilation des données TAO1.3TAO Tropical Atmosphère Océan améliore clairement la prévision des événements ENSO1.4ENSOEl Niño Southern Oscillation (Ji , 1997 ; Segschneider , 2000 et Alves , 2004). Ces prévisions saisonnières sont produites de manière opérationnelle par le NCEP1.5NCEP National Centers for Environmental Prediction (Behringer , 1998 et Ji , 1998) et par le CEPMMT (Segschneider , 2000 et Alves , 2004).

Les contraintes

Le développement des méthodes d'observation et de la modélisation de l'océan ont fait évoluer, au cours des dernières décennies, les techniques d'assimilation de données du système océanique. D'autre part, le développement de méthodes d'assimilation de plus en plus performantes dans le domaine de l'atmosphère a profité au domaine océanique. Cependant, quelle que soit la méthode d'assimilation de données choisie, les problèmes sont globalement les mêmes, essentiellement celui de la taille du système, qui comprend généralement plus de $10^7$ degrés de liberté, et qui pose certains soucis de temps de calcul et d'espace mémoire. Aucun progrès notable n'aurait pu voir le jour sans la mise à disposition de moyens de calculs importants. Aujourd'hui, grâce à des super-calculateurs, les centres de prévisions atmosphériques opérationnels utilisent des méthodes d'assimilation performantes. Néanmoins, la puissance de calcul reste le facteur limitant pour le développement de méthodes d'assimilation dans le domaine des sciences de la terre. Les objectifs actuels de la communauté scientifique sont donc les suivants : réduire la taille des systèmes étudiés sans perdre d'information, améliorer la connaissance des paramètres physiques, la statistique des erreurs de mesure, prendre en compte l'erreur modèle sans trop pénaliser la résolution numérique...

Nicolas Daget 2007-11-16