Le projet fou de simuler la Terre par ordinateur
Le projet fou de simuler la Terre par ordinateur
Par Olivier Dessibourg ("Le Temps")
L’« Ultimate Earth Project » a pour ambition de regrouper toutes les données environnementales sur notre planète et de les faire interagir dans un superordinateur.
Photo de la Terre prise lors de la mission Apollo-10 en 1969. | NASA.
Nom de code : « Ultimate Earth Project », qu’on peut traduire par « Projet de Terre ultime ». Objectif : simuler la Terre entière, en tenant compte de tous les secteurs qui la caractérisent, soit son atmosphère, sa biosphère, sa géosphère, son hydrosphère, sa cryosphère (régions de glace), etc. C’est, selon les informations recueillies par Le Temps, l’initiative colossale proposée par un consortium mené par deux chercheurs, John Ludden, directeur du British Geological Survey, et Philippe Gillet, géophysicien et vice-président de l’Ecole polytechnique fédérale de Lausanne (EPFL, Suisse). Un projet qui, selon ce dernier, devrait « enfin permettre de considérer et traiter la planète dans sa globalité ». Comment ? « En agrégeant toutes les données scientifiques collectées durant des décennies dans les domaines précités pour les insérer dans un immense simulateur informatique. »
Cette description n’est pas sans rappeler un autre programme d’envergure similaire : le Human Brain Project (HBP), pensé aussi à l’EPFL, et qui ambitionne de regrouper toutes les connaissances sur le cerveau pour, à terme, reproduire son activité à l’aide de superordinateurs de conception inédite. La ressemblance ne s’arrête pas là, puisque ces deux projets s’inscrivent dans le cadre des « FET Flagships » (vaisseaux) scientifiques voulus par la Commission européenne, soit des plans sur dix ans dotés d’un milliard d’euros devant assurer un leadership au Vieux Continent dans des secteurs clés. Le HBP a été choisi dans la première vague, en 2013, et l’Ultimate Earth Project, déposé officiellement sous l’égide du Natural Environment Research Council britannique, est l’une des vingt-sept propositions qui font suite à un appel à idées lancé en février par l’UE en vue d’une possible deuxième salve. A ce stade, il ne s’agit pas d’un projet soutenu par l’EPFL en tant qu’institution, mais du « bébé » de plusieurs scientifiques internationaux parmi lesquels se trouve son vice-président.
« Pour prétendre vivre de manière durable, et permettre aux décideurs et aux industriels de prendre des décisions adéquates pour assurer la sécurité, la gestion des ressources, ou contrer les impacts des catastrophes naturelles, il faut développer une compréhension globale du système Terre », explique Philippe Gillet. Jusqu’à aujourd’hui, des milliers de scientifiques ont œuvré de manière compartimentée : les meilleurs satellites d’observation de la Terre ont été lancés, les systèmes de senseurs les plus fins ont été installés aux quatre coins de la planète, les modèles prédictifs les plus évolués ont été mis au point, mais cela à chaque fois dans un domaine d’étude précis. « Il s’agit maintenant de faire parler ensemble toutes ces données, de les faire interagir », dit le géophysicien. L’ambition de l’Ultimate Earth Project est ainsi de développer une plate-forme de simulation qui intègre tous les aspects de l’évolution de la Terre, et qui devienne une ressource unique mais ouverte à toute la communauté scientifique.
Utiliser les données des particuliers
Le projet vise de plus à tirer parti des données générées également par des particuliers. Nombre d’entre eux s’équipent par exemple d’une petite station météo, dont les mesures, même de qualité variable, ont aussi de la valeur, explique Philippe Gillet, qui admet que « le succès d’un tel projet passera inévitablement par une standardisation et une harmonisation de toutes ces données. Il y a là un énorme travail informatique à réaliser. » Enfin, « il y aura aussi des retombées économiques,la gestion de ces informations devant être prise en charge par des entreprises. »
Le vice-président de l’EPFL le reconnaît : l’Ultimate Earth Project n’est pas la seule initiative du genre. Aux Etats-Unis, le projet Earth Cube, lancé en 2011 par la National Science Foundation, vise le même objectif, ou presque. « Notre approche veut développer une cyberinfrastructure servant de support générique aux géosciences, détaille l’un de ses responsables, Lee Allison, de l’Arizona Geological Survey, à Tucson. Nous mettons l’accent sur un petit nombre d’outils de base pour développer des applications, et sur des activités pour lier ces efforts. Le potentiel pour un simulateur planétaire global pourrait émerger de cela, mais nous n’en avons encore vu aucune preuve. » Une approche dite « bottom up » (« du bas vers le haut« ) souvent propre au mode de pensée américain, que Philippe Gillet respecte, mais à laquelle il préfère une vision « top down » (« du haut vers le bas ») : « Tout le monde travaille dans son coin, par segment. Il est temps d’avoir une vision plus large et intégrée. »
Au Japon, voilà quinze ans que tourne l’Earth Simulator Center, un supercalculateur utilisé surtout pour mener des simulations en sismologie et en météorologie climatologie. En novembre 2015, lors d’un colloque à Buenos Aires, des résultats ont été présentés. Arthur Charpentier, mathématicien à l’Université du Québec, à Montréal, y a assisté et se dit impressionné : « Dans leurs modèles climatiques, ces chercheurs sont parvenus à une résolution spatiale excellente, de 5 km, alors que la granulométrie habituelle qu’on utilise est de 200 à 250 km. De plus, ces modèles incluaient aussi des données géophysiques, et permettent de simuler l’évolution sur des régions parfois exclues, comme les pôles. C’est donc intéressant. » Philippe Gillet ne dit pas le contraire, mais souligne que ce projet travaille par segment et en vase clos, et non de manière intégrée en tenant compte de toutes les données existantes en géosciences : « En fait, ils sont arrivés trop tôt par rapport à ce domaine du Big Data. »
Comment fonctionnent les modèles climatiques ?
Durée : 07:36
Images :
Universcience.
Enfin, en 2013, Bob Bishop, ancien directeur de la firme Silicon Graphics, a fondé à Genève l’International Center for Earth Simulation (ICES), avec la même idée que l’Ultimate Earth Project de l’EPFL, école à laquelle il est d’ailleurs rattaché. « L’ICES n’a toutefois jamais pu développer son idée, qui est bonne, car il n’a pas réussi à lever les fonds nécessaires », dit le climatologue Martin Beniston, de l’université de Genève. Philippe Gillet reconnaît d’ailleurs sans ambages s’être inspiré des plans de l’ICES pour sa proposition.
Le savoir-faire de l’Europe
Va-t-on donc assister à une bataille des simulateurs terrestres, comme on assiste à une course aux cerveaux artificiels entre la Chine, les Etats-Unis et l’Europe ? Pour Andrea Thorpe, scientifique de l’observatoire américain NEON, destiné à prévoir les actions nécessaires pour faire face aux impacts des changements climatiques, « il s’agit plutôt d’un défi commun, tant chaque projet doit apprendre des autres, puisque tous sont partis sur des bases différentes ». Philippe Gillet, lui, est moins conciliant : « Oui, c’est une course pour l’Europe, car elle possède le savoir-faire dans ces domaines du Big Data, il serait dommage qu’elle le perde. Car ces initiatives parallèles vont accélérer les activités dans ce domaine. » Et d’insister sur le fait que l’expérience acquise dans le Human Brain Project donne un certain poids à cette nouvelle proposition : « L’on a montré qu’on peut le faire avec le cerveau, pourquoi ne le pourrait-on pas avec la Terre ? »
Si cette légitimité affichée fait un peu débat dans le domaine des sciences de la Terre — l’EPFL n’étant pas en pointe dans ce domaine — les experts contactés par Le Temps reconnaissent qu’avoir déjà érigé un projet tentaculaire, le HBP, est un atout. Ils se posent toutefois d’autres questions de détails sur la pertinence de ces simulateurs de planète. «J’ai l’impression que ceux-ci pourront être utiles, notamment dans la prédiction des grands phénomènes, tel El Niño, dit Arthur Charpentier. Mais pour moi qui travaille dans la simulation de la gestion des risques sur les bâtiments, il restera impossible de prévoir les rafales de vent, ou le nombre de tempêtes hivernales sur une période de cinq ans. » Martin Beniston, lui, se demande si « le fait de coupler divers modèles de divers domaines géoscientifiques ne fera pas s’additionner aussi les incertitudes qui sont intrinsèquement liées à chacun, au risque d’avoir un produit final inutilisable ». Mais il entrevoit aussi des applications concrètes : « Nous pourrions par exemple étudier comment la tectonique des plaques a influencé les paléoclimats. »
Comme il l’explique dans sa proposition, Philippe Gillet s’attendait à un certain scepticisme, semblable à celui qui a accompagné l’éclosion du Human Brain Project. Mais il a aussi une réponse toute faite : « Nous avons aujourd’hui la technologie pour nous lancer. Si on ne commence pas maintenant, on ne fera jamais rien. »