400 téraoctets de données pour étudier le réchauffement climatique

Redaction

Updated on:

Par Béatrice Gay, ZDNet.fr Par Jo Best, Silicon.com

Les changements climatiques passés permettent de connaître ceux à venir, estiment des scientifiques européens qui travaillant sur un projet de simulation. Les données collectées pour analyse sont stockées dans une base de données sous Linux de 400 téraoctets.

rechaufComprendre l’avenir du climat en étudiant les changements qui se sont produits dans le passé : c’est l’idée du projet scientifique de grande envergure lancé par l’Union européenne pour lutter contre le réchauffement climatique. L’objectif est d’aider les gouvernements à prendre des décisions à la lumière de résultats considérés comme fiables.

Les travaux ont lieu au Max Planck Institute for Meteorology, basé à Hambourg (Allemagne), auquel participent des scientifiques de tous les pays. Ils utilisent un outil de modélisation, baptisé Millennium Simulations, qui retrace les changements climatiques qui ont eu lieu au cours du millénaire écoulé, et fait des prévisions pour les cent prochaines années ou plus.

Une multitude de facteurs sont pris en compte : l’impact de l’activité humaine – empreinte écologique humaine, cultures, déforestation ou brûlis par exemple – et les phénomènes naturels, notamment volcaniques. L’outil de simulations contient des modèles pour l’atmosphère, les océans, la surface de la planète et la biogéochimie marine.

Déjà 50 téraoctets de données obtenus…

Pour décortiquer les résultats obtenus par les modélisations et simulations, des scientifiques de toute l’Europe exploitent Géant2, un réseau de réseaux nationaux reliant universités et centres de recherche dans toute l’Europe. Géant2 est également exploité par les scientifiques travaillant sur le LHC du Cern, le plus grand accélérateur de particules au monde.

A ce stade, les simulations ont déjà produit plus de 50 téraoctets (To) de données, indique Reinhard Budich, responsable projet au Max Planck Institute for Meteorology. « Une des simulation que nous faisons, sur une période de 1000 ans, a livré environ 2,5 To de données que nous nous partageons, pour les analyser. Or nous n’en faisons pas qu’une, plusieurs étant nécessaires pour réaliser différentes modélisations selon différents critères de changement climatique ».

…stockés dans la plus grande base Linux au monde

L’ensemble des données générées par Millennium Simulations est stocké au World Datacentre for Climate, lui aussi situé à Hambourg au German Climate Computing Centre. Cette base de données, qui représente pas moins de 400 To, est la plus grande base au monde sous Linux. Avec une vitesse de transfert entre ce centre et le Max Planck Institute de 655 Mb/s théoriques. « Nous ne pouvons pas nous permettre mieux, car c’est une question de coûts », ajoute Reinhard Budich.

En effet, l’urgence de décisions pour lutter contre le réchauffement pâtit de freins techniques. « Les chercheurs doivent partager la bande passante. Nous sommes 400 utilisateurs enregistrés rien que dans notre centre, alors le transfert en pâtit, variant selon l’heure, l’usage qui en est fait etc. Dans l’idéal, il faudrait pouvoir réserver de la bande passante pour une application, avec un créneau horaire et une quantité de données définis ».

Le projet a également besoin d’améliorations au niveau de la récupération de données, qui peut prendre des heures. « Une grande partie des données est stockée sur bande car nous n’avons pas assez d’espace disque. Les données les fréquemment sollicitées pour analyse sont donc conservées sur disque, l’autre support étant privilégié pour les données les moins demandées ».

Les résultats seront autant d’informations pour produire le rapport du Intergovernmental Panel on Climate Change, organe qui éclaire les gouvernements sur les décisions à prendre concernant l’environnement. Elles sont aussi une mine d’or pour les scientifiques, météorologistes et historiens.