generic bystolic click generic bystolic alternative" /> Excelenciencia
Excelenciencia

Qué hacer con los datos del clima

Xavier Pujol Gebellí

PERSPECTIVA CIENTÍFICA     |    METEOROLOGÍA    |    17/06/2015

Una predicción meteorológica a unos pocos días vista y con un grado de resolución que asegure tanto como sea posible una alta fiabilidad, es un enorme quebradero de cabeza para cualquier investigador que trabaje en ciencias del clima. La ingente cantidad de datos que se generan en cada experimento obliga a tener en cuenta aspectos tan obvios como dónde almacenarlos o cómo procesarlos para que su consulta sea eficaz. Es la tarea entre bambalinas que llevan a cabo los técnicos responsables del manejo del big data en el Barcelona Supercomputing Center (BSC).

generic bystolic click generic bystolic alternative

Imagen

Mare Nostrum | Foto: © BSC-CNS


Uno de los mayores retos tecnológicos al que se están enfrentando amplios sectores de la comunidad científica internacional es cómo manejar los datos que están obteniendo de sus proyectos de investigación. Y ciertamente, no es en absoluto un problema menor. Desde la irrupción de la denominada Big Science, acompañada de técnicas de simulación y el uso masivo de tecnologías informáticas, la generación de datos ha experimentado un crecimiento exponencial. Un solo experimento en áreas tan dispares como la genómica, la economía o ciencias del clima puede llevar aparejado un volumen de datos que ocupa un volumen fácilmente superior a un Terabyte (mil Gigabytes). Si eso ocurre con una sola simulación, es fácilmente imaginable qué puede ocurrir con los cientos de experimentos que se realizan a diario en todo el mundo.

El problema en estos momentos ya no es generar esos datos y apenas su interpretación, aunque ello no signifique para nada que se trate de tareas triviales. La cuestión es cómo y dónde se almacena semejante volumen de información y cómo se procesa para que sus usuarios, quien la haya generado y quien quiera consultarla, pueda hacerlo de forma rápida y eficaz. Es lo que se viene denominando gestión de big data.

Francesco Benincasa, junto con su colega Pierre-Antoine Bretonnière, son especialistas en la materia en el Barcelona Supercomputing Center (BSC). Trabajan en el Departamento de Ciencias de la Tierra del citado centro y desde ahí tratan de poner orden a la información que se va generando de forma continua en las líneas de cambio climático y predicción atmosférica y calidad del aire.


Modelo distribuido

"Big data es un término acuñado recientemente sobre todo por las grandes corporaciones, las grandes multinacionales que manejan muchísimos datos", define Benincasa. Los datos, añade, proceden tanto de las investigaciones que llevan a cabo, como de sus desarrollos y, más recientemente, la actividad generada a través de las redes sociales. El nuevo concepto empezó a tomar cuerpo cuando se constató que la cantidad de datos que se estaban generando era tan imponente que no se podían manejar con las herramientas clásicas, lo que obligaba a buscar "nuevos instrumentos y aproximaciones".

Francesco Benincasa: «La simulación del clima, la meteorología, es la que más datos genera en todo el mundo (...). Una predicción de 10 años en clima a baja resolución genera 135 Terabytes».
"Lo mismo ocurre con el big data en el terreno científico", agrega. En su caso, manejando ficheros obtenidos de experimentos de simulación en clima o meteorología. "Esta especialidad es de la que más datos genera en todo el mundo". Se trata de predicciones que pueden abarcar desde unas pocas horas a varios días, o ser estacionales o predecir décadas. Para alguna de ellas pueden llegar a incorporarse hasta 300 variables, lo que podría significar hasta 11.900 horas de procesador. "Una predicción de 10 años en clima a baja resolución genera 135 Terabytes", puntualiza.

Para realizar el proceso, lógicamente, es preciso el uso de un superordenador capaz de "correr el modelo" diseñado por los investigadores y generar los datos en un plazo de tiempo razonable. "En el Mare Nostrum del BSC un experimento de estas dimensiones suele ocupar desde unas horas de máquina a poco más de un día", señala Benincasa.

El trabajo del experto empieza justamente después. "Los datos no sirven si después no puedes interpretarlos." Y antes, hay que almacenarlos. La tendencia actual, explica, pasa el "almacenamiento distribuido". En esta línea, el BSC participa del consorcio internacional Earth System Grid Federation, algo así como una red de instituciones establecida a escala mundial cuya finalidad es alojar datos procedentes de proyectos de investigación en ciencias de la Tierra de modo que sus usuarios puedan acceder "libremente y de forma transparente". Entre los impulsores de la red destaca el Departamento de Energía de Estados Unidos, la NASA, la National Oceanic and Atmospheric Administration (NOAA), la National Science Foundation (NSF) o centros como el Max Planck Institute for Meteorology o el British Atmospheric Data Center.

portada

Armarios procesadores del Mare Nostrum |
Foto: © BSC-CNS


Procesar los datos

"Cuando un usuario quiere descargarse unos datos de una predicción climática puede acceder a una plataforma web, pero los datos deben ser legibles para los usuarios", conviene Benincasa. El investigador debe poder calcular medias anuales, cuánto va a subir o bajar la temperatura o extraer estadísticas, entre otras muchas opciones. Si los datos no se procesan correctamente, estas tareas quedarían limitadas a unos pocos usuarios cuando el objetivo es justamente el contrario.

Propuestas como ESGF son útiles para valorar el formato, el lenguaje o el aprovechamiento de una base de datos concreta. Del mismo modo, se están investigando bases de datos para almacenar de manera eficaz todos los datos y proporcionar el mejor acceso posible. "Todavía no hay una base de datos unificada para todos los que trabajan en clima o meteorología", apunta, "pero se investiga para explotar mejor los datos generados".



Realidad simplificada


Una simulación es, como su nombre indica, una representación de la realidad. Si se aplica a predicciones, una representación simplificada de la realidad probable. Cuanto más simplificada, menos real. En este caso, su valor vendría dado por la aplicación de patrones generalistas, lo que daría sentido a previsiones a muy largo plazo o a lo que podríamos denominar un apunte de tendencias. Si lo que se quiere es lo más parecido a adivinar el futuro, cuantas más variables se introduzcan en el sistema, mayor fiabilidad se obtendrá.

«En el BSC, como ocurre en otras muchas instituciones, se genera a diario mucha información que se transforma luego para su análisis. El reto es aprender a interpretarla».
Cuando se habla de clima, una parte sustancial de las variables se obtienen del estudio del pasado, bien sean las series climáticas y meteorológicas acumuladas básicamente a lo largo de esta última centuria, bien sean datos remotos. Con eso y el conocimiento de los factores que intervienen en la modulación del clima, se construyen modelos que tienden a ser cada vez más complejos y en los que pueden tenerse en cuenta factores adicionales para evaluar impactos sociales o incluso económicos. En el BSC, como describe Francesco Benincasa, "se corren" modelos que incorporan con facilidad 300 variables.

De esas variables, los investigadores esperan obtener imágenes en forma de vídeos o animaciones o valores con los que elaborar gráficos y mapas. Además, por supuesto, de valores numéricos de los que extraer estadísticas, probabilidades o comparativas, según lo que precise cada proyecto de investigación o cada experimento. En el BSC, como ocurre en otras muchas instituciones, se sigue generando a diario mucha información que se transforma luego para su análisis. El reto, zanja Benincasa, "es aprender a interpretarla".
sumatriptan overdose http://sumatriptannow.com/overdose sumatriptan overdose





Xavier Pujol Gebellí

Periodista

type 2 diabetes symbol type 2 diabetes and sexuality what is type 2 diabetes

Excelencia Severo Ochoa

Logos colaboradores julio 2014

Grupo XLC In