martes

'Cuidado con la temperatura': ¿qué significa realmente?

Uno de los elementos que generan confusión en los comunicadores y el público se refiere a los valores de temperatura, precisamente la variable más central de todo el cambio climático.
Es comprensible, pues tiene origen en la propia comunidad científica, que no siempre asume las mismas referencias ni emplea las mismas unidades de medida.

Otra confusión, diría malentendido, se refiere a los famosos +2ºC, que se dice que no hay que superar, por ejemplo en el [Acuerdo de Copenhague].
Parece un valor muy bajo como para que estemos alarmados con la posibilidad de que este valor llegue a superarse.

Veremos más adelante cómo cuantificamos esta posibilidad, en términos de probabilidades, y de una manera muy asequible.



Voy a intentar aclarar estas posibles confusiones, que he detectado frecuentes, respecto de la variable de respuesta del sistema climático de la Tierra a una perturbación producida por un exceso en la concentración de los gases controladores del clima en la atmósfera.

Cuando se considera la temperatura de la Tierra se habla siempre de valores promedio. Estos valores se obtienen a partir de miles de puntos de medida, convenientemente calibrados para su mayor confiabilidad y que, antes de ser directamente promediados en el tiempo (por ejemplo, un mes) y en el espacio (todo el mundo, o zonas o países concretos), sufren una verificación para detectar incoherencias, posibles errores de calibración, descontar los efectos de ‘islas de calor’, efecto de altura, etc.

Son tres las instituciones que efectúan estos procesos: el Hadley Center británico, y las estadounidenses National Aeronautics and Space Administration (NASA) y National Oceanic and Atmospheric Administration (NOAA). Los procesos difieren levemente en cada uno de los centros, pero los dos últimos presentan, sustantivamente, los mismos resultados y el centro británico, al no estimar la temperatura del extremo superior del Ártico (alrededor del polo norte, donde no hay sensores), suele entregar valores (muy) levemente inferiores.

Sin embargo, la tendencia al calentamiento es consistente en los tres conjuntos de datos. Además, desde 1978 se efectúan mediciones por satélite, que son procesadas de dos formas distintas. Se consideran más confiables pero, en todo caso, son también consistentes con las medidas en superficie.



Amplificación polar

Lo importante de los incrementos de temperatura es saber que, dentro del promedio, existen zonas donde, sistemáticamente, el incremento es mayor y otras donde, sistemáticamente, es menor, o donde incluso pueden producirse leves enfriamientos transitorios.



Y lo más significativo, de hecho crucial, es que la temperatura crece mucho más en los polos, y más todavía en el Ártico que en la Antártica. También crece más en el Mediterráneo, por ejemplo, que en muchas zonas del Pacífico. Y, en el Mediterráneo, más en el occidental. O sea, por España.

Esto es debido a cuestiones geográficas estructurales, en particular el efecto de ‘realimentación hielo-albedo’ del Ártico. Pero avancemos sobre el ejemplo muy intuitivo de la Antártica, cuya parte oriental tiene tal masa de hielo que su altura es, en la zona central, superior a los 4 km, mientras que la altura del hielo en la Antártica Occidental, la denominada Península Antártica, es mucho menor y, así, se calienta más. En todo caso, al ser la zona del planeta con menor humedad relativa, el efecto invernadero del vapor de agua es menor.

Pero donde más se produce este efecto de amplificación polar es en el Ártico, donde el incremento de temperatura es, siempre, de 2,5 a 4 veces el promedio. Puede entonces el lector imaginar que, si el promedio de la Tierra llegara a ser de +2 ºC, en el Ártico alcanzaría entre 4,5 y 8 grados más. ¿Suficiente como para fundir el permafrost, que alberga cantidades imponentes de metano, gas cuyo ‘poder invernadero’ (CO2 equivalente) es 25 veces el del CO2 a 100 años?



Referencia de los incrementos

En la medida de que no hay una referencia unánimemente aceptada, no ya públicamente, sino tampoco en la comunidad científica, el momento que se toma como referencia para decir que la temperatura ha aumentado +0,8ºC o que no debe superar los +2ºC es crucial.

Unos toman como referencia el promedio de la era preindustrial, antes de las emisiones masivas no biológicas, que comenzaron en 1750. De hecho es la comúnmente empleada en el terreno científico, de modo que cuando se señala que de ninguna forma hay que superar los +2 ºC (nunca) lo hacen en referencia a los 15,0ºC que había, en promedio, desde 1750 hacia atrás.

Pero otros parten de la temperatura en 1850, otros del año 1990 (el año de referencia del protocolo de Kyoto). Otros al inicio de siglo XXI y, otros, el que mejor le parece, como es el caso del mapa de la figura de la NASA (nótese que la referencia 1961-1980 en ningún caso está elegida a conveniencia de quien quisiera evidenciar aumentos ‘alarmantes’, pues entre 1960 y 1970 se produjo un leve enfriamiento debido al exceso de aerosoles sulfurados reflectores.

Si uno se despista, o no lo dice o se está refiriendo al día de hoy. Veamos dos ejemplos:

De entre el notable número de informes emitidos después del último IPCC de 2007 mostrando que sus predicciones se quedaban cortas de toda cortedad, el que estimo más creíble, en la medida de que parece incorporar el mayor número de variables (físicas y económicas) y que lleva siendo calibrado desde por lo menos 2003, cuando se dio a conocer, es el del respetable Massachussets Institute of Technology (MIT), que fue publicado oficialmente el pasado año.

Este modelo consigue reproducir con sorprendente precisión la evolución de la temperatura desde 1861, y entrega probabilidades de incremento de temperatura para el año 2100 que los especialistas en comunicación del instituto han plasmado de una forma que a mi me parece excelente (ver figura). Pues bien: el MIT otorga la mayor probabilidad a una temperatura promedio de la década 2091 a 2100 a un incremento de 5,1ºC, en el caso de que sigamos sin hacer nada por eliminar las emisiones.

Pero el punto de partida de la nota de prensa que acompañó a la publicación del paper en Journal of Climate indicaba, no era ni el siglo XIX ni el siglo XVIII, sino el año 1990. Así que para tomar la referencia correcta de 1750 hacia atrás habría que añadir los 0,6ºC en que aumentó la temperatura desde entonces hasta 1990.

Ya ven: 5,7ºC de más ¡en promedio! Que pueden llegar a ser alrededor de +20ºC en el Ártico, unos +10ºC en la Antártica, de 8 a 10 más en España,...¿se da cuenta de las consecuencias?

Otro ejemplo, más familiar. El denominado [Acuerdo de Copenhague], fraguado sobretodo entre los Estados Unidos y China, indica que no hay que superar los + 2ºC. Hasta aquí bien. Pero acabo de releer las dos tristes páginas del acuerdo y… ¡no indica referencia! (sólo una indirecta: ‘que son consistentes con la ciencia’).

Cabe suponer que dejaron una ambigüedad a sabiendas, pero también puede suponerse que entendían que la referencia era la del día del acuerdo. Con lo cual la realidad de las cosas nos situaría, como mínimo, en +2,8 ºC. Recuerde: 2 no son 2, sino que +2ºC, o sea la Tierra a un promedio de 17 ºC, es considerado políticamente (no científicamente, que lo estima menor) el margen de estabilidad del sistema climático, punto a partir del cual el crecimiento exponencial es imparable (en el caso de que no se haya iniciado ya). Pero no porque antes de llegar a ese valor los impactos no vayan ya a ser muy importantes.

Pongo este ejemplo como muestra de un error que yo mismo cometí al comentar el acuerdo de Copenhague, y valorar que no era tan malo pues, por lo menos, esta referencia de incremento máximo de temperatura había sido asumida por lo menos por los firmantes y que, cuando se presentaran los compromisos de reducción, ya se vería que no eran suficientes. Pues bien: no lo son ni tomando como referencia el día de hoy. Pero el caso es que no queda nada claro que los + 2ºC tomen como referencia el período preindustrial, que sería lo adecuado, cosa que en su momento yo no percibí.



Referencia de las proyecciones

Aquí si que hay un acuerdo generalizado. Cuando el MIT indica esos +5,1ºC (que son +5,7ºC), ya hemos visto que señala el promedio del período 2091-2100. Por lo general, cuando se realizan proyecciones, tanto el IPCC como todos los demás organismos se refieren, salvo que se diga lo contrario, a cuál será la temperatura (o el nivel del mar, o la acidez de los océanos, etc.) ‘en 2100’. Entendiendo, claro está, en el caso de la temperatura, el promedio de por lo menos 10 años alrededor de esa fecha.

Usted se preguntará: ¿por qué detenerse en el 2100? ¿se acaba el mundo entonces?



Unidades de medida

Hay tres formas de medir la temperatura. Científicamente, de forma universal, se emplean los grados Celsius (ºC) y grados Kelvin (K), aunque difícilmente encontrará éstos últimos fuera de la literatura científica. Popularmente, los grados Celsius son los dominantes de forma abrumadora. Salvo en los Estados Unidos, donde la población está acostumbrada a comunicarse en otra medida: los grados Fahrenheit.

La diferencia entre Kelvin y Celsius es muy sencilla: para pasar de Kelvin a Celsius hay que restar 273 ºC (pues la referencia Kelvin es la del el cero absoluto, o sea -273 ºC). Pero para pasar de Fahrenheit a Celsius hay que aplicar una formulita que lleva décadas resistiéndose a mi capacidad de memorización. A nuestros efectos, sin embargo, basta con acordarse de que un incremento de +1 ºF corresponde a +0,55 ºC (y así, +9 ºF son +5 ºC).

Espero que estas clarificaciones hayan resultado útiles.



Ferran P. Vilar, Ingeniero Superior en Telecomunicación, periodista científico y técnico

No hay comentarios:

Publicar un comentario