Lunes, 10 Septiembre 2018 08:04

La física del capitalismo

La física del capitalismo

La gente tiende a pensar en el capitalismo en términos económicos. Karl Marx discutió que el capitalismo es un sistema político y económico que transforma la productividad del trabajo humano en grandes beneficios y rendimientos para aquellos quienes poseen los medios de producción [1].

Sus partidarios sostienen que el capitalismo es un sistema económico que promueve mercados libres y la libertad individual[2]. Y tanto detractores como defensores casi siempre miden el impacto del capitalismo en términos de riqueza, renta, salarios y precios, y oferta y demanda. Sin embargo, las economías humanas son complejos sistemas biofísicos que interactúan con un mundo natural más amplio, y ninguna puede ser completamente examinada sin tener en cuenta sus condiciones materiales subyacentes. Mediante la exploración de algunos de los conceptos fundamentales de la física, podemos desarrollar una mejor comprensión de cómo funcionan todos los sistemas económicos, incluyendo las formas en las que actividades capitalistas de alto consumo energético están cambiando la humanidad y el planeta.
Este artículo explicará cómo las características fundamentales de nuestra existencia natural y económica dependen de los principios de la termodinámica, la cual estudia las relaciones entre magnitudes como energía, trabajo y calor[3]. Una firme aprehensión de cómo funciona el capitalismo a nivel físico nos puede ayudar a entender por qué nuestro próximo sistema económico debería ser más ecológico, priorizando la estabilidad a largo plazo y la compatibilidad con la ecosfera global que sostiene a la humanidad.


Tal comprensión requiere un vistazo a algunas nociones centrales de la física. Estas incluyen: energía, entropía, disipación y las diversas leyes de la naturaleza que las unen. Los rasgos centrales de nuestra existencia natural, como organismos vivos y seres humanos, emergen de las interacciones colectivas descritas por estas realidades físicas esenciales. Aunque estos conceptos pueden ser difíciles de definir sin referencia a modelos y teorías específicos, sus atributos generales pueden ser esbozados y analizados para mostrar la poderosa interacción entre la física y la economía.


El intercambio de energía entre diferentes sistemas tiene una influencia decisiva en el orden, la fase y la estabilidad de la materia física. La energía puede ser definida como cualquier propiedad física conservada que pueda producir movimiento, como trabajo o calor, al ser intercambiada entre diferentes sistemas[4]. La energía cinética y la energía potencial son las dos formas más importantes de almacenamiento de energía. La suma de estas dos magnitudes se conoce como energía mecánica[5]. Un camión acelerando cuesta abajo en una autovía acumula una buena cantidad de energía cinética –esto es, energía asociada con el movimiento–. Un pedrusco tambaleándose al borde de un risco tiene mucha energía potencial, o energía asociada con la posición. Si se le da un leve empujón, su energía potencial se transformará en energía cinética por influencia de la gravedad y caerá. Cuando los sistemas físicos interactúan, la energía es transformada en muchas formas diferentes, pero su cantidad total siempre permanece constante. La conservación de la energía implica que el resultado total de todos los flujos energéticos y transformaciones debe ser equivalente a la cantidad de entrada.


Los flujos de energía entre diversos sistemas representan el motor del cosmos, y aparecen en todos los lugares, tan a menudo que difícilmente los detectamos. El calor fluye naturalmente de las regiones más cálidas a las más frías, de ahí que nuestro café se nos quede frío por la mañana. Las partículas se mueven de zonas de altas presiones a zonas de bajas presiones, y así es como el viento empieza a aullar. El agua viaja de regiones de alta energía potencial a regiones de baja energía potencial, haciendo que los ríos fluyan. Las cargas eléctricas viajan desde regiones de alto voltaje a regiones de escaso voltaje, y es así que las corrientes son desatadas a través de los conductores. El flujo de energía que atraviesa los sistemas físicos es uno de los rasgos más comunes de la naturaleza y, como estos ejemplos enseñan, los flujos de energía requieren de gradientes –diferencias de temperatura, presión, densidad u otros factores–. Sin estos gradientes, la naturaleza nunca daría flujos netos, todos los sistemas físicos permanecerían en equilibrio y el mundo sería inerte –y muy aburrido–. Los flujos de energía también son importantes en tanto que generan trabajo mecánico, que es cualquier desplazamiento macroscópico en respuesta a una fuerza[6]. Levantar una pesa y chutar un balón son sendos ejemplos de llevar a cabo trabajo mecánico en otro sistema. Un resultado importante de la física clásica iguala la cantidad de trabajo con la variación en la energía mecánica de un sistema físico, revelando una útil relación entre estas dos variables[7].


Aunque los flujos de energía puedan producir trabajo, raramente lo hacen de manera eficiente. Sistemas macroscópicos grandes, como camiones o planetas, pierden o ganan energía mecánica habitualmente mediante sus interacciones con el mundo exterior. El protagonista en este gran drama es la disipación, definida como cualquier proceso que reduzca parcialmente o elimine completamente la energía mecánica disponible de un sistema físico, convirtiéndola en calor u otros productos[8]. Al interactuar con el ambiente exterior, los sistemas físicos suelen perder energía mecánica con el paso del tiempo, por fricción, difusión, turbulencia, vibraciones, colisiones y otros efectos disipativos, impidiendo cada uno de ellos que cualquier fuente de energía se convierta completamente en trabajo mecánico. Un ejemplo sencillo de disipación es el calor producido cuando nos frotamos las manos rápidamente. En el mundo natural, los flujos de energía macroscópicos están acompañados frecuentemente por pérdidas disipativas de un tipo u otro. Los sistemas físicos capaces de disipar energía son proclives a ricas y complejas interacciones, haciendo de la disipación una característica central del orden natural. Es difícil de imaginar un mundo sin disipación y sin las interacciones que la hacen posible. Si la fricción desapareciera repentinamente del mundo, la gente se resbalaría y se deslizaría por todos lados. Nuestros coches serían inútiles, como la idea misma de transportarse, porque las ruedas y otros aparatos mecánicos no tendrían ninguna adherencia al suelo u a otras superficies. Nunca seríamos capaces de darnos la mano o mecer a nuestros bebes. Nuestros cuerpos se deteriorarían rápidamente y perderían su estructura interna. El mundo sería extraño e irreconocible.


La disipación está estrechamente relacionada con la entropía, uno de los conceptos más importantes en termodinámica. Mientras que la energía mide el movimiento producido por sistemas físicos, la entropía rastrea el modo en que la energía es distribuida por el mundo natural. La entropía tiene varias definiciones estándar en física, todas ellas básicamente equivalentes. Una definición popular en termodinámica clásica afirma que la entropía es la cantidad de energía térmica por unidad de temperatura que se vuelve no disponible para trabajo mecánico durante un proceso termodinámico[9]. Otra notable definición proviene de la física estadística, que observa cómo las partes microscópicas de la naturaleza se pueden unir para producir resultados grandes, macroscópicos. En esta versión estadística, la entropía es una medida de las diversas formas en que los estados microscópicos dentro de un sistema más grande pueden ser reorganizados sin cambiar ese sistema[10]. Para un ejemplo concreto, piensa en un gas típico y un sólido típico en equilibrio. La energía se distribuye de manera muy distinta en estas dos fases de la materia. El gas tiene mayor entropía que el sólido porque las partículas del primero tienen bastantes más configuraciones de energía posibles que los lugares atómicos fijos en sólidos y cristales, los cuales tienen solo un pequeño rango de configuraciones de energía que preserven su orden fundamental[11]. Debemos enfatizar que el concepto de entropía no se aplica a ninguna configuración específica de materia macroscópica, sino que se aplica como limitación al número posible de configuraciones que un sistema macroscópico puede tener en equilibrio.


La entropía tiene una profunda conexión con la disipación a través de una de las leyes más importantes de la termodinámica, la cual reza que los flujos térmicos nunca pueden ser completamente convertidos en trabajo[12]. Las interacciones disipativas aseguran que los sistemas físicos siempre pierdan algo de energía en forma de calor en cualquier proceso termodinámico natural en el que la fricción y otros efectos similares estén presentes. Ejemplos reales de estas pérdidas termodinámicas incluyen las emisiones de los motores de coche, corrientes eléctricas que se encuentran con resistencia y capas de fluidos que interactúan experimentando viscosidad. En termodinámica, estos fenómenos son frecuentemente considerados como irreversibles. La continua producción de energía térmica por fenómenos irreversibles merma gradualmente las existencias de energía mecánica que los sistemas físicos pueden explotar. De acuerdo a la definición de entropía, el agotamiento de energía mecánica útil implica generalmente que la entropía aumente. Dicho formalmente, la consecuencia más importante de cualquier proceso irreversible es el aumento de la entropía combinada de un sistema físico y sus alrededores. En un sistema aislado, la entropía continúa creciendo hasta que alcanza algún valor máximo, momento en el que el sistema se queda en equilibrio. Para aclarar este último concepto, imagina un gas rojo y un gas azul separados por una pared en un contenedor sellado. Retirar la pared permite que los dos gases se mezclen. El resultado sería un gas de color morado y esa configuración equilibrada representaría el estado máximo de entropía. También podemos relacionar la disipación con la noción de entropía en física estadística. La proliferación de energía térmica a través de sistemas físicos cambia el movimiento de sus moléculas en algo más aleatorio y disperso, incrementando el número de microestados que pueden representar las propiedades macroscópicas del sistema. En sentido amplio, la entropía puede ser vista como la tendencia de la naturaleza a reconfigurar estados de energía en distribuciones que disipan energía mecánica.


La descripción tradicional de entropía que se ha dado más arriba se aplica en el marco de la termodinámica del equilibrio. Pero en el mundo real, los sistemas físicos raramente existen a temperaturas fijas, en perfectos estados de equilibrio o en aislamiento total del resto del universo. El campo de la termodinámica del no equilibrio examina las propiedades de sistemas termodinámicos que operan lo suficientemente alejados del equilibrio, como organismos vivos o bombas explosivas. Los sistemas no equilibrados son la savia del universo; hacen al mundo dinámico e impredecible. La termodinámica moderna sigue siendo una obra inconclusa, pero ha sido usada para estudiar con éxito un amplio espectro de fenómenos, incluyendo flujos térmicos, la interacción entre gases cuánticos, estructuras disipativas e incluso el clima global[13]. No hay definición universalmente aceptada de entropía en condiciones de desequilibrio, aunque los físicos han ofrecido varias propuestas[14]. Todos ellos incluyen el tiempo al analizar interacciones termodinámicas, permitiéndonos determinar, no solo si la entropía aumenta o disminuye, sino también cuán rápido o lento cambian los sistemas físicos en su camino hacia el equilibrio. Los principios de la termodinámica moderna son, por tanto, esenciales para ayudarnos a entender el comportamiento de los sistemas del mundo real, la vida misma incluída.


El objetivo físico central de toda forma de vida es evitar el equilibrio termodinámico con el resto de su entorno mediante la disipación continua de energía, como sugirió el físico Erwin Schrödinger en la década de los 40, cuando usó la termodinámica del no equilibrio para estudiar los rasgos clave de la biología[15]. Podemos denominar a este objetivo vital como el imperativo entrópico. Todos los organismos vivos consumen energía de un ambiente externo, la usan para avivar procesos e interacciones bioquímicos vitales y entonces disipar la mayor parte de la energía consumida de nuevo al ambiente. La disipación de energía a un ambiente externo permite a los organismos conservar el orden y la estabilidad de sus propios sistemas bioquímicos. Las funciones esenciales de la vida dependen de esta estabilidad entrópica de manera crítica, incluyendo funciones como la digestión, la respiración, la división celular y la síntesis de proteínas. Lo que hace única a la vida en tanto que sistema físico es la auténtica variedad de métodos de disipación que ha desarrollado, como la producción de calor, la emisión de gases y la expulsión de residuos. Esta capacidad generalizada para disipar energía es lo que ayuda a la vida a sostener el imperativo entrópico. De hecho, el físico Jeremy England ha discutido que los sistemas físicos en baño caliente inundado con grandes cantidades de energía pueden tender a disipar más energía[16]. Esta “adaptación motivada por la disipación” [dissipation-driven adaptation] puede llevar al surgimiento espontáneo de orden, reproducción y autoensamblaje entre unidades microscópicas de materia, aportando una pista potencial hacia la dinámica misma del origen de la vida. Los organismos también usan la energía que consumen para llevar a cabo trabajo mecánico como, por ejemplo, caminar, correr, escalar o escribir en un teclado. Aquellos organismos con acceso a muchas fuentes de energía pueden realizar más trabajo y disipar más energía, satisfaciendo las condiciones centrales de la vida.


Del mismo modo, las relaciones termodinámicas entre energía, entropía y disipación imponen poderosas constricciones en el comportamiento y la evolución de los sistemas económicos[17]. Las economías son sistemas dinámicos y emergentes forzados a funcionar de ciertas maneras debido a las condiciones sociales y ecológicas que les subyacen. En este contexto, las economías son sistemas de no equilibrio, capaces de disipar rápidamente energía a algún ambiente externo. Todos los sistemas dinámicos ganan fuerza de alguna reserva energética, alcanzan picos de intensidad mediante la absorción de un suministro regular de energía, y entonces se deshacen de los cambios internos y externos que o bien perturban flujos vitales de energía o bien hacen imposible continuar disipando más energía. Pueden incluso llegar a experimentar ondulaciones a largo plazo, creciendo por un tiempo y luego encogiéndose, volviendo entonces a crecer de nuevo antes de colapsar finalmente. Las interacciones entre sistemas dinámicos pueden producir resultados altamente caóticos, pero las expansiones y contracciones de energía son los rasgos esenciales de todos los sistemas dinámicos. La energía consumida por todos los sistemas económicos o es convertida en trabajo mecánico y los productos físicos de ese trabajo, o es simplemente desaprovechada y disipada al medio ambiente. Podemos definir la eficiencia colectiva de un sistema económico como la fracción de toda la energía consumida dirigida a crear trabajo mecánico y energía eléctrica. Las economías que incrementan la cantidad de trabajo mecánico que generan son capaces de producir más bienes y servicios. Pero por muy importante que pueda ser, el trabajo mecánico representa una fracción relativamente pequeña del uso total de energía en cualquier economía; la gran mayoría de energía consumida por todas las economías es despilfarrada rutinariamente en el medio ambiente a través de residuos, disipación y otros tipos de pérdida energética.


Históricamente, el crecimiento económico ha estado en gran medida supeditado a que la gente consumiera más energía de sus entornos naturales[18]. Cuando los humanos eran cazadores y recolectores, el principal recurso que realizaba trabajo mecánico era el músculo humano[19]. Nuestro estilo de vida nómada se mantuvo durante unos 200.000 años, aunque padeció significativas interrupciones tras la Edad de Hielo. A lo largo de milenios, las condiciones ecológicas cambiantes por todo el mundo forzaron a numerosos grupos a adoptar estrategias agrícolas y pastoriles. Las economías agrarias dependían considerablemente de plantas cultivadas y animales domesticados para facilitar la generación de excedentes de alimentos y de otros bienes y recursos. Estos modos de consumo y producción agrarios dominaron en las sociedades humanas durante casi diez mil años, pero con el tiempo fueron reemplazados por un nuevo sistema económico. El capitalismo surgió y se extendió gracias a la expansión colonial, las olas industrializadoras, la proliferación de enfermedades epidémicas, las campañas genocidas contra poblaciones indígenas y el descubrimiento de nuevas fuentes de energía.


La economía global se ha vuelto desde entonces un sistema interconectado de finanzas, ordenadores, fábricas, vehículos, máquinas y mucho más. Crear y mantener este sistema requirió de una gran transición que aumentó la tasa de producción energética a partir de nuestros entornos naturales. En nuestros días nómadas, el índice diario de consumo energético per cápita rondaba las 5.000 kilocalorías[20]. En 1850, el consumo per cápita había aumentado hasta prácticamente 80.000 kilocalorías cada día y desde entonces se ha hinchado hasta alcanzar, hoy, alrededor de unas 250.000 kilocalorías[21]. Desde la perspectiva de la física, el rasgo fundamental de todas las economías capitalistas es una tasa excesiva de consumo de energía centrada en estimular el crecimiento económico y los excedentes materiales. El despliegue colectivo de bienes capitales puede generar niveles increíbles de trabajo mecánico, permitiendo a la gente producir más, viajar grandes distancias y levantar objetos pesados, entre otras actividades. El capitalismo es de lejos más intensivo en energía que cualquier otro sistema económico previo, y ha provocado consecuencias ecológicas sin precedentes que pueden amenazar su misma existencia. Todavía queda sin saber durante cuánto tiempo puede la humanidad sostener las actividades del capitalismo intensivas en energía, pero no hay duda de que la fantasía del crecimiento ilimitado y beneficios fáciles no puede continuar. Todos los sistemas dinámicos deben llegar a un final en algún momento.


Durante los últimos dos siglos, ineficientes economías capitalistas han descargado grandes cantidades de pérdidas energéticas a sus entornos naturales en forma de residuos, químicos, sustancias contaminantes y gases de efecto invernadero. El efecto agregado de todos estos residuos y disipación ha sido, fundamentalmente, alterar flujos de energía críticos por toda la ecosfera, desencadenando una gran crisis social y ecológica en el mundo natural. Esta crisis socioecológica está aún en sus primeras fases, pero ya ha engendrado desastres como la deforestación, el calentamiento global, la acidificación de los océanos y sustanciales pérdidas de biodiversidad[22].


Salvo que haya cambios revolucionarios en nuestro sistema económico, esta crisis solo continuará y se intensificará. Mientras esto ocurre, la acumulación de problemas en el mundo natural amenaza la viabilidad a largo plazo de la civilización global. Los productos que disipamos al medio ambiente pueden ser inútiles para nosotros, pero frecuentemente sirven como reservas de energía para otros sistemas dinámicos. Las pérdidas de energía suelen tener un efecto amplificado sobre la civilización humana, es decir, que sus verdaderos costes son mucho mayores de lo que se puede ver o entender superficialmente. Considérense las condiciones insalubres en ciudades a lo largo de la historia. Las ciudades de las economías premodernas eran típicamente sucias, con basura y deshechos llenando muchos espacios públicos. Esas pérdidas energéticas, empero, fueron una fuente crítica de alimento y nutrientes para una gran variedad de otros organismos vivientes, especialmente insectos y demás animales pequeños que podían sobrevivir en medio de la civilización humana. Cuando estas criaturas se convirtieron en huéspedes de enfermedades letales, la basura humana ayudó a concentrar sus números precisamente en los peores lugares: zonas de alta densidad como las ciudades. En consecuencia, las epidemias normalmente generaron muchas más muertes de las que habrían provocado de otro modo, con la carnicería inconcebible de la peste negra como ejemplo primordial[23]. Hoy día nos enfrentamos a nuestras propias versiones de este antiguo problema, pero a una escala mucho mayor. Hay varios tipos de gases en la atmósfera, conocidos como gases de efecto invernadero, capaces de absorber la radiación calórica que se dirige hacia afuera[24]. Cuando estos gases en la atmósfera atrapan y emiten la radiación de vuelta a la superficie del planeta, grandes cantidades de fotones excitan a los electrones, átomos y moléculas en la superficie hacia mayores niveles energéticos en un proceso llamado efecto invernadero. Estas excitaciones y fluctuaciones adicionales a nivel microscópico representan colectivamente el calor que experimentamos a nivel macroscópico. El efecto invernadero es crítico en el sentido de que hace a la tierra lo suficientemente cálida como para ser habitable[25]. Durante las dos últimas centurias, sin embargo, los países ricos e industrializados han reforzado este proceso natural mediante la inyección en la atmósfera de grandes cantidades de nuevos gases de efecto invernadero, causando, en consecuencia, mayor calentamiento global. Este reforzamiento artificial del efecto invernadero suele actuar como una poderosa reserva energética para otros sistemas dinámicos y fenómenos naturales, incluyendo tormentas, inundaciones, sequías, ciclones, incendios, insectos, virus, bacterias y proliferación de algas[26].


Un planeta en calentamiento también podría reforzar mecanismos positivos de retroalimentación en el clima, capaces de inducir incluso más calentamiento, más allá del que es ya causado por nuestras emisiones de efecto invernadero. Estos mecanismos, como el derretimiento de hielo marino y la descongelación del permafrost, permitirían al planeta absorber mucha más energía solar mientras naturalmente emite vastas cantidades de gases de efecto invernadero[27]. El caos resultante haría que cualquier intento humano por mitigar el calentamiento global fuera en vano. Justo esto es lo que debería preocuparnos: el caos que estamos desatando en el planeta mediante el sistema capitalista encontrará un manera de producir un nuevo orden, uno que amenace a la civilización misma. Mientras el capitalismo se extienda, la crisis ecológica se agravará. Los cada vez más intensos sistemas dinámicos de la naturaleza interactuarán más con nuestras civilizaciones y podrían interrumpir severamente los flujos de energía vitales que sostienen la reproducción social y las actividades económicas. Las regiones con alta densidad poblacional que están a merced de desastres naturales recurrentes son especialmente vulnerables. El ciclón Bhola mató alrededor de 500.000 personas cuando golpeó Pakistán del Este en 1970, provocando una serie de protestas y disturbios masivos que culminaron en una guerra civil y contribuyeron a la creación de un nuevo país, Bangladesh[28]. Numerosos estudios han concluido que la peor sequía que Siria ha sufrido en casi mil años ha sido parcialmente culpable de las tensiones políticas y sociales que culminaron en la actual guerra civil[29]. El clima es un sistema dinámico resiliente, capaz de asimilar muchos cambios físicos distintos, pero esta resiliencia tiene sus límites, y la humanidad se encontrará en graves problemas si sigue intentando transgredirlos.


Estos argumentos destacan una de las grandes fallas de la teoría económica moderna: carece de fundamento científico. Las filosofías económicas ortodoxas, desde el monetarismo hasta la síntesis neoclásica, se centran en describir los efímeros rasgos financieros del capitalismo, confundiéndolos por leyes de la naturaleza inmutables y universales. La teoría económica capitalista ha sido en su mayor parte transformada en una filosofía metafísica cuyo objetivo no es proveer de fundamentos científicos a la economía, sino producir propaganda sofisticada, diseñada para proteger la riqueza y el poder de una élite global. Cualquier explicación científica de la economía debe comenzar por darse cuenta de que los flujos energéticos y las condiciones ecológicas ––no la “mano invisible” del mercado–– dictan los parámetros macroscópicos a largo plazo de todas las economías. Importantes contribuciones en esta línea han venido del campo de la economía ecológica, especialmente de los trabajos seminales de los economistas Nicholas Georgescu-Roegen y Herman Daly, aunque también del ecologista de sistemas Howard Odum[30]. El propio Marx incorporó preocupaciones ecológicas en su pensamiento político y económico[31]. Las aportaciones de estos y otros pensadores revelaron que los rasgos económicos del mundo son propiedades emergentes moldeadas por realidades físicas y condiciones ecológicas subyacentes; entenderlas resulta crítico para cualquier comprensión de la economía.


El pensamiento ecológico difiere de las escuelas ortodoxas de economía de varias maneras fundamentales. La más importante es que la teoría ecológica sostiene que no podemos concebir los residuos y las pérdidas disipativas como “externalidades” y “el coste de hacer negocios” dado cuán importantes estas pérdidas energéticas pueden ser a la hora de moldear la evolución de los sistemas económicos. Lo que los economistas mainstream denominan “externalidades” incluye los productos físicos que tiramos al medio ambiente –cualquier cosa desde contaminantes y basura de plástico hasta químicos tóxicos y gases de efecto invernadero–. Las consecuencias de pérdidas extremas de energía pueden tener un efecto profundo en la futura evolución de los sistemas dinámicos. Como continuamente señalan los científicos, las pérdidas de energía de nuestras economías modernas son tan grandes e intensas que están empezando a alterar de manera fundamental los flujos energéticos de toda la ecosfera, desde el robustecimiento del efecto invernadero hasta el cambio de la química de los océanos. Algunas de estas nuevas concentraciones de energía actúan entonces como reservas que impulsan la formación y funcionamiento de otros sistemas dinámicos, los cuales a menudo perturban las actividades normales de la civilización. He ahí la razón fundamental de que nuestras acciones económicas no puedan ser escindidas del mundo natural: si los efectos asociados con nuestras pérdidas energéticas se tornan lo suficientemente poderosos como para destruir las funciones normales de nuestras civilizaciones, entonces ninguna clase de políticas económicas ingeniosas nos salvará de la ira de la naturaleza.


La mayoría de gente hoy en el poder cree que puede administrar cuidadosamente el capitalismo y prevenir los peores efectos de la crisis ecológica. Una corriente popular de optimismo tecnológico sostiene que la innovación puede resolver los problemas ecológicos fundamentales que enfrenta la humanidad. Han sido propuestas diversas soluciones para arreglar nuestras calamidades ecológicas, desde la adopción de fuentes de energía renovables hasta programas más estrafalarios, como la captura y almacenamiento de carbono. Todas estas ideas comparten la presunción de que el capitalismo por sí mismo no tiene que cambiar, porque las soluciones tecnológicas estarán siempre disponibles para cumplir con más crecimiento económico y un medio ambiente más sano. Desde Beijing a Silicon Valley, los tecnocapitalistas disfrutan discutiendo que el capitalismo puede seguir marchando mediante ganancias en eficiencia energética[32]. La última razón por la que esta estrategia fallará en el largo plazo es que la naturaleza impone límites físicos absolutos a la eficiencia que ningún grado de progreso tecnológico puede superar. El colapso reciente de la Ley de Moore debido a efectos cuánticos es un ejemplo destacado[33]. Otro es la barrera en la eficiencia que el ciclo de Carnot supone para todos los motores de calor prácticos[34].


Pero nuestras preocupaciones más acuciantes tienen que ver con las relaciones subyacentes entre innovación tecnológica y crecimiento económico. La fe en las soluciones tecnológicas nos ayuda a alcanzar mayor innovación tecnológica y crecimiento económico, aumentando las demandas totales sobre el mundo biofísico y la disipación asociada con el sistema capitalista. Podemos examinar estas relaciones mirando, en primer lugar, cómo la gente y los sistemas económicos responden a aumentos de eficiencia. Para tener una idea de si el capitalismo puede aportar grandes mejoras en eficiencia tenemos que desarrollar una teoría general que explique cómo la eficiencia colectiva de nuestros sistemas económicos cambia a lo largo del tiempo.


Cuando mejora la eficiencia del combustible, a menudo conducimos mayores distancias. Cuando la electricidad se vuelve más barata, encendemos más electrodomésticos. Incluso aquellos que, orgullosos, ahorran energía en casa a través del reciclaje, del compostaje y otras actividades, están más que felices de subirse a un avión y volar por medio mundo en sus vacaciones. La gente suele ahorrar en un área y lo intercambia por gastos en otra. Lo que acabamos haciendo con las ganancias en eficiencia puede ser a veces igual de importante que las ganancias mismas. En estudios ecológicos, este fenómeno es generalmente conocido como la paradoja de Jevons, la cual revela que los pretendidos efectos de las mejoras en eficiencia no siempre se materializan[35]. Formulada por primera vez a mediados del siglo XIX por el economista británico William Stanley Jevons, la paradoja afirma que los aumentos en eficiencia energética son generalmente usados para la acumulación y la producción, llevando a un consumo mayor de los mismos recursos que las mejoras en eficiencia pretendían conservar. Promover la eficiencia lleva a bienes y servicios más baratos, lo cual estimula aún más la demanda y el gasto, implicando el consumo de más energía[36]. Jevons describió por primera vez este efecto en el contexto del carbón y la máquina de vapor. Observó que los avances en eficiencia de las máquinas de vapor habían incentivado más el consumo de carbón en Inglaterra, implicándose de ello que, en realidad, un aumento de eficiencia energética no producía ahorros de energía.


Variantes de esta paradoja son conocidas en economía como el efecto rebote. La mayoría de economistas aceptan que algunas versiones del efecto son reales, pero no están de acuerdo sobre el tamaño y alcance del problema. Algunos creen que los efectos rebote son irrelevantes, arguyendo que las mejoras en eficiencia estimulan menores niveles de consumo energético en el largo plazo[37]. En una exhaustiva revisión de la literatura en la materia, el UK Energy Research Center determinó que las versiones más extremas del efecto rebote probablemente no se apliquen a las economías desarrolladas. Sin embargo, también discutieron que aún podían ocurrir grandes efectos rebote que atravesaran nuestras economías. Llegaron a la siguiente conclusión: “sería un error asumir que (...) los efectos rebote son tan pequeños que pueden ser ignorados. Bajo ciertas circunstancias (por ejemplo, tecnologías energéticamente eficientes que mejoren significativamente la productividad de industrias intensivas en energía), los efectos rebote que alcancen toda la economía pueden exceder el 50%, y podrían incrementar potencialmente el consumo de energía a largo plazo”[38]. El hecho de que efectos rebote significativos que alcancen toda la economía sean posibles nos debería hacer reflexionar sobre la utilidad de estrategias alrededor de la eficiencia en el combate contra la crisis ecológica y el cambio climático. De hecho, todo este argumento oscurece una incertidumbre más importante: el problema de si las mejoras en eficiencia puede llegar lo suficientemente rápido como para aliviar las peores consecuencias de la crisis ecológica, las cuales todavía van por delante de nosotros. Dadas las mecánicas e incentivos del capitalismo, deberíamos tener cuidado con el actual encaprichamiento respecto al optimismo de la eficiencia.


Es común que los sistemas económicos usen nuevas fuentes de energía para expandir la producción, el consumo y la acumulación, no para mejorar fundamentalmente la eficiencia. Desde el cultivo de plantas y la domesticación de animales a la quema de combustibles fósiles y la invención de la electricidad, el manejo y descubrimiento de nuevas fuentes de energía ha producido generalmente más sociedades intensivas en energía. Aunque cualquier sistema económico puede ganar en eficiencia, esto es incidental y secundario respecto al objetivo más amplio de la acumulación. La eficiencia total de un sistema económico es altamente inercial, cambiando con gran lentitud. Vemos este exacto proceso desarrollándose ahora con las emisiones de gases de efecto invernadero, a pesar de que la crisis ecológica se extiende bastante más allá de esta problemática. Líderes políticos y empresariales han esperado durante años que el progreso tecnológico nos entregue, de algún modo, mayores índices de crecimiento económico y una acentuada reducción de la emisión de gases de efecto invernadero. Las cosas no han ido según el plan. El año 2017 vio un aumento global sustancial de emisiones dañinas, desafiando incluso la más modesta de las metas del Acuerdo de París[39]. Incluso antes de esto, Naciones Unidas había advertido de una brecha “inaceptable” entre las promesas gubernamentales y la reducción de emisiones necesarias para prevenir algunas de las peores consecuencias del cambio climático[40]. Los retos por estimular la eficiencia son más aparentes cuando vemos el capitalismo a escala global: aunque muchos países desarrollados hayan tomado medidas modestas pero mensurables en su eficiencia colectiva, esas ganancias han sido socavadas por las economías en desarrollo aún en el proceso de industrialización[41]. Evidentemente, los cambios sustanciales en la eficiencia colectiva de cualquier sistema económico raramente se materializan en periodos cortos de tiempo. El crecimiento tecnológico bajo el régimen capitalista entregará algún progreso adicional en eficiencia, pero ciertamente no suficiente para prevenir las peores consecuencias de la crisis ecológica.


Una de las mejores formas de comprender la inercia de la eficiencia colectiva es comparar la eficiencia energética bajo el capitalismo con aquella durante los días nómadas de la humanidad, hace más de diez mil años. Recuérdese que los músculos humanos realizaban la mayoría del trabajo en las sociedades nómadas, y la eficiencia de los músculos es de alrededor del 20 por ciento, puede que mucho más, bajo circunstancias especiales[42]. En comparación, la mayoría de los motores de combustión a gasolina tienen una eficiencia de aproximadamente el 15 por ciento, las centrales eléctricas basadas en la quema de carbón tienen una media global en torno al 30 por ciento, y la gran mayoría de células fotovoltaicas comerciales rondan entre el 15 y el 20 por ciento[43]. Todas estas cifras varían dependiendo de una amplia variedad de condiciones físicas, pero cuando se trata de eficiencia, podemos concluir sin problemas que los activos dominantes del capitalismo difícilmente lo hacen mejor que los músculos humanos, incluso después de tres siglos de rápido progreso tecnológico. Coste y conveniencia son las razones principales de por qué la innovación tecnológica funciona de este modo, enfatizando el resultado mecánico y la escala de la producción a expensas de la eficiencia. Grandes mejoras en eficiencia son extremadamente difíciles de conseguir en ambos sentidos, físico y económico. De vez en cuando, aparece un James Watt o un Elon Musk con un increíble invento, pero tales productos no representan la economía por entero. La máquina de vapor de Watt fue una gran mejora respecto a modelos anteriores, pero su eficiencia térmica fue, como mucho, del 5 por ciento[44]. Y aunque los motores Tesla de Musk tienen una eficiencia operativa fenomenal, la electricidad que se necesita para hacerlos funcionar proviene de fuentes mucho más ineficientes, como las centrales térmicas a carbón. Si conduces un Tesla por Ohio o Virginia Occidental, las fuentes sucias de energía que lo hacen funcionar implican que tu asombroso producto tecnológico produce prácticamente las mismas emisiones de carbono que un Honda Accord[45]. La eficiencia colectiva de las economías capitalistas permanece relativamente baja porque estas economías están interesadas en hacer crecer sus niveles de producción y beneficios, no en hacer las gigantescas inversiones necesarias para mejoras significativas en eficiencia.


En noviembre de 2017, un grupo de 15.000 científicos de más de 180 países firmaron una carta haciendo sonar las alarmas sobre la crisis ecológica y lo que nos espera en el futuro[46]. Su pronóstico fue desalentador y sus propuestas –intencionalmente o no– equivalían a un rechazo indiscriminado del capitalismo moderno. Entre sus muchas recomendaciones útiles se encontraba una llamada a “revisar nuestra economía para reducir la desigualdad de riqueza y asegurar que los precios, la fiscalidad y los sistemas de incentivos tienen en cuenta los costes reales que los patrones de consumo imponen sobre nuestro medio ambiente”. Nuestro problema fundamental es fácil de formular: la civilización moderna usa demasiada energía. Y la solución a este problema es igualmente fácil de formular, pero muy difícil de implementar: la humanidad debe reducir el ritmo de consumo energético que ha prevalecido en el mundo moderno. El mejor modo de aminorar ese ritmo no es por medio de alucinaciones mesiánicas de progreso tecnológico, sino mediante la ruptura de las estructuras e incentivos del capitalismo, con sus impulsos por el beneficio y la producción, y estableciendo un nuevo sistema económico que priorice un futuro compatible con nuestro mundo natural.


Los gobiernos y los movimientos populares alrededor del planeta deberían desarrollar e implementar medidas radicales que nos ayudaran a mover a la humanidad desde el capitalismo hacia el ecologismo. Estas medidas habrían de incluir impuestos punitivos y límites a la riqueza extrema, la nacionalización parcial de las industrias intensivas en energía, la vasta redistribución de bienes económicos y recursos a las gentes pobres y oprimidas, restricciones periódicas en el uso de activos capitales y sistemas tecnológicos, grandes inversiones públicas en tecnologías de energías renovables más eficientes, bruscas reducciones de la jornada laboral, y puede que incluso la adopción de veganismo masivo en los países industrializados para que dejen de depender de los animales en la producción de comida. Las prioridades económicas del proyecto ecológico deben concentrarse en mejorar nuestra actual calidad de vida, no en tratar de generar niveles altos de crecimiento económico para estimular beneficios capitalistas. Si la civilización humana ha de sobrevivir por miles de años y no solo durante un par de siglos más, entonces debemos contraer drásticamente nuestras ambiciones económicas y, en su lugar, centrarnos en la mejora de calidad de vida en nuestras comunidades, incluyendo nuestra comunidad con la naturaleza. Antes que intentar dominar el mundo natural, debemos cambiar de rumbo y coexistir con él.

________________________________________
[1] Karl Marx, Capital, vol. 1 (Londres: Penguin, 1976), 929–30.
[2] Edward W. Younkins, Capitalism and Commerce (Nueva York: Lexington, 2002), 57.
[3] Peter Atkins, Four Laws That Drive the Universe (Oxford: Oxford University Press, 2007), prefacio.
[4] Robert L. Lehrman, “Energy Is Not the Ability to Do Work”, Physics Teacher, 11, no. 1 (1973): 15–18.
[5] Larry Kirkpatrick y Gregory E. Francis, Physics: A Conceptual Worldview(Boston: Cengage, 2009), 124.
[6] Atkins, Four Laws That Drive the Universe, 23.
[7] Debora M. Katz, Physics for Scientists and Engineers, vol. 1 (Boston: Cengage, 2016), 264.
[8] William Thomson, “On a Universal Tendency in Nature to the Dissipation of Mechanical Energy,” en Proceedings of the Royal Society of Edinburgh, 3 (Edimburgo: Neill and Company, 1857), 139–42.
[9] Douglas C. Giancoli, Physics for Scientists and Engineers (Londres: Pearson, 2008), 545.
[10] John M. Seddon y Julian D. Gale, Thermodynamics and Statistical Mechanics(Londres: Royal Society of Chemistry, 2001), 60–65.
[11] Seddon y Gale, Thermodynamics and Statistical Mechanics, 65.
[12] Atkins, Four Laws That Drive the Universe, 53.
[13] Para las famosas relaciones recíprocas que describen flujos térmicos, véase Lars Onsager, “Reciprocal Relations in Irreversible Processes I”, Physical Review Journals, 37 (1931): 405–26. Fue principalmente por este trabajo por el que Onsager ganó el Nobel de Química en 1968. Para un estudio de gases cuánticos de Bose en una trampa unidimensional, véase Miguel Ángel García-March et al, “Non-Equilibrium Thermodynamics of Harmonically Trapped Bosons”, New Journal of Physics, 18 (2016): 1030–35. Para una revisión exhaustiva de la termodinámica moderna y una explicación de las estructuras disipativas, la cual le dió a Ilya Prigogine su Premio Nobel, véase Dilip Kondepudi y Ilya Prigogine, Modern Thermodynamics (Hoboken: Wiley, 2014), 421–41. En 2009, Alex Kleidon escribió un relevante estudio teórico y revisión del sistema climático usando termodinámica del no equilibrio. Véase Alex Kleidon, “Nonequilibrium Thermodynamics and Maximum Entropy Production in the Earth System”, Science of Nature, 96 (2009): 1–25.
[14] Según una señera idea del físico Phil Attard, la entropía es vista como el número de configuraciones de partículas asociadas con una transición física en un periodo determinado. Véase Phil Attard, “The Second Entropy: A General Theory for Non-Equilibrium Thermodynamics and Statistical Mechanics”, Physical Chemistry, 105 (2009): 63–173. El que posiblemente sea el más riguroso modelo de entropía a nivel técnico, la imagina como un conjunto de dos funciones que describen los cambios que ocurren entre una clase restringida de sistemas de no equilibrio. Véase Elliott H. Lieb and Jakob Yngvason, “The Entropy Concept for Non-Equilibrium States”, Proceedings of the Royal Society, A, 469 (2013): 1–15. El físico Karo Michaelian ha dado una intuitiva definición de entropía, entendiéndola como el ritmo al cual los sistemas físicos exploran los microestados de energía disponibles (“Thermodynamic Dissipation theory for the origin of life”, Earth System Dynamics (2011): 37–51).
[15] Erwin Schrödinger, What Is Life? The Physical Aspect of the Living Cell (Ann Arbor: University of Michigan Press, 1945), 35–65.
[16] Natalie Wolchover, “A New Physics Theory of Life”, Quanta Magazine, January 22, 2014.
[17] Carsten Hermann-Pillath, “Energy, Growth, and Evolution: Towards a Naturalistic Ontology of Economics”, Ecological Economics, 119 (2015): 432–42.
[18] Numerosos estudios alrededor del mundo han mostrado una poderosa relación entre uso de energía y crecimiento económico. Para un análisis de la relación estadística entre uso de energía y crecimiento del PIB mundial, véase Rögnvaldur Hannesson, “Energy and GDP growth”, International Journal of Energy Management, 3 (2009): 157–70. Para un importante estudio sobre la vinculación entre energía y renta en ciertos países asiáticos, John Asafu-Adjaye, “The Relationship Between Energy Consumption, Energy Prices, and Economic Growth: Time Series Evidence from Asian Developing Countries”, Energy Economics, 22 (2000): 615–25. Para una revisión general de las maneras en que el uso de energía ha determinado la historia humana, véase Vaclav Smil, Energy and Civilization (Cambridge: MIT Press, 2017).
[19] Vaclav Smil, Energy in Nature and Society (Cambridge: MIT Press, 2008), 147-49.
[20] Jerry H. Bentley, “Environmental Crises in World History”, Procedia – Social and Behavioral Sciences, 77 (2013): 108–15.
[21] Bentley, 113.
[22] Robert Falkner, “Climate Change, International Political Economy and Global Energy Policy”, en Andreas Goldthau, Michael F. Keating, and Caroline Kuzemko (eds.), Handbook of the International Political Economy of Energy and Natural Resources (Cheltenham: Elgar, 2018), 77-78.
[23] Edward Humes, Garbology: Our Dirty Love Affair with Trash (London: Penguin, 2013), 30.
[24] W. J. Maunder, Dictionary of Global Climate Change, (New York: Springer, 2012), 120.
[25] Maunder, Dictionary of Global Climate Change, 120.
[26] Uno de los grandes artículos relacionando cambio climático e incendios forestales en Estados Unidos salió en 2016; véase John T. Abatzoglou y A. Park Williams, “Impact of Anthropogenic Climate Change on Wildfire across Western US Forests”, PNAS, 113 (2016): 11770–75. Para una guía comprensiva de algunas investigaciones recientes sobre huracanes y cambio climático, véase Jennifer M. Collins y Kevin Walsh, eds., Hurricanes and Climate Change, vol. 3 (New York: Springer, 2017). Para una revisión del rol que el cambio climático juega en la difusión de enfermedades infecciosas, véase Xiaoxu Wu et al., “Impact of Climate Change on Human Infectious Diseases: Empirical Evidence and Human Adaption”, Environment International, 86 (2016): 14–23. Para la relación entre cambio climático y proliferación de algas, Daniel Cressey, “Climate Change Is Making Algal Blooms Worse”, Nature, 25 de abril, 2017.
[27] Jonathan A. Newman et al., Climate Change Biology (Oxfordshire: CABI, 2011), 220–21.
[28] Alan H. Lockwood, Heat Advisory: Protecting Health on a Warming Planet(Cambridge: MIT Press, 2016), 103.
[29] Bruce E. Johansen, Climate Change: An Encyclopedia of Science, Society, and Solutions (Santa Barbara: ABC–CLIO, 2017), 19–20.
[30] Uno de los mayores trabajos tratando de fundamentar la economía en la física es el de Nicholas Georgescu-Roegen, The Entropy Law and the Economic Process (Cambridge, MA: Harvard University Press, 1971). Los argumentos iniciales de Georgescu-Roegen han sido refinados y desarrollados por subsiguientes generaciones de pensadores que reconocen que la actividad económica está constreñida por leyes físicas. Entre ellos estuvo Herman Daly, uno de los grandes exponentes de la idea de que el crecimiento económico no durará para siempre, cuyo trabajo ha tenido una profunda influencia en el movimiento ecologista. Para un sucinto repaso de su pensamiento, véase Herman E. Daly, Beyond Growth (Boston: Beacon, 1997). Puede que el más grande ecologista de sistemas fuera Howard Odum, quien llevó a cabo un trabajo magistral explicando los mecanismos que enlazan las sociedades humanas con sus entornos naturales. Para una explicación de sus teorías, véase Howard Odum, Environment, Power, and Society for the Twenty-First Century (New York: Columbia University Press, 2007).
[31] John Bellamy Foster, Marx’s Ecology (New York: Monthly Review Press, 2000), 9–10.
[32] Para una explicación académica formal de esta perspectiva, véase Lea Nicita, “Shifting the Boundary: The Role of Innovation”, in Valentina Bosetti et al., eds., Climate Change Mitigation, Technological Innovation, and Adaptation(Cheltenham: Elgar, 2014), 32–39.
[33] Tom Simonite, “Moore’s Law Is Dead. Now What?” MIT Technology Review,13 de mayo, 2016.
[34] Atkins, Four Laws That Drive the Universe, 51-52.
[35] John Bellamy Foster, Ecology Against Capitalism (New York: Monthly Review Press, 2002), 94.
[36] Foster, Ecology Against Capitalism, 94.
[37] Evan Mills, “Efficiency Lives—The Rebound Effect, Not So Much,” ThinkProgress, 13 de septiembre, 2010, http://thinkprogress.org/.
[38] Steven Sorrell, The Rebound Effect (London: UK Energy Research Centre, 2007), 92.
[39] Jeff Tollefson, “World’s Carbon Emissions Set to Spike by 2% in 2017,”Nature, 13 de noviembre, 2017.
[40] Fiona Harvey, “UN Warns of “Unacceptable” Greenhouse Gas Emissions Gap,” Guardian, 31 de octubre, 2017.
[41] Nijavalli H. Ravindranath and Jayant A. Sathaye, Climate Change and Developing Countries (New York: Springer, 2006), 35.
[42] Zhen-He He et al, “ATP Consumption and Efficiency of Human Single Muscle Fibers with Different Myosin Isoform Composition,” Biophysical Journal79 (2000): 945–61.
[43] Sobre la eficiencia de motores combustión interna, véase Efstathios E. Stathis Michaelides, Alternative Energy Sources, (New York: Springer, 2012), 411. Para las centrales basadas en la quema de carbón, véase R. Sandström, “Creep Strength of Austenitic Stainless Steels for Boiler Applications,” en A. Shibli, ed., Coal Power Plant Materials and Life Assessment (Amsterdam: Elsevier, 2014), 128. Sobre la eficiencia de células fotovoltaicas, Friedrich Sick y Thomas Erge, Photovoltaics in Buildings (London: Earthscan, 1996), 14.
[44] Robert T. Balmer, Modern Engineering Thermodynamics (Cambridge: Academic Press, 2011), 454.
[45] Will Oremus, “How Green Is a Tesla, Really?” Slate, 9 de septiembre, 2013, http://slate.com.
[46] William J. Ripple et al., “World Scientists’ Warning to Humanity: A Second Notice,” BioScience 20, no. 10 (2017): 1–3.

Erald Kolasi
Es investigador asociado en el Income and Benefits Policy Center en el Urban Institute (www.urban.org). Se dedica a desarrollar modelos y simulaciones por ordenador dedicados a ingresos, riqueza y jubilaciones. También ha creado modelos actuariales para calcular beneficios por empleado y analizar los rasgos cambiantes de los planes de pensión públicos. Está graduado en Física e Historia en la Universidad de Virginia, es doctor en Física por la Universidad George Mason.

Publicado enSociedad
¿Un barril de crudo a 100 dólares?: la antesala de otra recesión mundial

El petróleo se ha instalado en torno a los 80 dólares. Y podría alcanzar la cifra de los tres dígitos a medio plazo. Una combinación de crecimiento de demanda global de energía, restricciones productivas en la OPEP y tensiones geopolíticas, en especial, hacia Irán, siembran el temor a que el crudo, si toca los 100 dólares de cotización, desencadene una nueva recesión en EEUU, y en el mundo.

No resulta descabellado. La escalada de precios del petróleo ha antecedido a cinco de las seis últimas recesiones de la economía estadounidense. Y 2018 está asumiendo el protagonismo de un cambio de tendencia. Al alza. De un nuevo boom de oro negro que devuelve a los mercados y a los Estados -productores o crudo-dependientes, que fían sus presupuestos anuales a un coste o recaudación determinado-, a un escenario más similar al de los años previos a 2014 -ejercicio en el que el petróleo comenzó un descenso histórico que llevó al Brent, de referencia en Europa, a cotizar a 27,67 dólares el barril, en enero de 2016, el valor más bajo desde 2003-, en los que los contratos de futuros transitaban con comodidad por cifras de tres dígitos.


En la actualidad, cotiza en torno a los 78 dólares, cerca de la frontera que Arabia Saudí, primer productor mundial y auténtico rector de los designios de la OPEP, ha establecido como adecuados, en 2018, según sus intereses. Una cota excelente para sanear sus desequilibradas arcas públicas por efecto del alto coste de la guerra en Yemen y de unos ingresos petrolíferos holgadamente por debajo de los 60 dólares en el último trienio. Pero, ¿qué consecuencias tendría un barril a 100 dólares? Y, sobre todo, ¿qué circunstancias se han combinado para que el barril tenga a tiro esta emblemática cotización, que ha elevado en más de un 50% su valor desde comienzos de año?

“Existe una acumulación de factores, todos alineados en la misma dirección”, dice el equipo de economistas de UBS, el banco de inversión suizo. “Desde un aumento de la demanda de energía mundial, hasta la renovada política de restricciones de cuotas productivas en la OPEP pasando por una escalada de las tensiones geopolíticas, en especial hacia Irán, que llevan aparejadas una seria amenaza de sanciones económicas” al régimen de Teherán. Efectivamente, “el petróleo se podría poner en 100 dólares a lo largo de este ejercicio”, advierten. Con réplicas inmediatas en las economías. “Las señales de una posible contracción del PIB en EEUU son elocuentes”, afirma el responsable de análisis de UBS, Arend Kapetyn, en una nota dirigida a sus inversores.

Aunque también se apreciará un impacto sobre la inflación. No tanto en la mayor economía del planeta, debido al encarecimiento del precio del dinero, sino en la esfera de los mercados emergentes, reacios a seguir la estela de la Reserva Federal americana y asolados por las restricciones en los circuitos de acceso al crédito internacional por las subidas de tipos en EEUU, sus elevadas tasas de endeudamiento soberanos y de sus empresas y bancos y por la reanimación del dólar.

Esta pinza -recesión más inflación- afecta, en cualquier caso, a la coyuntura estadounidense. “Hay que tomárselo en serio” porque todo repunte más o menos brusco del crudo “acarrea una serie de riesgos” y conviene recordar que “cinco de las seis últimas recesiones en EEUU han venido precedidas de un escenario energético como el actual”, aclara Kapetyn. Y la escalada actual es, ni más ni menos, que la decimoprimera de mayor intensidad en los últimos 70 años, después de que el pasado 17 de mayo superara los 80 dólares.


Un sónar peligroso

Este salto “es todavía de menor trascendencia que otros que antecedieron a recesiones en EEUU pero si el precio se mueve hacia los 100 dólares el panorama cambiará sin remedio”. Entonces -explican en UBS- se restaría alrededor de 100.000 millones a la economía global, dejando el PIB del planeta en un crecimiento del 3,8% -cualquier crecimiento inferior al 3% se considera como contracción global-, mientras que los precios mundiales se situarían por encima del 4%, lo que obligaría a bancos centrales de las potencias emergentes (e industrializadas, en especial, al área del euro y Reino Unido) a mover ficha al alza. Otro retardo de actividad.

Desde Goldman Sachs también observan estos riesgos. “Es un sónar peligroso para la gestión de los riesgos futuros, porque las perspectivas no son halagüeñas”. Aunque, de momento, los flujos de inversión “permanezcan más complacientes que preocupados”, pese a que el Brent ha subido un 52% desde que, a finales del pasado año, la OPEP se inclinara por las tesis de Riad y redujera, de forma más agresiva de lo esperado, sus cuotas productivas. Hasta alcanzar los 82,5 dólares. También juega un rol notable la crisis nuclear iraní derivada de la ruptura del tratado por parte de la Casa Blanca. A lo que hay que añadir el incremento de la demanda de crudo que “podría enfrentarse a problemas de entrega por la carencia de petróleo en el mercado” y la fatiga que está empezando a demostrar el actual ciclo de negocio, que nació débil y con rastro sinuoso por emerger de la mayor crisis financiera desde 1929, afirman en el banco de inversión americano.

Citigroup acaba de elevar en 10 dólares, hasta los 75, el precio medio del barril para el conjunto de 2018, lo que lleva implícito que, en algún momento del año, traspasará los 100 dólares.


“Por favor, pare esto; de otra forma, el crudo se encarecerá mucho más”. Esta ha sido la réplica del gobernador de Irán en la OPEP, Houssein Kazempour Ardebili, al presidente de EEUU por su tweet en el que acusa al cártel petrolífero de “hacer muy poco” para estabilizar el precio del oro negro y “todo lo posible” por encarecer los combustibles en EEUU.


A pesar de que Arabia Saudí ha afirmado a Washington que impulsará la producción, en Goldman Sachs alertan de que esta posibilidad baja enteros ante los riesgos de suministro de Venezuela e Irán, bajo sanciones de la Administración Trump. “Está usted martilleando a la OPEP y desacreditando la soberanía de sus socios”, critica Kazempour, quien dijo que en el cártel “esperan una actitud más conciliadora y cordial” por parte del actual inquilino de la Casa Blanca, que también les emplazó a “reducir los precios de inmediato”.


Más contundente han sido los jerarcas de la Guardia Revolucionaria iraní, al advertir que cualquier maniobra de Washington para exigir cambios en la política de la OPEP traería el cierre del Estrecho de Ormuz, por donde pasa la mayor concentración de petroleros del mundo para cargar el 30% de los flujos petrolíferos que movilizan los mercados y cuyo peaje está en poder de Teherán. Tampoco ayuda a las pretensiones de Washington los problemas de abastecimiento, en este caso tecnológicos para extraer crudo, de Libia -país miembro del cártel, pero exento del último acuerdo junto a Nigeria- y Canadá. Ni el aumento de tarifas comerciales de EEUU a China, el primer comprador de petróleo del mundo, que podría mermar su dinamismo y, con él, el del conjunto del PIB global.

Réplica amenazante de la OPEP

“La OPEP nunca ha definido el precio del crudo en los últimos 30 años”, espeta Kazempour. Falacia que, sin embargo, le dio pie para concluir con un duro mensaje a Trump: “Usted impone sanciones a grandes productores, fundadores de la OPEP, y todavía nos interpela para que bajemos precios”, se preguntó. “¿Desde cuándo ha empezado a trasladarnos órdenes?”.


En este complejo panorama, sólo Rusia parece dispuesto a elevar sus cuotas de mercado. Además del consejo de la Agencia Internacional de la Energía de que Arabia Saudí y los emiratos del Golfo Pérsico cubran la retirada de 1,5 millones de barriles diarios que Irán y Venezuela pretenden poner en marcha en 2019. El mercado del crudo es especialmente vulnerable a la evolución de precios de los contratos de futuros a seis meses.

También a los inventarios acumulados de EEUU. Es decir, a la capacidad y el volumen de almacenamiento de crudo por parte del mayor mercado del mundo, y que, pese a subir en 833.000 barriles en las últimas semanas, siguen por debajo de las estimaciones, de 1,25 millones, que los analistas juzgan idóneo para revertir el rally alcista del crudo. Sin tocar sus reservas estratégicas -Trump baraja permitir labores de exploración en el Refugio Nacional de Vida Salvaje del Ártico que, junto a las reservas de 11.800 millones de barriles de Alaska, añadiría más capacidad productiva a EEUU- y sin elevar el poder extractivo de su industria del fracking, a la que están plenamente dedicada firmas petroleras del país que han vuelto a ejercer su capacidad de lobby en la Casa Blanca con la actual Administración.

La que también se denomina shale revolution ha permitido a EEUU ser el primer productor de crudo y convertirse en exportador neto de petróleo, con más de 2 millones de barriles diarios, según la capacidad extractiva semanal de un método especialmente dañino al medio ambiente. Trump y los jerarcas del sector petrolífero aseguran que, con el fracking, la caída de actividad del PIB de EEUU, con un barril a 100 euros, sería de cuatro décimas. La estimación que antes se calculaba para el petróleo a 75 dólares.

Por si fuera poco, hay un indicador, la curva de rentabilidad del bono americano que, aunque se ha estabilizado en las últimas fechas, deja una incógnita mayúscula por despejar. Este barómetro determina el diferencial de beneficios entre el bono estadounidense a dos y diez años. Cualquier caída a posiciones negativas (o próximas a ello) anticipa una contracción del PIB. En la actualidad, se encuentra en cuatro puntos básicos, después de subir en los últimos meses y dejar atrás las alarmas surgidas en 2014, cuando se situó por debajo de los dos puntos. En buena medida, por la política restrictiva de la Fed. Pero los nervios de los inversores no se han calmado. Y con razón. Porque la Reserva Federal tendrá que manejar un aspecto clave a la hora de determinar futuras subidas de tipos en un indicador que ya no navega con el salvavidas de los estímulos monetarios de los últimos años. De ahí que bancos de inversión como Bernstein convengan en que el ciclo de negocios actual en EEUU toque a su fin. Ni siquiera la rebaja fiscal a empresas y consumidores de Trump parece que servirá para espolear la demanda interna (gasto de consumo de familias y de inversión de empresas) porque las expectativas son de guardar la ropa. Dada la volatilidad de los mercados bursátiles y la debilidad financiera de los grandes mercados emergentes. Y ya se sabe en los círculos inversores que cuando EEUU estornuda, Europa y Japón se resfrían.
Indicadores apócrifos en EEUU

Dentro de un ambiente que recuerda a 2007, preludio de la crisis. Con datos que preludian una compleja salida para la sociedad americana. The Washington Post alertaba recientemente de ello. Son los barómetros apócrifos, explicaba. Un 45% de los estadounidenses en edad adulta carece de un colchón financiero suficiente para permitirse un gasto inesperado de 400 dólares, que les puede llegar de forma súbita, pero también habitual: por ejemplo, una factura médica de urgencia o la avería de su coche. Una segunda alerta es que el 43% de sus hogares no pueden permitirse un modo de vida básico; es decir, que casi la mitad de las familias de la gran potencia mundial no pueden afrontar los gastos aparejados a la vivienda, comida, escolarización infantil, transporte, sanidad o conexión a Internet. El tercer factor es que, durante el pasado año, más de uno de cada cuatro estadounidenses no acudió a recibir asistencia sanitaria porque no se lo podía permitir. El cuarto y último índice de que la microeconomía no ha seguido la estela de las grandes cifras coyunturales es que un 22% de ellos no tienen capacidad financiera para pagar todas las facturas a final de mes y, asociado a este indicador, que sólo el 38% de los trabajadores en activo piensa que sus ahorros para la jubilación, en un país sin pensiones públicas, están en el camino correcto para sus necesidades una vez pasen a la edad de retiro.

 

MADRID
06/08/2018 08:36 Actualizado: 06/08/2018 08:36
Por DIEGO HERRANZ

Publicado enEconomía
La tragedia de Hidroituango: ¿El ocaso de un modelo?

La decisión de no construir sino un túnel de desviación, así como de poner a producir energía a Hidroituango antes de lo proyectado o en el tiempo exacto de lo calculado, a riesgo de llevar al límite esta megaobra, es parte de la explicación profunda de por qué la misma entró en crisis. Hace rato que EPM se comporta con un criterio privado, en el cual se priorizan los resultados financieros sobre los resultados sociales o energéticos.

 

Con el agua al cuello. Tras más de tres décadas de estudios de factibilidad y diseño de obra, y diez años de construcción, Hidroituango flaquea. Como al mal brujo que no logra controlar sus hechizos, aquí, en el campo de la ingeniería, parece suceder lo mismo, pero todo ello por decisiones mal tomadas.

Es conocido lo sucedido en este proyecto durante el último mes: la obstrucción de un túnel de desviación de las aguas, cuando los otros dos estaban taponados, hizo que el embalse se empezara a llenar sin haberse terminado la presa. Buscando evitar una tragedia que implicara, entre otros, la destrucción de la presa, se optó por desviar el río por los túneles de conducción, inundando la casa de máquinas. Si bien los riesgos aún existen son menores que hace unos días.


Las causas de esta situación, en especial la razón por la cual se taponaron los túneles de desviación, sin construir compuertas para su cierre como estaba previsto en el diseño original, será materia de investigación por parte de los entes correspondientes.

Sin embargo, hay que ir un poco más allá. En realidad, las Empresas Públicas de Medellín (EPM) tenían urgencia de cumplir el compromiso de poner en operación el proyecto en diciembre de 2018. No tenerlo le hubiera costado pagar las garantías por la adjudicación del cargo por confiabilidad y tener que comprar energía para cumplir los contratos de venta firmados con anterioridad.


Es decir, el afán a la hora de la decisión tomada, era no perder unos pesos de rentabilidad de un proyecto diseñado para producir energía por más de 50 años. El modelo de mercado y de competencia lleva a este tipo de decisiones. Se prioriza la rentabilidad sobre las decisiones técnicas y se asumen riesgos que jamás han debido asumirse. Un proyecto de esta magnitud no podía tomar el riesgo de no tener sino un túnel de desviación, así fuera por pocos meses. Se hizo en el peor momento, cuando el invierno estaba en su mayor nivel. La competencia por el mercado conduce a actuaciones muchas veces equivocadas. Una empresa pública como EPM tiene la presión de ganar dinero para rendirle cuentas a su municipio. Hace rato que EPM se comporta con un criterio privado, en el cual se priorizan los resultados financieros sobre los resultados sociales o energéticos.


Una reflexión y pregunta fundamental en este momento sería: ¿Cuál es el papel de las empresas públicas en la prestación de un servicio esencial como la energía eléctrica?


La obra


Son decisiones erradas, con consecuencias mayores por la magnitud de la misma obra, que de romperse la presa implicaría una catástrofe humanitaria de mayúsculas proporciones.


No es para menos: El embalse albergará 2.720 millones de metros cúbicos de agua e inundará unas 3.800 hectáreas. La presa tiene una altura de 225 mts y es de enrocado con núcleo de arcilla (1). La casa de máquinas es de tipo subterráneo y alberga 8 unidades de 300 MW de potencia cada una. Las obras principales ocupan predios de los municipios de Ituango y Briceño, mientras que los municipios de Santafé de Antioquia, Buriticá, Peque, Liborina, Sabanalarga, Toledo, Olaya, San Andrés de Cuerquia, Valdivia y Yarumal, aportan predios para las diferentes obras del proyecto.


Conocido como el proyecto hidroeléctrico de Pescadero-Ituango, está ubicado en el noroccidente del departamento de Antioquia a 173 Kms. de la ciudad de Medellín, consiste en el represamiento del río Cauca, en el denominado cañón del Cauca, para la generación de electricidad, con una capacidad instalada de 2.400 MW (equivalente a casi un 15 por ciento de la actual capacidad instalada en el Sistema Interconectado Nacional). Los dos socios principales en la construcción del proyecto son el Departamento de Antioquia a través del Instituto para el Desarrollo de Antioquia (Idea, 50,7%) y Empresas Públicas de Medellín (EPM, 46,3%), siendo esta última la encargada de contratar la construcción y hacer la operación una vez entre en funcionamiento.


El proyecto, en promedio, cada año podrá generar 13.930 GWh, que representa un 20,1 por ciento de la demanda anual proyectada para 2018 por la Unidad de Planeación Minero Energética. El costo del mismo, según información difundida por EPM, supera los 12 billones de pesos, es decir, es el proyecto más grande emprendido por las EPM y el más grande en la historia del sector eléctrico colombiano.


Las tragedias


Tal vez el tono de Jorge Londoño De la Cuesta, gerente general de EPM, o el mismo del gobernador de Antioquia, Luis Pérez Gutiérrez, o el hecho de que Juan Manuel Santos se haya trasladado hasta la zona en emergencia como evidencia de que las cosas, supuestamente no pasarán a mayores, han servido, todas y cada una de ellas para ocultar o menguar la magnitud de lo que está en curso, pero con Hidroituango estamos ante la peor de las tragedias vividas por el sector eléctrico nacional, debido al impacto extendido a todos los ámbitos de la sociedad. Es tal su magnitud, y a pesar de lo antes anotado, que es el único hecho que ha logrado opacar en cierta forma el proceso electoral y colocar en el debate presidencial el tema, así sea de manera superficial.


En efecto, se trata de una tragedia de múltiples dimensiones: en primer lugar, una tragedia para las comunidades ribereñas, tanto de aguas abajo como de aguas arriba de la presa. Tragedia mucho más crítica toda vez que ellas se opusieron a esta obra desde el mismo momento en que se anunció su construcción por considerar que tenía impactos muy negativos en el medio ambiente; fauna, flora, pesca, aguas, etcétera, todo lo cual afectaría de manera negativa a quienes habitan la zona de influencia del río desde siempre. Pese a la justeza de sus reclamos, como en casi todos los casos de las megaobras, estas demandas no fueron escuchadas y el proyecto de todos modos inició su construcción en el año 2010.


La decisión de ejecutar el proyecto parte de la adjudicación de la subasta de Energía Firme (2) hecha por la Creg en junio de 2008, mediante la cual se le adjudica a éste y a otros proyectos un cargo por confiabilidad por 20 años que favoreció la posibilidad de financiación del proyecto. El compromiso adquirido por Hidroituango fue el de entregar 2.972.603 kW-h-día durante 20 años, por lo cual recibiría un cargo de US$13.998 por MWh generado.


Durante la construcción la comunidad, en buena parte acompañada por el Movimiento Ríos Vivos, realizó veeduría constante de las obras, exigiendo el cumplimiento de los compromisos señalados en la licencia ambiental y otros que surgieron en el proceso de construcción, como el hallazgo de fosas comunes de víctimas de las masacres varias ocurridas en la zona por parte de grupos armados, especialmente paramilitares. Pero en este referido tampoco fueron escuchadas, lo que hubiera evitado la inundación de fosas comunes. Su evaluación previa al llenado, sin duda, hubiera contribuido a esclarecer las terribles masacres de una de las regiones más azotadas por el conflicto armado colombiano.


También es una tragedia ambiental inmensa. Por supuesto, un proyecto de esta magnitud tiene impactos, no solo en la zona de influencia sino en toda la cuenca, como lo señala un reciente estudio de expertos de la Universidad Javeriana. En primer lugar, inunda dos centros poblados (Orobajo en Sabanalarga y el corregimiento Barbacoas en Peque), lo cual produjo el desplazamiento de numerosas familias. Además, tendrá impactos sobre la flora y la fauna regional, sobre la pesca y otras actividades que desarrollaban los habitantes ribereños como la minería artesanal de oro.


Como parte de esta tragedia ambiental también está la tala del bosque antes de el llenado del embalse, decisión tomada por los responsables de esta megaobra y contraria a lo consignado en la licencia ambiental original otorgada por la Anla al proyecto. Sin embargo, EPM logró convencer a la Anla para modificar la licencia en este aspecto y disminuir la cantidad de bosque a talar y retirar del sitio del embalse antes del llenado. Es posible que el arrastre de una gran cantidad de madera haya contribuido al taponamiento del túnel que inició la tragedia.


Todo lo anterior es parte de la tragedia de la comunidad. Sus voces y sus justos reclamos no han sido escuchados. Y a ello agregamos la tragedia actual. Señala el Movimiento Ríos Vivos en su portal (3): “El ambiente en la región es de temor, desesperanza y desconsuelo. En estos momentos urge la solidaridad nacional e internacional para las comunidades que han perdido sus viviendas, formas de sustento y de relacionarse con el entorno […]”. Pero hay más, desde el inicio del proyecto han sido asesinados dos miembros del Movimiento Ríos Vivos. Por ello, si bien no han habido muertos por el taponamiento del túnel, sí los ha habido por la intolerancia y la incapacidad de escuchar voces distintas y diversas. Son los muertos de todos los días, impunes, abandonados por la indiferencia e indolencia de un Estado incapaz de proteger la vida de todos los colombianos.


También es una tragedia para la Ingeniería nacional, la cual no sale bien librada por lo que está en curso. Después de lo ocurrido en varios edificios en Medellín y Cartagena, sumado a lo del Puente Chirajara en la vía al Llano, lo ocurrido en Hidroituango pone una vez más las luces sobre lo que viene ocurriendo con nuestros ingenieros. ¿Será que la calidad de la educación ha retrocedido? o, ¿Será que los ingenieros son víctimas del modelo de rentabilidad que exige tiempos y réditos a ritmos que la ingeniería no puede cumplir sin afectar la calidad de las obras? Este es un debate que no puede posponerse por parte de la misma academia. La ingeniería colombiana no resiste un fracaso más.


Es una tragedia para los antioqueños, porque el departamento es el dueño de la mayor parte del proyecto y los efectos económicos son de un tamaño gigantesco para el ente territorial.


De igual manera lo es para las EPM, la joya de la corona de aquella ciudad, una empresa pública con un gran historial de buenas ejecutorias, es una tragedia no solo en lo reputacional, sino en lo económico, porque sin duda el costo no esperado de este suceso, que aún no está cuantificado, va a afectar las finanzas de una empresa que ya con algunas inversiones en el extranjero ha mostrado ciertas debilidades en sus decisiones para realizar buenos negocios. Ello sin agregar la investigación que se adelanta a nivel de fiscalía por la contratación de Consorcio CCC (conformado por la brasileña Construções e Coméercio Camargo Corrêea S.A., y las colombianas Constructora Conconcreto S.A. y Coninsa Ramón H. S.A), el cual ha sido el encargado de ejecutar la construcción de la presa, la central de máquinas y demás obras asociadas al proyecto hidroeléctrico. Es importante señalar que la firma brasileña es una de las implicadas en el proceso por corrupción que se adelanta en Brasil con el nombre de “Lava Jato”.


Pero para el país también es una tragedia, no solo por el tamaño del proyecto y su importancia en el futuro suministro de energía. Lo es porque a pesar que la dirigencia de EPM afirma que los sobrecostos no se trasladarán a la tarifa, eso no es cierto en el modelo eléctrico actual, como explicaremos más adelante. Es decir, los platos rotos los pagaremos todos los usuarios de energía del país que representa el 96 por ciento de la población, ya que el 4 restante aún no cuenta con fluido eléctrico.


Consecuencias posibles


La crisis ha roto todo lo proyectado en esta obra, y aunque parece que va encontrando soluciones, vale la pena preguntar, ¿qué va a pasar después de este desastre?
Un pronóstico previsible sobre este particular, sería:


Se investigará lo sucedido técnicamente y posiblemente se le achaque la responsabilidad a algunos ingenieros de EPM. Poco probable que los directivos asuman responsabilidades de algún tipo.
El proyecto, probablemente, se terminará en uno o dos años, con un sobrecosto muy alto con respecto a lo prevista hasta la fecha.
EPM, posiblemente vea afectada sus finanzas, pero con los demás proyectos que tiene podrá superar la situación.
La Creg hará todo lo posible por facilitar el futuro de EPM.
Es posible, pero no seguro, que este hecho posibilite las subastas de energía de largo plazo que permitan la entrada de Fuentes de energía renovable no convencional. Ojalá también sea posible la entrada de nuevos agentes.
El atraso del proyecto probablemente no producirá desabastecimiento de energía porque el sistema cuenta con reservas suficientes y ya se anuncia una nueva subasta de energía firme para el mes de octubre (se adelantó dos años con respecto a lo inicialmente previsto).
El modelo del sector eléctrico continuará. Posiblemente se hagan reformas para profundizar el mercado


Consecuencias deseables


Es claro que lo deseable es que esta tragedia produzca cambios de fondo en el modelo eléctrico, entre ellas:


Dar más participación a las comunidades en las decisiones de los proyectos que de alguna manera las afecten.
Establecer un sistema de precios con base en costos y no en competencia de precios, donde quienes tiene el poder de mercado pueden manipular los precios para obtener mayores ganancias.
Organizar a los consumidores para que tengan voz en la Creg, para tener en cuenta sus necesidades y posibilidades.
Democratizar el consumo y la producción de energía, facilitando la entrada de pequeños productores y agrupaciones comunitarias.
Dar mayor injerencia a los municipios en las decisiones sobre el servicio público de energía.
Acelerar el proceso de penetración de fuentes no convencionales de energía. Que los municipios tengan mayor injerencia en las decisiones sobre el servicio público de energía.
Propender porque los megaproyectos hidroeléctricos que afecten a las comunidades y al medio ambiente, por encima de sus beneficios económicos, puedan ser reemplazados por otras fuentes de energía. Que se empiece aceleradamente el proceso de penetración de fuentes no convencionales de energía.


En últimas, las consecuencias de esta tragedia en Hidroituango están por verse. Podría no pasar casi nada o podría transformarse el modelo para bien de las mayorías que habitan en Colombia. g

1. Una presa de enrocada con núcleo de arcilla es la que se construye con rocas extraídas de la misma región del proyecto y que en el centro lleva arcilla o barro para impermeabilizarla y que no se filtre el agua. Hay otros tipos de presa: presas de concreto, presas de tierra, etc.
2. Las subastas de energía firme se hacen para garantizar la confiabilidad y desarrollar nuevos proyectos. La CREG define una cantidad de energía a contratar por este mecanismo, denominada firme porque se puede entregar con una probabilidad muy alta, y la adjudica a los proyectos que compiten por el precio menor a recibir en la subasta.
3. https://defensaterritorios.wordpress.com/

*Profesor Facultad de Ingeniería Universidad Nacional de Colombia


El modelo

 

El modelo de funcionamiento del sector eléctrico colombiano se fundamenta en las Leyes 142 y 143 de 1994, que reformaron el modelo estatal que funcionó hasta ese año. Las principales características del modelo existente son:

 

• Participación privada en todas las actividades de la cadena de producción.
• Separación de actividades: generación, transmisión, distribución y comercialización. Las empresas que se crearan después de las leyes de 1994 no podrían estar integradas verticalmente (tener todas las actividades de la cadena de producción).
• Promover la competencia donde fuera posible: se hizo en la generación y en la comercialización de grandes consumidores.
• Creación de un mercado mayorista de electricidad: Este mercado es competitivo y en él pueden participar los generadores y los comercializadores que le venden la energía a los usuarios finales.
• El Estado se encarga de la regulación de precios y tarifas y de las reglas del mercado. Este rol lo ejecuta la Comisión de Regulación de Energía y Gas –Creg–. Las tarifas deben reflejar los costos económicos de producción.
• El Estado se encarga de la planificación a través de la Upme. Sin embargo, en cuanto a la generación esta planeación es meramente indicativa. Las empresas generadoras deciden los proyectos que quieren ejecutar. La Creg da señales económicas para que los proyectos se realicen.

 

Uno de los propósitos de las reformas hechas al sector en la década del 90, y que aún hoy se mantienen, era garantizar el suministro confiable y seguro y a partir de mayor eficiencia tener mejores precios para los consumidores finales. El primer objetivo se ha cumplido parcialmente, pero el segundo no. Colombia tiene tarifas de energía más altas que países similares que poseen incluso menos fuentes energéticas que nosotros.


Respecto a la eficiencia en el suministro, el país utiliza hoy combustibles líquidos (principalmente diésel) para la generación de electricidad. Este hecho, muestra una gran ineficiencia en la matriz eléctrica, pues la generación con este combustible es varias veces más costosa que con energías convencionales y tiene impactos en la emisión de gases de efecto invernadero (GEI), efectos ambientales muy cuestionables.


Por otra parte, en la generación eléctrica existe una alta concentración de la propiedad, en la cual tres empresas (EPM, Isagen y Emgesa –propiedad de la italiana Enel) controlan más del 52 por ciento de la capacidad de producción. Esta situación produce capacidad de ejercer poder de mercado, lo cual eventualmente podría afectar los precios de la energía.


En Colombia aún no han penetrado las Fuentes renovables no convencionales de energía (eólicas, solares, biomasa o geotermia) porque el esquema de mercado a ultranza hasta ahora desarrollado no permite que se otorguen los incentivos necesarios para que estas tecnologías entren al país. Además, de contar con recursos abundantes, especialmente de sol, viento y biomasa, la Creg ha demorado años en dar señales de mercado positivas, no solo para que se realicen proyectos con energías limpias sino para que entren nuevos productores que hagan más eficiente el sistema.


En conclusión, en el sector eléctrico impera un modelo de mercado con fuerte participación privada, aunque aún quedan varias empresas públicas (entre ellas EPM). 

Publicado enColombia
Renovarán la casa del Gran Colisionador de Hadrones para mayor eficiencia

En el CERN trabajan en cables e imanes potentes para generar campos magnéticos más intensos

Ginebra

Pronto habrá excavadoras en la Organización Europea para la Investigación Nuclear (CERN). El objetivo es aumentar el rendimiento del Gran Colisionador de Hadrones (GCH), en el que los científicos hacen chocar protones a gran velocidad para descubrir secretos del universo.

Este enorme acelerador de partículas se encuentra en un túnel circular de 27 kilómetros, localizado a 100 metros bajo tierra entre Suiza y Francia, a las afueras de Ginebra.

Mañana comienza el proyecto de Alta Luminosidad del GCH, con el que se aumentará el número de colisiones de protones por segundo.

Se tendrán que hacer reformas en el túnel –entre otras cosas– con una inversión de casi mil millones de euros. Por el GCH circulan haces de protones en dos direcciones a una enorme velocidad: cada uno da unas 11 mil vueltas por segundo.

Los investigadores hacen que colisionen en unos puntos determinados, en los que hay instaladas grandes máquinas que detectan esos choques. Así simulan los primeros instantes del big bang para intentar detectar partículas elementales desconocidas que aclaren los misterios como la materia oscura.

Actualmente se producen mil millones de colisiones por segundo, pero los científicos quieren llegar a 5 mil millones. Para lograrlo, por un lado hay que hacer circular más protones. Por otro, los choques deben enfocarse en un espacio mucho menor: ocho micrómetros en lugar de los 16 actuales.

Así aumentan las posibilidades de colisión. En 2025 el acelerador tendrá imanes mucho más potentes y se pondrán a circular más partículas, pero antes hay que excavar y ampliar el túnel.

"Es como renovar una casa. Se pone una nueva calefacción, que es más eficiente, pero para calentar más se necesita más madera y mayores almacenes", explicó el vicedirector del proyecto, Oliver Brüning. Pero en el caso del CERN los retos son inmensos: los físicos tienen planes tan ambiciosos que gran parte del material que se necesita no existe todavía, hay que inventarlo. Muchos de esos trabajos preparatorios se llevan a cabo en una nave en Prévesin, en la frontera franco-suiza.

El pabellón se parece mucho a cualquier taller industrial, con bobinas de cable, tubos, cilindros metálicos, bancos de trabajo, prensas, tornillos y llaves inglesas de todos los tamaños. En las paredes cuelgan planos y los empleados taladran, miden, prueban y ajustan.

Los nuevos cables e imanes tendrán que ser más potentes que los actuales; deben generar campos magnéticos mucho más intensos, así que los ingenieros del CERN tienen que crear cables que puedan soportarlos. Para llevar la electricidad están creando unos de ellos con nuevos materiales, como boruro de magnesio, que es superconductor incluso a elevadas temperaturas.

De esa forma se puede reducir el consumo energético de los imanes, algo que "también es interesante para la industria", explicó Brüning.

Muchos descubrimientos del CERN están presentes en la vida cotidiana, como componentes de teléfonos celulares o procesos de diagnóstico médico, como la tomografía computarizada y, por supuesto, la Internet.

Los trabajos en el túnel sólo pueden hacerse mientras el GCH está parado, ya que las vibraciones de los taladros perjudicarían el trabajo de los sensibles instrumentos. Por lo que comenzarán en la superficie, ya que será desconectado en diciembre para una pausa de dos años.

En 2021 se reiniciará y en 2025 se instalarán cables, imanes e instrumentos que lo convertirán en un equipo de nueva generación.

Colombia Plural

Declaran alerta roja en Hidroituango. El 16 de mayo fueron evacuadas más de 4.500 personas de los municipios Valdivia, Cáceres, Tarazá, Nechí, Caucasia, Guaranda, entre otros. Este es el resultado de la decisión tomada por las Empresas Públicas Medellín (EPM) para salvar Hidroituango, después de que el embalse aumentara su nivel. Hay que resaltar que los responsables de la hidroeléctrica ignoraron las constantes advertencias de las comunidades campesinas que habitan el área de influencia del megaproyecto, quienes previeron lo sucedido.

 

A pesar de lo informado por las Empresas Públicas de Medellín (EPM) el pasado 10 de mayo, confirmando que la emergencia reinante en Hidroituango, causante de la inundación del corregimiento de Puerto Valdivia estaba controlada, más pudo la naturaleza que la palabrería y la desinformación que cargan los comunicados emitidos por las EPM.


Así quedó en evidencia al medio día del 16 mayo, cuando de nuevo fueron activadas las alarmas que le anunciaban a los pobladores del sector que el Río Cauca podía inundar toda su ribera y llevarse sus vidas, viviendas y enseres.


Luego de escuchar las alarmas, más de 4.800 personas salieron de sus casas con los enseres que pudieron rescatar. Los afectados habitan los municipios de Valdivia, Tarazá, Cáceres, Nechí, Caucasia, Briceño, Ituango; en Antioquia. Majagual, Guaranda en Sucre; Ayapel en Córdoba, y Achí y San Jacinto del Cauca en Bolívar. Los daños producidos por los desbordes son desmesurados y la creciente del río continúa descontrolada.

 

Mucho más que lluvia

 

El parte oficial del 10 de mayo informó que las constantes lluvias aumentaron el caudal del Cauca, explicación ingenua para lo que realmente estaba sucediendo aquel dia, cuando un movimiento de tierra (algunos ingenieros sustentan desde hace varios años que aquella área adjunta al Cauca aún está en asentamiento) propició un derrumbes que taponó el túnel de desviación del río, lo que terminó por aumentar el nivel de agua en la represa, poniendo en riesgo todo el proyecto hidroeléctrico. Buscando bajar el nivel del agua, las EPM decidieron inundar la sala de máquinas del megaproyecto y habilitar uno de los túneles de generación (taponado con concreto armado) para liberar más de 6.000 metros cúbicos de agua por segundo, incrementando el cauce del Cauca río abajo e inundando el corregimiento de Puerto Valdivia.


Aún faltaba que la crisis ganara un nuevo nivel. El 16 de mayo, pasadas las 12 del medio día, el túnel por donde podía evacuarse el agua de la sala de máquinas colapsó, y el líquido siguió su curso hacía la vía de acceso de la presa, incrementando la presión interna, amenazando con desestabilizar diversas secciones subterràneas del megaproyecto. Ante ello, los ingenieros optan por dinamitar dos tapones que sellaban sendos túneles de evacuación, por donde el río siguió su curso, hasta encontrarse, de nuevo, con su cause natural. La consecuencia inmediata y evidente de todo esto es una: la creciente del Cauca, amenazando a las comunidades que habitan la rivera del río aguas abajo del proyecto hidroeléctrico.


Lo hasta aquí realizado por ingenieros y todo tipo de funcionarios de EPM indica que su principal preocupación es salvar del desastre total al megaproyecto Hidroituango, la gente que allí habita aparece en segundo plano, lo cual queda ciertamente evidenciado cuando se observa la improvisación de albergues, las dificiles condciones en que debieron dormir, y la ausencia de explicación en cuanto a quién y cuándo cancelerá lo debido por casas destruidas, enseres perdidos, sembrados anegados, animales ahogados.


Errores de cálculo, oídos sordos ante lo exígido años atrás por la comunidad, afán de iniciar operaciones con esta hidroeléctrica para empezar a recuperar los dineros invertidos en la misma, etcétera, cualquiera sea la explicación de lo que propició este descalabro, es hora de que el país lo conozca. Y así debe ser, pues antes que los dividendos que genere cualquier empresa o proyecto, está la gente y su derecho a vida digna, así como el cuidado de la misma naturaleza, nuestra casa común.


La voz de la experiencia


Ante la confusión generada por las superficiales explicaciones dadas por las EPM, desdeabajo entrevistó a Luis Alberto Arias López, profesor de geología y geomorfología de la Facultad de Ciencias de la Universidad Nacional sede Medellín, con el fin de profundizar en las causas y responsabilidades de lo sucedido con la represa, ingeniero que en 1980 trabajó en la fase de factibilidad del proyecto Hidroituango,
Y él nos explica: “todo proyecto debe combinar varias racionalidades: económica, técnica, ambiental y social. En este proyecto, desde sus inicios, desde que está en manos de la Gobernación de Antioquia, no tiene todas esas racionalidades bien equilibradas. La racionalidad económica predomina sobre las otras”. Es por ello que para el profesor hay fallas en la ejecución técnica de las obras, que en su proceso de construcción no tuvieron en cuenta los daños ambientales y sociales.


Frente a esto, ¿quién responde por los impactos psicosociales que genera a las poblaciones vivir al lado de una represa que tiene problemas técnicos? Existe una sensación generalizada en los habitantes de que Hidroituango perdió el control del río; quienes allí habitan explican que “si no hubo muertos fue porque pudimos correr, pero las alarmas instaladas por la empresa sonaron tarde, es decir, si nos confiamos en las alarmas más de uno hubiese muerto”. Una vez más, la imposición de una forma de vida sobre otra, por priorizar los intereses económicos sobre la gente y sus conocimientos, termina generando tragedias y dolores personales y colectivos, que desangran el corazón de los territorios y sus poblaciones.


Entre tanto, entre los propietarios de la obra (EPM y Gobernación de Antioquia) y el gobierno nacional, empieza un puslo de compromisos, ayudas posibles, expiaciones de responsabilidades, todo favorecido por unos medios de comunicación oficiosos que no hacen sino reproducir los comunicados oficiales, sus explicaciones superficiales de lo sucedido, sin animar a la comunidad para que exija reparación por todo lo sufrido.


Ante los ojos de todo el país resalta, en este caso, así como con el derrumbe del puente Chirajara, que el afán oficial es el de minimizar las causas reales del desastre y sus responsables, silencio que en esta oportunidad podría traducirse –para colmo– en alza de tarifas en el servicio eléctrico. Es decir, unos destruyen la naturaleza y la misma vida de miles de personas, y otros pagaríamos por su proceder autoritario.

 

Artículos relacionados

Artículos relacionados

Hidroituango: “Si no se van, el agua los va a sacar”

Mayo 28 de 2018

No hubo tiempo de sacar nada
Mayo 18 de 2018

Hidroituango pone en alerta roja a 4 departamentos
Mayo 17 de 2018

El desa(rraigo)rrollo que deja Hidroituango

Abril 14 de 2018

Publicado enColombia
Gran victoria contra las energías sucias en Europa

El Gobierno noruego ha anunciado que no se extraerá petróleo y gas en las islas árticas de Lofoten durante los próximos cuatro años. La protección de esta área marca una victoria significativa para el movimiento de Amigos de la Tierra Europa para liberar al viejo continente de combustibles fósiles.

 

Durante más de 20 años, la industria de las energías sucias ha estado luchando por el control de esta región para extraer gas y petróleo; sin embargo la resistencia de las comunidades locales, los gobiernos municipales, los pescadores y los grupos ecologistas, entre ellos Amigos de la Tierra Noruega, ha logrado proteger el archipiélago de Lofoten.

En el acuerdo de coalición firmado entre los partidos noruegos, conservador, progresista y liberal, se anunció que no se perforará el tesoro natural del área de Lofoten. La decisión ha supuesto un gran triunfo para Amigos de la Tierra, que ha estado luchando para proteger el área a lo largo de las dos últimas décadas.
La sociedad civil noruega contra las energías sucias


Ya sabemos que Noruega es mucho más que fiordos, así pues durante años, la mayoría de la ciudadanía noruega se ha posicionado en contra de la extracción de petróleo en esta zona, mostrando su compromiso en la lucha frente al cambio climático. Una vez más el Gobierno noruego ha asumido su responsabilidad internacional de proteger y preservar este ecosistema único y frágil.


La industria del petróleo no lo ha tenido nada fácil, y se ha encontrado con una gran oposición desde el principio. Amigos de la Tierra Noruega se ha enfrentado, en seis ocasiones desde 2001, a las grandes petroleras, batallas que han ganado una y otra vez. Aún así, la industria no se ha dado por vencida y ha seguido presionando para perforar el archipiélago ártico. Tras esta victoria, los activistas creen que no verán una plataforma petrolera operando alrededor del archipiélago de Lofoten. Al menos no será así por cuatro años.


La lucha continúa en otros campos de batalla, con el fin de acabar con la extracción de combustibles fósiles a lo largo de la costa noruega. Desde los colectivos ciudadanos consideran que la conciencia pública sobre los impactos del petróleo y el gas está creciendo, por lo que es el momento de seguir haciendo frente a la industria y lograr dejar el petróleo bajo el suelo.


El archipiélago cuenta con una gran riqueza natural, desde la colonia de aves marinas más importante de la Europa continental hasta arrecifes únicos de agua fría o el caladero de bacalao más grande del mundo. Debido a su biodiversidad excepcional y la fragilidad de sus ecosistemas, la extracción de petróleo alrededor de las Islas Lofoten en Noruega podría tener un impacto devastador.


La zona ha sido objetivo de las grandes petroleras durante décadas ya que se estima que contiene alrededor de 1.300 millones de barriles de petróleo. Con su quema se emitirían más de 500 millones de toneladas de CO2, lo que multiplicaría por 10 las emisiones anuales de gases de efecto invernadero generadas por Noruega.
Un éxito de la campaña contra las energías sucias


Este logro en Lofoten es una victoria colectiva de todo el movimiento europeo Fossil Free de Amigos de la Tierra. Se trata de una muestra más de cómo está cambiando la percepción de la gente respecto a las energías sucias y la intención de evitar los impactos más graves del cambio climático, dejando todos los combustibles fósiles bajo tierra.

Sal&Roca | Amigos de la Tierra10 de Abril de 2018 (17:13 h.


Fuente e imágenes: Amigos de la Tierra

 

Publicado enInternacional
La existencia de universos paralelos, última teoría de Stephen Hawking

Infinidad de Big Bangs causaron la formación de igual número de cosmos, según el físico

El nuestro se desvanecerá en la negrura a medida que las estrellas pierdan energía, asegura

 

Una teoría final que explica cómo la humanidad podría detectar universos paralelos, y que el nuestro desaparecerá en la oscuridad, fue completada por el astrofísico británico Stephen Hawking poco antes de morir.

Mientras su familia se reunía para planear el funeral del científico, sus colegas académicos se enteraron de que había dejado un último e innovador trabajo de investigación, completado en su lecho de muerte, que describía cómo la humanidad podría detectar otros universos.

La investigación, presentada hace dos semanas, señala a las matemáticas necesarias para una sonda espacial con la finalidad de encontrar evidencia experimental de la existencia de un "multiverso". Esta es la idea de que nuestro cosmos es sólo uno de muchos universos. Si tal prueba se hubiera encontrado mientras él vivía, podría haber puesto al físico en línea para el premio Nobel que deseó durante mucho tiempo.

Hubiera podido ganar el Nobel "que deseó"

“Este fue Stephen: para ir a donde Star Trek teme pisar”, señaló a The Sunday Times Thomas Hertog, profesor de física teórica en la Universidad KU Leuven, en Bélgica, quien fue coautor del artículo. "A menudo ha sido nominado para el Nobel y debería haberlo ganado. Ahora ya no puede".

El documento de Hawking y Hertog se enfrenta a un problema que había preocupado al físico desde la teoría de "no-límites" de 1983 que ideó con James Hartle, describiendo cómo el universo explotó con el Big Bang.

Según la teoría, se expandió instantáneamente desde un punto diminuto al prototipo del universo que vemos hoy día, proceso conocido como inflación. El problema para Hawking fue que la teoría también predijo que "nuestro" Big Bang fue acompañado por un número infinito de otros, cada uno produciendo un universo separado.

Esta fue una paradoja matemática que hizo imposible probar la idea experimentalmente. "Queríamos transformar la idea de un multiverso en un marco científico comprobable", aseguró Hertog.

Tuvo una reunión con Hawking hace 15 días para obtener la aprobación final para el estudio A Smooth Exit from Eternal Inflation, que es revisado por una revista científica líder.

La última teoría de Hawking tiene una implicación trágica, además de triunfante, porque también predice que el destino final de nuestro universo es simplemente desvanecerse en la negrura a medida que todas sus estrellas se queden sin energía.

Tales ideas son controvertidas entre los cosmólogos. Neil Turok, director del Instituto Perimeter de Canadá, y amigo de Hawking, no estaba de acuerdo con sus ideas, afirmó: "Sigo desconcertado sobre por qué encontró esta interesante visión".

Otros científicos afirmaron que el trabajo de Hawking podría representar el avance que la cosmología necesita, sobre todo porque fue la primera de este tipo que se pudo probar en experimentos.

"Una consecuencia de la inflación es que debe haber una multitud de universos, pero nunca hemos sido capaces de medir esto", señaló Carlos Frenk, profesor de cosmología en la Universidad de Durham.

“La intrigante idea en el trabajo de Hawking es que (el multiverso) dejó su impronta en la radiación de fondo que impregna nuestro universo y podríamos medirlo con un detector en una nave espacial.

"Encontrar evidencia de la existencia de otros universos, cambiaría radicalmente la percepción de nuestro lugar en el cosmos", concluyó.

Explorando con Stephen Hawking los confines de la ciencia

«El espacio, la última frontera. Estos son los viajes de la nave espacial Enterprise (...) dedicada a la exploración de mundos desconocidos (...) hasta alcanzar lugares donde nadie ha podido llegar...» (De la serie de televisión Star Trek)

Se atribuye al padre de la fisiología moderna, Claude Bernard, la frase «l'art c'est moi, la science c'est nous». En ella se recoge mediante elocuente síntesis la que sería la característica definitoria de la ciencia, a saber, la investigación científica es una tarea colectiva que tiene que serlo por exigencias epistémicas, ya que la clave de su éxito reside en ese método que constituye la referencia universal a la que cualquiera con las luces intelectuales suficientes y la pericia apropiada se puede acoger para aportar conocimiento o validar el de otros. No es el caso del arte que, sobre todo desde la revolución romántica, está asociado en sus éxitos a nombres propios. Dicho de otra manera: nadie más que René Magritte podría haber creado las imágenes surrealistas que él concibió; sin embargo, las verdades científicas, que es la obra que nos legan los investigadores, tarde o temprano se acabarán descubriendo. Incluso ocurre que hay verdades que han sido establecidas casi simultáneamente por distintas personas, como es el caso de la evolución y Charles Darwin y Alfred Russell Wallace. Y tiene sentido, pues la obra de arte –en principio– es expresión de un universo personal que no tiene por qué respetar las normas establecidas y puede hasta pretender subvertir la esencia del propio arte (piénsese en Marcel Duchamp). No es el caso de la ciencia, en la que diríase que hay que seguir un protocolo, que es lo que acaba asegurando llegar a buen puerto en nuestra empresa de avance en el conocimiento. Los nombres propios poco o nada importan en esta tarea colectiva. El método importa, y sus logros.


No obstante, como en el arte es reconocido el genio de un Da Vinci o de un Picasso, en la ciencia son reconocidos como genios Isaac Newton y Albert Einstein. Lo que motiva que en este momento esté escribiendo estas líneas es precisamente la muerte de otro, Stephen Hawking, que falleció el pasado 14 de marzo. El caso es que otros científicos mueren todos los días, investigadores esforzados y disciplinados que trabajan igualmente para el progreso de la ciencia, pero cuyos trabajos no obtienen el reconocimiento de las obras de los nombres antes mencionados.


Creo que, al margen de rasgos más o menos mediáticos por resultar conmovedores para el común de la gente (el caso de Hawking) o ser poseedores de un cierto carisma (el caso de Einstein), hay un elemento que otorga a sus aportaciones un impacto de un considerable efecto para todos aquellos que tenemos una cierta querencia por el saber y, más en general, para todos los humanos en los que chisporrotea la curiosidad innata de nuestra especie. Me refiero a sus ideas.


Una idea lo puede cambiar todo. No sólo nuestra cosmovisión, sino también nuestra percepción de nosotros mismos. Hay científicos que nos regalan preciosas joyas de estas, que tienen que ver con ese fondo de cuestiones que tienen un interés más profundo para lo que Bertrand Russell llamaba «nuestra vida espiritual» en su ensayo Los problemas de la filosofía, y entre las cuales apuntaba estas pocas: «¿Tiene el Universo una unidad de plan o designio, o es una fortuita conjunción de átomos? ¿Es la conciencia una parte del Universo que da la esperanza de un crecimiento indefinido de la sabiduría, o es un accidente transitorio en un pequeño planeta en el cual la vida acabará por hacerse imposible? ¿El bien y el mal son de alguna importancia para el Universo, o solamente para el hombre?». En el mismo texto reconocía el filósofo que tales interrogantes «permanecerán insolubles para el entendimiento humano», pero continuaba: «salvo si su poder llega a ser de un orden totalmente diferente de lo que es hoy».


Seguramente aquí reside la clave a la hora de establecer hasta dónde llegan los límites del conocimiento, en el poder del entendimiento humano. Frente al estéril escepticismo radical, en el otro extremo se encuentra el más entusiasta optimismo que de manera paradigmática representa el filósofo (científico) René Descartes, absolutamente embargado en su pensamiento por el poderosísimo encanto de las matemáticas. Evoquemos sus palabras de la segunda parte del Discurso del método: «Las largas cadenas simples y fáciles, por medio de las cuales generalmente los geómetras llegan a alcanzar las demostraciones más difíciles, me habían proporcionado la ocasión de imaginar que todas las cosas que pueden ser objeto del conocimiento de los hombres se entrelazan de igual forma y que, absteniéndose de admitir como verdadera alguna que no lo sea y guardando siempre el orden necesario para deducir unas de otras, no puede haber algunas tan alejadas de nuestro conocimiento que no podamos, finalmente, conocer ni tan ocultas que no podamos llegar a descubrir». Creo que estas palabras, escritas ya hace casi cuatro siglos, siguen siendo la más rotunda declaración de un postulado que contiene un doble supuesto al que no se puede renunciar si se quiere hacer ciencia; y es que existe una realidad y se la puede conocer.


¿Podía Descartes atisbar en su época el punto que actualmente ha alcanzado nuestra ciencia? El difunto Stephen Hawking es la prueba de ese poder del entendimiento que, mediante la alquimia de sus ideas, es capaz de romper la jaula existencial del espacio y el tiempo en la que, en principio, está confinada la especie humana, pero de la que escapan aquellos que –como el físico británico– han convertido sus mentes en prodigiosas naves capaces de superar las fronteras de dimensiones ignotas. Su deducción a partir de la teoría general de la relatividad de Einstein de la existencia de agujeros negros supone todo un prodigioso viaje cósmico como a Carl Sagan le gustaba decir. En un reciente libro titulado Einstein para perplejos los físicos teóricos José Edelstein y Andrés Gomberoff subrayan ese poder del entendimiento. Reconocen que el paisaje cósmico, conforme hemos expandido sus contornos, se ha venido configurando a partir de observaciones crecientemente indirectas y con un peso significativamente mayor del pensamiento abstracto. Señalan el siglo XIX como el punto de inflexión a partir del cual se esbozan los primeros modelos en los que el entendimiento ha de aventurarse más allá de lo directamente observable, como los de la realidad atómica y la del campo electromagnético. El pasado siglo supone el ingreso de forma irreversible en la exploración de la dimensión de la naturaleza que nos devuelve al replanteamiento de cuestiones de las del repertorio clásico de la metafísica. Reproduzco las palabras de la pareja de físicos americanos: «El siglo XX trajo consigo abundantes casos de realidades cada vez más lejanas a nuestra intuición y a nuestros sentidos. Einstein mismo sumó a este imaginario, entre otras cosas, la deducción teórica de la partícula de luz, a la que luego seguirían un sinnúmero de exóticas partículas subatómicas. También surgió el relato de la cosmología, contándonos la historia de un universo que nació hace casi trece mil ochocientos millones de años. La única forma de hacernos una imagen fidedigna de aquello que ocurrió y, presumiblemente, no volverá a repetirse es a través del ejercicio riguroso de la deducción y el razonamiento». Ya hace veinte años el también difunto Jesús Mosterín hacía las veces de notario de esta evidencia en un artículo muy atinadamente titulado Física y metafísica, donde decía: «mientras los filósofos han arriado sus velas especulativas, los físicos teóricos y cosmólogos han tomado el relevo de la especulación con renovado entusiasmo y notable sofisticación matemática. La frontera entre física y metafísica ya no marca los confines de la ciencia, sino que discurre por medio del territorio científico mismo. Sólo en el mundo ficticio de la matemática pura florecen las verdades seguras y eternas. En el mundo real de la ciencia empírica, todo es inseguro, provisional y revisable. Como decía Einstein, los teoremas matemáticos sólo son seguros en la medida en que no se refieren a la realidad». Fascinante paradoja.


Qué satisfacción para el bueno de Descartes –un verdadero sabio tres en uno: matemático, físico y metafísico (o simplemente filósofo)–, que tuvo bien claro que a donde no llegaba la experiencia –siempre limitada en su capacidad de comprensión– podían llegar las ideas, las abstracciones de nuestra mente, que para ser de aplicación científica tenían que ser convenientemente matematizadas; dicho por él en la cuarta parte de su Discurso del método: «ni nuestra imaginación ni nuestros sentidos podrían asegurarnos cosa alguna si nuestro entendimiento no interviniese».


Maravilla que el universo sea inteligible para nuestra mente, algo producto de la actividad de un órgano –el encéfalo– surgido de la evolución, un proceso sometido a la ley de la selección natural carente de propósito consciente; un órgano cuya función principal es contribuir a la supervivencia del organismo del que forma parte, algo tan práctico –y hay quien diría tan prosaico– y apegado al mundo de las cosas tangibles. Este prodigio es el que el premio Nobel Eugene Paul Wigner reconocía precisamente en «la irracional efectividad de las matemáticas» cuando acontece que –como fue el caso de los trabajos de Stephen Hawking– las conclusiones a las que llegan la más geniales mentes aplicando reglas sencillas a un conjunto de abstracciones resultan ser válidas cuando se aplican a los objetos originales del mundo real. Y si –como pensaba Jesús Mosterín– cuando con nuestro cerebro pensamos en el universo éste se piensa a sí mismo, entonces qué alto nivel de autoconciencia alcanzó en la mente del genial físico británico.


Ahora bien, la cuestión es si creando teorías físicas cada vez más refinadas (más sofisticadas en términos matemáticos) no llegará un día en que tropecemos necesariamente con los límites absolutos del tipo de conocimiento que representan. Un científico como Stephen Hawking es en lo intelectual como un atleta de la talla de Usain Bolt en lo físico. Lo que representan ambas figuras comparten una raíz común en lo esencial, a saber, el ansia humana por escapar a las limitaciones del espacio y el tiempo; ya sea con el cuerpo o con la mente se trata en puridad de eso. Y por eso justamente son figuras heroicas, cada una a su manera. Ahora bien, la cuestión es si creando teorías físicas cada vez más refinadas (más sofisticadas en términos matemáticos) no llegará un día en que tropecemos necesariamente con los límites absolutos del tipo de conocimiento que representan. A fin de cuentas, es imposible correr los cien metros lisos en menos de 0 segundos. Entonces, ¿cuáles pueden ser los límites absolutos de las teorías científicas? He aquí otra de esas preguntas de las que conforman el repertorio de las cuestiones filosóficas trascendentales a las que Russell se refería en su ensayo citado. Desde luego, ninguna teoría es la realidad, al igual que la pipa que pintó Magritte no es ninguna pipa de verdad; ignorarlo es un craso error, y supondría la reducción de la ciencia a un ejercicio retórico y autocomplaciente.


Condenado irremisiblemente durante décadas a estar sujeto a una robótica silla de ruedas que lo convirtió en una suerte de cíborg nuestro insigne científico no dejó de explorar los confines del cosmos en todas las dimensiones imaginables e inimaginables (sólo matematizables) del espacio y el tiempo, enfrentándose al que quizá sea el gran desafío de la actual física, la unificación de la teoría de la relatividad general, que rige epistémicamente para el megacosmos, y la teoría cuántica, desconcertante constructo endiabladamente abstracto mediante el que se atisban las complejas entrañas de la materia. Pero al tiempo que con su pensamiento rompía con la jaula espaciotemporal de la humana existencia también exploraba los confines de su mente; igual que esos antiguos alquimistas que, entre alambiques trataban de dar con los arcanos de la naturaleza logrando también la transmutación de su propio ser. «Mi objetivo es simple –declaró en cierta ocasión–. Es un completo conocimiento del universo, por qué es como es y por qué existe». Seguramente porque no se planteó que pudiera haber límites absolutos para las teorías científicas Stephen Hawking alcanzó a vivir tantos años, a pesar de su ineluctable enfermedad y, paradójicamente, contra todo científico pronóstico.

El pulso entre Moscú y Washington se intensifica en el área de Damasco

Hace más de dos semanas que los aliados de Rusia y de Estados Unidos mantienen intensos combates en los suburbios orientales de Damasco. Lo ocurrido en las últimas jornadas sugiere que Washington vuelve a implicarse en el sur de Siria, y que Rusia quiere resolver el conflicto de la Guta antes de las presidenciales que se celebrarán este mes de marzo.


La rivalidad entre Estados Unidos y Rusia vive desde el 18 de febrero una lucha intensa en la Guta oriental, el oasis de Damasco, donde tienen lugar combates entre el ejército sirio, apoyado por el ejército ruso, y los rebeldes islamistas que se hallan en la zona y que cuentan con armas y apoyo político de Estados Unidos.
La caída este martes en Siria de un avión de transporte ruso An-26, con la muerte de sus ocupantes, es un duro revés para Vladimir Putin, quien este mes de marzo será reelegido de nuevo como presidente de Rusia, y que está jugando con cuidado sus bazas en un conflicto que la población de su país ve desde una gran distancia.
Observando con atención lo ocurrido en las últimas dos semanas, da la impresión de que Rusia está interesada en concluir cuanto antes la guerra de la Guta, antes de que los rusos acudan a las urnas, y con el menor número de bajas posible. Moscú ha hecho grandes inversiones en el conflicto y no parece dispuesta a abandonar al presidente Bashar al Asad.


Eso explica que los cazas rusos estén trabajando a fondo en los bombardeos de la Guta, donde todavía quedan unos cuantos cientos de miles de civiles, si se hace caso a los combatientes islamistas que controlan la zona, y que en pocas jornadas han perdido el control en más de un tercio del oasis oriental.


Estados Unidos, por el contrario, ha activado sus protestas tras la pérdida de territorio por parte de sus aliados. El lunes Washington acusó a Rusia de violar sistemáticamente el alto el fuego con los ataques contra los civiles que quedan en la Guta, causando más de 740 muertos desde el 18 de febrero, y de no permitir la entrada de la ayuda humanitaria.


Los rusos respondieron que quienes están violando el alto el fuego son los grupos que todavía están operando desde la Guta, especialmente Faylaq al Rahman, una organización islamista que dice no ser yihadista, que está afiliada al Ejército Sirio Libre, que estos mismos días combate a los kurdos, aliados de Estados Unidos, en la ciudad de Afrin, al norte del país, con el apoyo de los turcos.


Todo un galimatías que explica el caos que se ha establecido en Siria, y en el que Washington está jugando sus bazas en la dirección de una división del país, creando un espacio distinto en el Kurdistán sirio, que a su vez es similar a la que creó en el Kurdistán iraquí, aunque durante años los americanos dijeron que no querían la división de ese país.


El objetivo que los rusos no ocultan es obligar a los islamistas que quedan en la Guta a salir de esa zona. Moscú anunció este martes la creación de un corredor para permitir que los combatientes salgan con sus familias. Todo indica que los rusos quieren hacer lo mismo que hicieron en Alepo hace unos meses: forzar a los yihadistas a salir para trasladarlos a la provincia de Idlib.


El distrito de Idlib fronterizo con Turquía se ha convertido en un depósito de yihadistas y de todo tipo de combatientes rebeldes que abandonan las zonas que el ejército va recuperando poco a poco. No obstante, el corredor abierto por los rusos nadie lo ha utilizado por el momento, seguramente porque los rebeldes de la Guta, como los demás rebeldes que quedan en Siria, obedecen por control remoto a quienes les dan armas y dinero.


Moscú acusó el martes a Estados Unidos de permitir que esos rebeldes disparen diariamente contra las fuerzas gubernamentales y que bombardeen indiscriminadamente la ciudad de Damasco con un balance de civiles muertos, incluidos niños, según insisten una y otra vez los rusos, algo que justificaría sus intensos bombardeos en la Guta.


Los bombardeos de la Guta han causado unos 740 muertos civiles, según los datos facilitados por los mismos rebeldes. Algunos medios de comunicación cuestionan la información que se está dando sobre la Guta señalando que es extraño que dos semanas después de iniciado el conflicto, todavía no se ha visto ninguna imagen por televisión con combatientes de la zona.


Moscú también acusó a Estados Unidos de no dejar que los rebeldes permitan la salida de los civiles que todavía quedan allí y cuyo número es incierto. Se habla de cerca de 400.000, aunque se recuerda que algo parecido se dijo de Alepo el año pasado y al final resultó que, cuando evacuaron a los yihadistas, prácticamente no quedaban civiles.


A pesar de estas acusaciones, el gobierno de Damasco permitió que el lunes entraran en la Guta oriental decenas de camiones del Creciente Rojo con ayuda humanitaria, aunque Damasco limitó la entrada de suministros médicos. Faylaq al Rahman dice que el gobierno sirio y Rusia quieren desplazar a la población de la Guta a la fuerza.


La cuestión radica en saber hasta dónde está dispuesto a llegar Donald Trump en Siria. En la dirección israelí se le reprocha haberse desentendido de la región, aunque hay indicios de que los estadounidenses vuelven a ser más activos en Oriente Próximo.

Publicado enInternacional
Colisión entre Europa y EEUU por la “Cuestión de Irán”

Mientras el ministro español de exteriores Alfonso Dastis abandonaba Teherán, Emmanuel Macron se preparaba para ser el primer presidente de Francia en pisar Irán. Europa se apresura a salvar el acuerdo nuclear con Irán, la piedra angular para hacerse con “El Dorado” de Oriente, de las amenaza de Donald Trump en destruirlo. En la primera mitad de 2017, el comercio entre Irán y la Unión Europea (UE) aumentó un 94% respecto al periodo anterior. Una Luna de miel terminar en divorcio al rechazar EEUU las demandas europeas para que deje de desestabilizar Irán.

Washington planea estrangular la economía iraní. Las compañías europeas o chinas que desarrollen vínculos comerciales con este país, podrán ser multadas, como el banco francés BNP-Paribas que tuvo que abonar 6.450 millones de euros por eludir el embrago a Irán.


Trump en su visita a Arabia Saudí e Israel dijo que “todas las naciones de conciencia deben trabajar juntas para aislar a Irán”. El autor de la frase “America First” disparaba en el propio pie, dando la prioridad a los intereses de dichos países antes que a los de EEUU, en un Irán que estaba dispuesto reconciliarse con el Gran Satán: firmó un acuerdo de compra de 118 Airbus a Boeing, que ahora se ha congelado.


Trump pretende empujar a Teherán a romper el acuerdo nuclear, para endurecer las sanciones, e impedir que China, Rusia y Europa accedan a los inmensos recursos de Irán y a su gran mercado.


Tanto EEUU, como UE e Irán saben que sin el apoyo de Washington, el acuerdo nuclear dejará de existir.


La UE intenta desafiar a EEUU


La República Islámica de Irán (RI) no es un país cualquiera para los europeos:


• Es apoyado por un sector de izquierda que imagina que dicha teocracia es un retén al avance del imperialismo y de Israel, un mérito por el que este sector silencia, oculta o perdona las flagrantes infracciones de los derechos más elementales de los iraníes por la casta clerical-militar islamista.
• Es detestado por los sectores próximos a los intereses de Israel y de los saudíes.
• Y es respaldado por Bruselas, con algunas críticas. Admite que la RI pisotea los derechos humanos, tortura y ejecuta hasta a los menores de edad, pero que aislarla daría más poder a la extremaderecha militarista y acabaría con las tímidas reformas planeadas por el presidente Rohani.


La UE reza para que Trump mantenga el acuerdo y no empiece una guerra contra Irán.


Mientras, los sueños napoleónicos de Francia tienen lugar en Oriente Próximo. Para Macron no habrá un “nuevo orden” en la zona sin Irán. Además, es un mercado donde puede paliar el problema económico de Francia: ha creado una cartera de 1.500 millones de euros en contratos futuros para los exportadores franceses. Así, al excluir el dólar de las transacciones, las desvincularía del sistema financiero de EEUU.


La compañía francesa Total y la china CNPC ya han acordado con Irán desarrollar juntas el campo South Pars, uno de las fuentes de gas natural más grandes del mundo, por un contrato de 5.000 millones de dólares y 20 años de vigencia.


Y Alemania medita cómo reemplazar a China, el principal socio comercial de Irán. Siemens trabaja en este país desde hace más de 120 años. La RI ha anunciado al apertura de dos bancos privados – Iran Middle East Bank y Sina Bank-, en Alemania y la UE evalúa la creación de una entidad financiera, como el Banco Asiático de Inversión en Infraestructura de China, con este objetivo.


Así, la UE intenta:


• Preservar sus intereses estratégicos en la zona.
• Hacerse con un gran mercado, con recursos naturales y una población muy preparada.
• Evitar que Irán entre en la órbita rusa. A Moscú no le interesa el regreso de Irán a Europa, destino del 80% de los 4,4 millones de barriles que exporta al mundo. El gas iraní podría arrebatar a Rusia (aunque a medio plazo) no sólo considerables beneficios económicos, sino también su poder como potencia energética. A demás de Rusia, el oro azul persa tiene otros rivales: EEUU y Qatar que suministran gas natural licuado a Europa.
• Impedir una carrera armamentística en Medio Oriente y una proliferación nuclear.
• Neutralizar la posibilidad de una guerra entre Irán e Israel, y de un aumento drástico de los precios del petróleo como su consecuencia.


Medidas preventivas de la UE


Ahora que Irán está cumpliendo el acuerdo, habría que forzar a Trump a respetarlo. Para ello, Bruselas puede tomar las siguientes medidas:


• Coordinar sus políticas al respecto con China, Rusia, India, y Japón.


• Desvincular el acuerdo nuclear de otras cuestiones como los misiles balísticos, cuya tenencia es un derecho para una nación amenazada por los cuatro costados y rodeada por cinco potencias nucleares. Otra cosa es convencer a TODOS los países de la zona para que se integren en el Régimen de Control de Tecnología de Misiles,

• Al contar la UE con una posición ventajosa respecto al gobierno de Trump, forzar a Israel, Arabia saudí, Turquía e Irán iniciar conversaciones para resolver los problemas de la región.
• Apoyar a las facciones moderadas dentro de la RI, Israel, Turquía y Arabia Saudí.


• Aumentar el número de becas y visados para los iraníes a Europa ahora que EEUU los ha incluido en su lista de “prohibida la entrada a USA”


¿Se enfrentará la UE a los EEUU?


¡No! Europa ha sido perjudicada por las guerras de EEUU en Oriente Próximo, y aun así ha participado en ellas, y ahora apoya a Trump en sus quejas respecto a las pruebas de misiles de Irán, a sabiendas que la RI no va a renunciar a ellas. Europa, además, carece de capacidad de evitar un choque entre EEU.U e Irán, y si debe elegir entre ellos se pondrá del lado de Trump: sus exportaciones a EEUU son 44 veces mayores de la cantidad de productos que envía a Irán.


Teherán se retiraría del acuerdo nuclear si sigue sin dar frutos esperados. No comprende cómo la UE, que aun no ha invertido en Irán, le pida abandonar el programa de misiles, mientras arma a los enemigos regionales de Irán. Irán necesita unos 200 mil millones de dólares en inversiones para impulsar la economía y crear empleo, uno de las principales exigencias de las protestas sociales. Pero, en un Irán gobernado por el “bazar”, la burguesía compradora y parasitaria, enemiga de la producción industrial nacional, las empresas extranjeras no crearan empleo. Decenas de fábricas se cierran en Irán cada mes como resultado de las masivas privatizaciones de las compañías estatales iniciada en 1999, que le convirtió en un mercado libre para las compañías extranjeras, carente de interés en promover una economía sostenible y justa en el país anfitrión, todo lo contrario: desmantelarán lo que queda de la industria nacional iraní.


En la “Cuestión de Irán”, Europa está más cerca a Rusia y China que a EEUU, y aun así no estará en ningún frente contra Trump.

Publicado enInternacional