Estafa legalizada: incrementan el valor de la electricidad

El Gobierno anunció durante la última semana de octubre de 2015 un incremento de los precios de la energía eléctrica en Colombia, el que harán efectivo desde el mes de noviembre. Justifica tal incremento con la disminución de la capacidad de generación hidroeléctrica por efectos del fenómeno del Niño. El incremento de las tarifas responde, sin embargo, a una mala gestión de recursos por parte de las empresas generadoras y a la ausencia de control por parte del ente oficial. Industriales y comerciantes en particular, y las familias en general, triada que afronta los primeros efectos de una crisis económica que ya muestra todos sus signos*, ahora también tendrán que lidiar con estos incrementos.

 

El Ministro de Minas y Energía, Tomás González, informó en la última semana del mes de octubre, a través de los medios de comunicación, que el Gobierno y los usuarios tendrán que dispensar cerca de un billón de pesos para cubrir los sobrecostos en que han incurrido las plantas generadoras térmicas que alegan estar asumiendo sobrecostos en sus operaciones por el uso de combustibles líquidos para generar electricidad

La energía térmica que producen estas centrales comenzó a emplearse en el transcurso del año como alternativa a la generación hidroeléctrica, afectada por la importante disminución del caudal de las fuentes hídricas ocasionado por una prolongada sequía que se extenderá hasta marzo del 2016. El Instituto de Hidrología, Meteorología y Estudios Ambientales de Colombia
(Ideam) informó que regiones como la Andina y Caribe tendrán que enfrentar una disminución entre el 40 y el 70 por ciento de las precipitaciones de lluvias, lo que producirá una reducción del nivel de las presas, afectando, al mismo tiempo, la generación hidroeléctrica que representa entre el 60 y el 70 por ciento de la electricidad producida en el país.

El Ministro de Energía informó que el incremento en los precios de la electricidad para los usuarios será de entre seis y siete pesos por kilovatio hora, valor adicional que deberán pagar los usuarios comerciales y residenciales desde el mes de noviembre. Hay serias dudas sobre el aumento anunciado, pues al parecer no será el mismo para todos los departamentos del país. El 28 de octubre Caracol Radio sostuvo: "Cada departamento pagará un precio distinto, dependiendo de las previsiones de su electrificadora. Por ejemplo, Electricaribe tiene una exposición en bolsa del 25 por ciento, eso quiere decir que ese porcentaje de la energía que compra para distribuir la tiene que pagar a precio de escasez, que varía, mientras que el 75 por ciento por haberla comprado con antelación vale a 150 pesos kilovatio hora [...]". En publicación reciente El diario El País de Cali anunció: "La energía en Cali va a subir más de lo anunciado a comienzos de este mes. Ya no será el 3,5% para los estratos populares ni del 9% para los estratos altos. Según cálculos preliminares de Emcali, el aumento será del 7% para los estratos 1, 2 y 3 y del 20% para los estratos 4, 5 y 6".

Una situación similar comienza a vivirse en la Costa Caribe por los incrementos del servicio de energía eléctrica impuestos a los usuarios por Electricaribe, empresa que en la primera mitad de octubre informó a través de su gerente José García Sanleandro incrementos del orden del 7,53 por ciento en términos generales y de 4.83 por ciento para los estratos 1 y 2. Electricaribe ha propiciado una ola de protestas en toda la región por sus recurrentes abusos contra sus abonados –como la imposición de multas económicas injustificadas–, irregularidades en la prestación del servicio de energía eléctrica y cobros excesivos en las tarifas de la misma (Ver "Un sentimiento que une a la Costa Atlántica: el rechazo a Eléctricaribe" en http://www.desdeabajo.info/ediciones/item/26900-un-sentimiento-que-une-a-la-costa-atlantica-el-rechazo-a-electricaribe.html).

Por lo anotado puede deducirse que el Gobierno no ha dicho todas las verdades. Lo primero que debería decir es que el incremento de las tarifas de electricidad en todo el país no se debe precisamente a la disminución de la capacidad de generación de las hidroeléctricas por el fenómeno de el Niño, sino que tal incremento se encuentra relacionado, y es clara expresión, de los malos manejos administrativos de estas empresas, aunado a una ausencia de control de parte del Estado.

¿Por qué se afirma esto?

Desde diciembre del año 2006, y por un periodo indefinido, los usuarios pagan agregado a su consumo mensual el denominado "cargo por confiabilidad". De acuerdo con la Comisión de Regulación de Energía y Gas (Creg) y el Ministerio de Minas y Energía en el documento "abc Cargo por confiabilidad": "El cargo por confiabilidad se creó con el fin de migrar hacia un esquema de mercado que proporciona la señal de largo plazo requerida para promover la expansión del parque de generación energético en Colombia y que, adicionalmente permita asegurar los recursos de generación no solo estén disponibles para abastecer la demanda en situaciones de escasez, sino que este abastecimiento se efectúe a un precio eficiente".

En términos prácticos bata decir que este cargo fue creado para que las empresas pudieran asegurar, con los recursos recibidos e invertidos, la capacidad de generación de energía eléctrica a un precio razonable en épocas de crisis. Es decir, las empresas debían usar tales recursos para invertir en infraestructura que hiciera viable la generación de energía eléctrica bajo condiciones adversas, pero no lo hicieron.

Para que estas empresas pudieran ser autorizadas para cobrar el cargo por confiablidad debían recibir unas Obligaciones de Energía Firme (OEF), que eran compromisos de generación de energía bajo condiciones críticas de abastecimiento. Es decir, debían comprometerse a generar unas cantidades determinadas de energía en condiciones adversas. El mismo documento de la Creg y del Ministerio de Minas y Energía detalla: "El generador al que se le asigna una OEF recibe una remuneración conocida y estable durante un plazo determinado, y se compromete a entregar determinada cantidad de energía cuando el precio de bolsa supera el umbral previamente establecido por la Comisión de Regulación de Energía (Creg) y denominado precio de escasez". Este compromiso fue pisoteado por las generadoras.

Para el senador Iván Duque, quien el martes 28 de octubre se pronunció sobre esta temática en plenaria del senado, confirmó que desde el año 2006 (cuando fue implementado el Cargo por confiabilidad) los colombianos han pagado por este concepto alrededor de US$7.000 mil millones de dólares, 'módica' suma que equivale al 6.49 por ciento de la deuda externa del Estado colombiano y al 2.16 por ciento de su PIB.

Por su parte María Luisa Chiappe, presidenta de Asoenergía, de acuerdo a entrevista concedida a Caracol Radio: "[...] Hemos pagado por ese concepto en los últimos cinco años alrededor de US$4.800 millones de dólares. De manera que estamos en todo el derecho de reclamar que, por lo menos, deberíamos estar en la capacidad de exigir que las plantas que recibieron ese cargo por confiabilidad cumplan con su compromiso de ofrecer la energía en el momento en que se necesita, porque para eso los recibieron". Además, agregó: "Esa es la pregunta que nos hacemos nosotros, es decir, ¿qué es lo que ha sucedido para que ahora aleguen que no están en condiciones financieras para cumplir? [...] se les entregó una suma cumplidamente en la tarifa de energía que pagan las empresas, pero no solamente las empresas, los consumidores residenciales que pagan también el cargo por confiabilidad y a la hora en que tienen que responder dicen que no están en condiciones financieras para hacerlo. Eso nos parece absolutamente inaceptable".

De esta manera, aunque las empresas generadoras de electricidad recibieron semejante cantidad de dinero, por la que antes tuvieron que hacer un compromiso de suministro y de precios razonables en los periodos de crisis, hoy insisten en que sus operaciones no son rentables pues decidieron alimentar las termoeléctricas con gas y hoy, cuando la demanda no puede ser satisfecha por la baja producción del mismo, han tenido que usar combustible líquido, factor que ha incrementado de manera considerable sus costos. Una razón poco creíble cuando los OEF contemplaron esta situación.

¡Situación vergonzosa! El Gobierno nacional, además de haber errado al no ejercer control sobre las empresas generadoras, al ser incapaz de garantizar que la enorme suma de dinero entregada desde el 2006 por el conjunto social fuese correctamente usado, pretende ahora salirle al paso a la situación trasladando a esta misma sociedad los sobrecostos de la producción de energía que dicen tener las termoeléctricas,

¡Estafa!, Así se conoce legalmente lo que está ocurriendo en este particular. Y así proceden porque su función no es el servicio sino el negocio. Amparados por el Gobierno, a pesar de los sobrecostos que dicen afrontar, ni las generadoras, ni las distribuidoras, ni las comercializadoras, verán afectados sus balances financieros pues los sobrecostos los pagarán los millones de hogares colombianos, además de los comerciantes e industriales, todos los cuales verán considerablemente encarecidos sus recibos de electricidad desde noviembre del presente año.

María Luisa Chiappe, en la entrevista ya aludida dijo, además: "De verdad sería lamentable que la conclusión de todo esto fuera que los consumidores que somos los que sí hemos cumplido con el trato, los que sí hemos pagado cumplidamente, terminemos soportando un aumento en la tarifas de energía, eso sería verdaderamente lamentable [...]".
De así suceder, los interrogantes no dan espera: ¿Qué hicieron con los miles de millones de dólares que les fueron entregados para evitar la situación que hoy anuncian? ¿Por qué los entes de control permitieron que esta situación surgiera y se acumulara? ¿Por qué accede el Gobierno al aumento de las tarifas eléctricas? ¿Acaso éste actúa como cómplice de la estafa en proceso de concretarse?

Con esta situación en desarrollo, queda otra vez al desnudo la reticencia del Estado para implementar medidas de control que garanticen relaciones justas y reciprocas entre las empresas privadas que comercializan bienes y servicios y los ciudadanos del común, los mismos que no gozan de la protección del Estado a la hora de comprar un servicio o un producto, como ocurre con los pañales infantiles, o los tiquete de avión o acceder a servicios de salud prepago, por sólo relacionar unos cuantos casos de los muchos que a diario se presentan y en donde quien "paga los platos rotos" siempre es el ciudadano, el desprevenido, el que no cuenta con herramientas para hacer vales sus derechos, que como en el caso de la energía eléctrica, está usurpado pues está privatizado.

De esta manera, protegido por el Estado, el capital privado continúa acumulando enormes ganancias, mientras los usuarios continúan pisoteados en su vida cotidiana y en sus derechos básicos. Roban y a pesar de ello son protegidos y favorecidos por el Estado.

De esta manera, una vez más, como ya sucedió con la crisis bancaria y financiera, en esta ocasión el Estado colombiano, regido por las grandes fortunas del país, opta por doblegarse ante los intereses privados que lo han cooptado, operando y determinando medidas legales y administrativas que favorecen a los empresarios nacionales e internacionales.

Hay que recordar, ante semejante despropósito, que por robarse un pan encarcelan a un desesperado, pero a estos que roban millones de millones y que no cumplen con sus obligaciones, los premian con más dinero. Como dijo alguien por ahí: "Ver para creer"

 

* Colombia avanza a pasos gigantescos hacía una crisis sin precedentes gracias al colapso del sistema económico nacional. Esta crisis es más incidente de lo que he reconocido el Gobierno en los últimos meses, quien sigue insistiendo en el carácter transitorio y somero de esta contracción. Sin embargo los primeros efectos ya han empezado a manifestarse con el notorio incremento del 5.35% de la inflación entre octubre del 2014 y septiembre del 2015, un crecimiento sostenido del PIB por debajo de los esperado, el incremento del IPC en 4.76% en el mes de octubre (1.68 puntos porcentuales más alto que en octubre del año anterior), el aumento del precio de los alimentos , el crecimiento sostenido de las cargas fiscales propiciado por la reforma tributaria del 2014 y por el acumulado de las ultimas 12 reformas a la tributación en 20 años, así como el precio elevado del dólar sumado al bajo precio de los hidrocarburos , son algunos de los factores que permiten hablar de la situación usando adjetivos mucho menos positivos que el de "contracción".

Publicado enColombia
Blair, Bush y Occidente no ven a la gente en Medio Oriente

Tony Blair vuelve a las andadas. Se disculpa, pero no por la guerra, sino sólo por la inteligencia. Existen elementos de verdad –lo que eso quiera decir– en la visión de que la aventura que él y George W. Bush emprendieron en Irak en 2003 fue la causa probable del ascenso del Isis. Existen algunos, supongo, que tal vez digan también que este hombre malvado comenzó una guerra regional que ha oscurecido por completo la tragedia de los palestinos, quienes siguen soportando la más prolongada ocupación militar de la historia moderna, ocupación que Blair no hizo nada por terminar después de ser escandalosamente enviado en misión de paz a Jerusalén. Tal vez estaría de acuerdo en que existen elementos de verdad en esa insinuación, pero lo dudo.


Me ha enfurecido que Blair no tuviera el valor de asumir su responsabilidad en la catástrofe. Sin duda la sombra oscura del Informe Chilcot produjo su minúscula disculpa, aunque bien puede ser que Chilcot esconda la verdad y por tanto sólo arroje luz sobre el hombre. Lo que a mí me pareció tan indignante en su entrevista con CNN fue la presunción de que Medio Oriente es un lugar de inestabilidad inherente.


Me viene esto a la mente por un artículo del palestino Rami Khouri en el que comenta un texto de Henry Kissinger. Khouri apunta que la visión de Medio Oriente de Kissinger "parece no tener en cuenta –o sencillamente no ver– al casi medio millón de hombres y mujeres, musulmanes en su mayoría, que viven (allí) y dan forma a sus sociedades y estados... Todas esas personas buscan lo mismo que es de suponer que Kissinger busca para los estadunidenses: una sociedad estable y decente, donde los ciudadanos puedan vivir en paz".


Khouri reconoce los actores no estatales y los nacionalismos etnosectarios que han surgido. Yo lo expresaría con lenguaje más directo, pero él menciona con razón la tendencia estadunidense a ver Medio Oriente en términos de grupos religiosos o étnicos (chiítas, sunitas, maronitas) que libran guerras existenciales en una tierra de nadie urbana definida por bandas armadas.


Yo diría que así es como Blair ve a Medio Oriente. Ve territorio, pero no ve pobladores. El solo hecho de que haya podido sacar a rastras el cadáver de Saddam Hussein muestra cuál es el problema. Cierto, Saddam utilizó gas contra su propio pueblo. Pero en ese tiempo George Bush padre le brindaba asesoría militar en su guerra contra Irán. Y cuando montamos nuestra aventura en 2003, la mayoría de quienes perecieron después no eran saddamitas ni antisaddamitas, sino cientos de miles (como CNN apunta tímidamente) de civiles inocentes. Al definir a esas personas como sunitas, chiítas o maronitas, las rebajamos, las metemos a fuerza en una caja con etiquetas... y a menudo en un ataúd.


De nada sirve pasar por alto, como expresa Khouri, cómo las políticas de Estados Unidos y otras potencias extranjeras contribuyeron a los problemas que destrozaron la calma superficial que, excepto las guerras árabe-israelíes, definió a la región durante años después de la Segunda Guerra Mundial. Pero no vemos gente, vemos políticas... y por eso Blair escogió la guerra. Eso eran las guerras para Kissinger: por eso hizo la paz entre Irán e Irak hace tantos años, y sacrificó a los kurdos.
Eso es lo que los estadunidenses hicieron al bombardear Irak una y otra vez entre 1991 y 2003, mucho después de haber liberado a Kuwait de las garras de Saddam Hussein. Y eso es lo que hicimos cuando invadimos Irak en 2003. Y sigue todavía. ¿Entonces, el Isis comenzó en Irak o en Siria?


Sospecho que lo que omitimos es asumir la responsabilidad de nuestros actos. No planeamos, porque no tenemos planes a largo plazo. Churchill comenzó a planear en 1941 la ocupación británica de una Alemania conquistada, incluso antes de que los nazis invadieran la Unión Soviética. Pero cuando los primeros tanques estadunidenses cruzaron el río Tigris en 2003, ni Blair ni Bush habían pensado en lo que seguiría: estaban demasiado ocupados con informes de inteligencia que contenían elementos de verdad.


Traducción: Jorge Anaya

Publicado enInternacional
Las imposibles opciones de Obama en Medio Oriente

En los días que corren, el presidente Barack Obama está siendo criticado en todas partes por cualquier cosa que haga en Medio Oriente. Y cómo no habría de serlo, si probablemente no hay nada que pueda hacer para convertirse en el crucial y decisivo actor, que a él le gustaría ser, en la vertiginosa geopolítica de Medio Oriente. No es que todas sus decisiones sean malas.

Muchas lo son, pero hay algunas que parecen sensatas. El hecho es que virtualmente no hay Estado en la región, o que tenga intereses en ella, que realmente esté de su lado. Todos mantienen sus agravios y prioridades y están deseosos de resolverlos aún si Estados Unidos los presiona para no hacerlo.


Hay cuatro ámbitos que podrían considerarse los puntos candentes de la región, o tal vez deberíamos llamarlos los más candentes: Irán, Siria, Afganistán e Israel/Palestina. Los críticos de Obama dicen que él no tiene una política coherente en ninguna de esas regiones. Y esta crítica no deja de tener su fundamento.


Su política más clara, relativamente, es la relacionada con Irán. Estados Unidos ha hecho un esfuerzo importante para obtener un acuerdo con Irán que en esencia ofrezca un arreglo: que no haya armamento nuclear en Irán a cambio de levantar las sanciones económicas. De hecho, tal acuerdo ya se firmó. Y las legislaturas de ambos países han tomado el primer paso hacia su ratificación. Los historiadores futuros enlistarán éste como uno de los más grandes logros de Obama en lo relacionado con política exterior (junto con la reanudación de las relaciones diplomáticas con Cuba). Este es Obama el pacificador.


Sin embargo, el acuerdo debe ser ratificado más allá, de varios modos, por ambas partes. Aunque esto parece probable, con toda seguridad no es inevitable. Los detalles son complicados y están abiertos a diferentes interpretaciones por ambas partes. Y diferentes interpretaciones conducen a la continuación de las tensiones. Cuarenta años después de que se firmara un acuerdo semejante en Irlanda del Norte, seguimos teniendo discusiones sobre la interpretación del acuerdo, y en este momento enfrentamos la amenaza de que se rompa.


La situación en Afganistán es menos clara. Los talibanes parecen estar juntando fuerza constante y están controlando más y más regiones, por lo menos en la noche. Estados Unidos envió tropas a Afganistán a sacar a los talibanes y mantenerlos fuera. Supuestamente el gobierno afgano quiere derrotar también a los talibanes.


Lo más importante es que también Irán quiere derrotar a los talibanes. Pero Estados Unidos e Irán no quieren cooperar abiertamente en este objetivo. Y el gobierno afgano se desgarra entre la reivindicación de su independencia respecto de Estados Unidos y su necesidad de contar con su continuada (de hecho creciente) asistencia militar. El gobierno paquistaní parece estar apoyando a los talibanes. Y el gobierno de India parece querer apoyar al gobierno afgano de un modo más directo de lo que desearía el gobierno estadunidense.


La política estadunidense no es coherente, porque intenta alcanzar una serie de objetivos que interfieren uno con otro. Estados Unidos desea reforzar un gobierno estable y, por tanto, está comprometido a respaldar al actual gobierno afgano. Para hacerlo, los militares estadunidenses insisten en que se necesitan más tropas. Pero Obama prometió reducir las fuerzas estadunidenses a un grupo de entrenadores no combatientes para cuando termine su presidencia. No es posible hacer esto y al mismo tiempo garantizar la supervivencia del llamado gobierno afgano estable, en especial cuando la estabilidad de ese gobierno está ligada a una enconada lucha sin resolver con sus oponentes no talibanes.


Si volteamos a Siria, coherente es el último adjetivo que uno aplicaría a la política estadunidense. Por una parte, ha intentado formar una coalición internacional de países comprometidos con la derrota del aún expansivo Estado Islámico (EI, Daesh o ISIL). En teoría, Estados Unidos también está comprometido con la destitución de Bashar al Assad. Lo que Estados Unidos no quiere hacer es comprometer tropas en otra zona de guerra civil en Medio Oriente. A cambio, Estados Unidos ofrece combatir el EI con drones que bombardearán sus unidades, sin siquiera tener tropas en el terreno que guíen los drones. La consecuencia, que es inevitable, es el daño colateral que intensifica los sentimientos antiestadunidenses en Siria.


En tanto, Rusia ya dejó claro que está comprometida a mantener a Assad en el poder, al menos hasta que exista una resolución política de Assad con la llamada oposición moderada. La oposición en sí misma es un grupo complicado. Estados Unidos ha derramado mucho dinero y energía en entrenar a un selecto grupo de oposición. El ejército estadunidense justo acaba de admitir que este esfuerzo fue un fracaso total. Los grupos a los que les había brindado apoyo fueron desintegrados en gran medida. No sólo huyeron de los campos de batalla, sino que de hecho le entregaron material a Al Nusra, grupo afiliado con Al Qaeda y supuestamente uno que Estados Unidos no quiere respaldar.


Nadie realmente está siguiendo ninguna de las directrices de Estados Unidos. Con mucha renuencia Turquía accedió a los sobrevuelos de aviones y drones estadunidenses, pero se negó a alentar el respaldo hacia las tropas kurdas que son las que realmente combaten al EI. Arabia Saudita tampoco tiene una política coherente. Están en desacuerdo con las fuerzas de Al Qaeda, pero también les brindan algo de respaldo financiero y diplomático como parte de su intento por contrarrestar la influencia iraní por todo Medio Oriente. Gran Bretaña y Francia dicen respaldar a Estados Unidos, pero Gran Bretaña enviará solamente drones y Francia critica a Estados Unidos por no ser más duro contra Assad. Israel no parece tener ninguna claridad de lo que va a hacer. Israel alega que el mayor enemigo es Irán, pero de hecho se concentra en mantener a raya a los palestinos, lo cual significa constituir una política en la franja de Gaza y otra en Siria y Líbano.


Y en cuanto a Israel-Palestina, la violencia y la retórica van in crescendo en ambas partes. Muchos comentaristas dicen que ésta es la tercera Intifada, y algunos aseguran que comenzó hace un año. Sea cual fuere la etiqueta, es obvio que lenta, pero seguramente Israel está perdiendo la batalla diplomática en Europa occidental y aún en Estados Unidos. Mientras Netanyahu, quien quisiera reparar las raspadas relaciones con Obama, tiene que ser precavido de no ser rebasado por su derecha. Hay poco que él vaya a hacer para cambiar la política israelí. Y hay poco que Obama pueda hacer que él emprenda. No obstante, el conflicto entre Israel y Palestina continúa siendo el potencial disparador de una explosión por todo Medio Oriente, una tan severa que afectaría las operaciones de toda la economía-mundo, algo que ya está en una condición muy frágil.


Si alguien puede ver en este popurrí de evidencias que Estados Unidos sigue siendo capaz de controlar la situación y dictarle términos a alguna de las partes, está viendo cosas que yo no puedo ver. No sólo Estados Unidos no es ya una potencia hegemónica, sino que ya no es siquiera el actor más poderoso de esta fragmentada región. Su renuencia a admitir esta realidad para sí es un peligro para el mundo entero.


Traducción: Ramón Vera Herrera

Publicado enInternacional
Con mapa de 30 millones de galaxias buscan entender la energía oscura

Durante milenios el ser humano se ha empeñado en comprender los eventos que se expresan fuera del planeta. Sin embargo, hasta ahora se puede explicar sólo una pequeña parte del universo (que tiene alrededor de 13 mil 700 millones de años), ya que los científicos no han indagado sobre las propiedades de la energía y la materia oscuras, que constituyen 96 por ciento del cosmos.

Por ello, investigadores de varios países, entre ellos México, participan en el proyecto Dark Energy Spectroscopic Instrument (DESI), con el cual se pretende mapear 30 millones de galaxias con cinco mil fibras ópticas y con ello acercarse al entendimiento de la materia y la energía oscuras.


En conferencia de prensa, realizada en el Instituto de Física (IF) de la Universidad Nacional Autónoma de México (UNAM), se informó que las observaciones comenzarán en 2019 y se efectuarán con el telescopio Mayall del Observatorio Nacional de Kitt Peak en Arizona, que tiene cuatro metros de diámetro y está equipado con espectrógrafos que ayudarán a detectar la dinámica de la energía oscura mediante el cálculo de la distancia y ubicación de las galaxias, explicó Axel de la Macorra, investigador del IF y líder del grupo mexicano.


En el proyecto participan 150 científicos de Estados Unidos, Inglaterra, Francia, España y México (con ocho investigadores) y pretende determinar dónde y cómo se empezaron a formar estructuras, cuásares y galaxias, así como crear un mapa tridimensional del universo.


El equipo mexicano está integrado por De la Macorra y Mariana Vargas, del IF; Miguel Alcubierre y Octavio Valenzuela, de los institutos de Ciencias Nucleares y de Astronomía de la UNAM, respectivamente; Jorge Cervantes, del Instituto Nacional de Investigaciones Nucleares; Tonatiuh Matos, del Centro de Investigación y de Estudios Avanzados, y por Gustavo Niz y Luis Ureña, de la Universidad de Guanajuato campus León.


De la Macorra explicó que las observaciones tendrán sus primeros resultados 10 años después de iniciadas y gracias a la tecnología del telescopio, que en cada una de sus cinco mil fibras ópticas tiene una cámara para fotografiar cinco mil objetos cósmicos, segundo a segundo, gracias a lo cual se podrá obtener una descripción de la distribución y los movimientos de las galaxias y comprobar las propiedades de la materia y energía oscuras, no detectables a simple vista, pero percibidas por sus efectos gravitacionales.


Hoy tenemos un mapa inexacto del universo, similar al de la Tierra en el siglo XVI, por lo que queremos generar uno de alta calidad, tanto en la posición como en la velocidad de millones de galaxias. Con el DESI crearemos uno tridimensional más grande, a distancias y tiempos lejanos nunca medidos, con enorme precisión.


Por su parte, Jorge Cervantes explicó que el estudio intentará comprobar la validez de la relatividad general planteada por el reconocido físico Albert Einstein a escala astronómica, algo nunca hecho a esa magnitud.


En 1998, los científicos determinaron que el universo se expande cada vez más rápido, es decir, presenta una aceleración no explicable a partir del comportamiento de protones, neutrones, electrones y fotones. Al respecto, han surgido teorías que postulan la existencia de energía oscura, 68 por ciento, que explicarían la aceleración referida, y de materia oscura, que representa 28; el porcentaje restante corresponde a los protones, neutrones y electrones de las partículas de las que estamos hechos.


Con esta investigación se pretende determinar la dinámica del cosmos a través de las galaxias, del mismo modo en que, por ejemplo, es posible determinar la velocidad del viento en el cielo (que a diferentes alturas puede ser distinta) por medio del movimiento de las nubes.


Para De la Macorra hay dos vertientes sobre las hipótesis de esta investigación. La primera asevera que la oscura es una energía con presión negativa, que bien podría ser una constante cosmológica, pero aún hay que explicar su origen y por qué domina al universo justo ahora. La segunda afirma que la teoría de la relatividad podría tener modificaciones.


En el proyecto DESI podremos determinar si hay desviaciones de la propuesta de Einstein a escalas nunca medidas, remarcó.


Independientemente de qué teoría prevalezca, obtendremos información como nunca. Además, al observar y crear un mapa tridimensional de las galaxias podremos conocer la distribución de la materia oscura y, por tanto, lograremos ver las entrañas del universo.

Miércoles, 07 Octubre 2015 06:18

Esas partículas que llueven del Cosmos

Esas partículas que llueven del Cosmos

Un científico japonés y otro canadiense recibieron el galardón por descubrir que los neutrinos tienen masa y, con ello, revolucionan la física de las partículas subatómicas. Su hallazgo cambió lo que se sabía del comportamiento más íntimo de la materia.

 

¿Puede algo atravesar el cuerpo humano sin que la persona se dé cuenta? ¿Puede incluso ser atravesado billones y billones de veces, a toda hora y en todo momento? La respuesta la tiene la física y es sí: los neutrinos, esas partículas más pequeñas que el átomo, que de manera permanente llueven sobre la Tierra y traspasan todo lo que se les cruza. No sólo a las personas, sino también todo lo que los rodea, hasta el planeta mismo. Son las partículas más misteriosas del Universo, porque después de atravesarlo todo no dejan rastros. Y son tan livianas y veloces que siempre se creyó que no tenían masa. Error. Dos científicos demostraron que sí la tienen y eso cambió el modo de entender y explicar el mundo subatómico. Esos dos investigadores, uno japonés y el otro canadiense, ganaron ayer el Premio Nobel de Física.


Takaaki Kajita, el japonés, y Arthur B. McDonald, el canadiense, descubrieron en realidad que los neutrinos tienen oscilaciones, lo que demuestra que estas partículas elementales de la materia tienen masa, contra lo que se supuso durante décadas.


La Real Academia de las Ciencias Sueca dijo al presentar su fallo que esos estudios "cambiaron nuestro conocimiento del comportamiento más íntimo de la materia y pueden ser cruciales para entender el Universo". El Nobel distinguió a ambos por sus "contribuciones clave a los experimentos que demostraron que los neutrinos cambian su identidad", lo que exige que estas partículas tengan masa.


Primero lo primero. ¿De dónde salen los neutrinos? Una parte de ellos se forma en la atmósfera terrestre por la radiación cósmica. Otra se produce en las reacciones nucleares dentro del Sol. Justamente, el equipo japonés se dedicó a capturar neutrinos creados en las reacciones entre rayos cósmicos y la atmósfera de la Tierra; el otro, atrapando los procedentes del Sol.


La existencia de los neutrinos, las partículas más numerosas en el Universo, fue sugerida por el austriaco Wolfgang Pauli en 1930, aunque fue el italiano Enrico Fermi quien ocho años después elaboró una teoría y bautizó el nuevo término. Pero no fueron descubiertos hasta un cuarto de siglo después por dos físicos estadounidenses, Frederick Reines y Clyde Cowan. Desde la década de 1960 la ciencia había calculado de forma teórica el número de neutrinos, pero al realizar mediciones en la Tierra descubrieron que dos tercios habían desaparecido.


A la Tierra llegan unos 60.000 millones de neutrinos por centímetro cuadrado cada segundo. Durante décadas, el "modelo estándar" de la física de las partículas entendía que al llegar a la Tierra los neutrinos desaparecían sin explicación posible. Eso porque no se los podía detectar.


Lo que Kajita y McDonald descubrieron es que no desaparecen, sino que cambian, sufren una metamorfosis. Y el hecho de que sufran esa mutación implica que tengan masa.


Kajita descubrió que los neutrinos de la atmósfera pasaban de una identidad a otra en su camino hacia el detector Super-Kamiokande, un impresionante observatorio de neutrinos japonés. Al mismo tiempo, un grupo de investigadores canadienses liderado por McDonald demostraba que los neutrinos del Sol no desaparecían en su camino hacia la Tierra y que podían ser captados con una identidad diferente al llegar al Observatorio de Neutrinos de Sudbury, localizado en Ontario.


Situado en una mina de zinc a 250 kilómetros de Tokio, el gigantesco detector Super-Kamiokande comenzó a operar en 1996, y tres años más tarde lo hizo el Sudbury Neutrino Observatory (SNO) de Ontario (Canadá) en el interior de un yacimiento de níquel.


En el Super-Kamiokande, construido a mil metros de profundidad y que consiste en un tanque con 50.000 toneladas de agua, el equipo de Kajita observó que aunque la mayoría de los neutrinos atravesaba el tanque, algunos chocaban con un núcleo atómico o un electrón. En esas colisiones se creaban partículas con carga y, alrededor de ellas, se generaban destellos débiles de luz azul, la denominada radiación de Cherenkov, que se produce cuando una partícula viaja más rápido que la velocidad de la luz y cuya forma e intensidad revela la procedencia y el tipo de neutrino que la causa.


El detector japonés atrapaba neutrinos muónicos de la atmósfera y los que lo golpeaban por debajo tras atravesar el globo terráqueo, y dado que la Tierra no supone un obstáculo considerable para ellos, debería haber igual número de neutrinos en ambas direcciones.


Las observaciones revelaron, sin embargo, que los primeros eran más numerosos, lo que apuntaba a que los otros deberían sufrir un cambio de identidad para convertirse en neutrinos tauónicos, aunque su paso no podía ser registrado por el detector.


La pieza decisiva del enigma llegó del SNO, que en un tanque con mil toneladas de agua pesada realizaba mediciones de neutrinos procedentes del Sol, donde los procesos nucleares sólo dan lugar al tercer tipo de estas partículas, los neutrinos electrónicos.


De esos 60.000 millones de neutrinos por centímetro cuadrado que cada segundo bombardean la Tierra, el SNO capturó tres millones por día en sus dos primeros años operativo, un tercio del número esperado: los otros dos habían debido cambiar de identidad en el camino. Esas oscilaciones son las que prueban que los neutrinos tienen masa, aunque no se sabe cuál es.


¿Y qué cambia que los neutrinos tengan masa? Probablemente para el lector, nada. Para los científicos dedicados al tema, todo. El modelo estándar que hasta ese momento describía a la perfeccción el mundo subatómico de la física de las partículas dejó de explicarlo todo.


Pero antes de poder desarrollar por completo teorías que superen ese modelo hará falta averiguar más detalles sobre la naturaleza de los neutrinos, como cuál es su masa o por qué son tan diferentes de otras partículas elementales.


Lo único seguro por ahora son los indicios de que hay una nueva física para el Universo que aún debe descubrirse. He ahí lo fascinante para los investigadores. Tan fascinante que mereció el Premio Nobel.


Neutrinos, los camaleones del universo


Por Ignacio Mártil

Catedrático de Electrónica. Universidad Complutense de Madrid, miembro de econoNuestra


El Premio Nobel de Física de este año ha sido concedido al científico japonés Takaaki Kajita y al canadiense Arthur McDonald por sus estudios fundamentales sobre las propiedades de los neutrinos. A continuación describiré muy resumidamente las razones por las que la Real Academia de Ciencias de Suecia se lo ha concedido a ambos. El lector interesado en conocer con más detalle los argumentos, lo puede consultar en este enlace, donde encontrará -en inglés- un artículo publicado por la Academia sueca en el que se hace una descripción más detallada del trabajo realizado por ambos científicos.


1. ¿Qué son los neutrinos y cuáles son sus propiedades?

Los neutrinos son unas partículas elementales cuyas propiedades los hacen realmente singulares. Nuestro mundo está literalmente repleto de neutrinos. Miles de millones de neutrinos atraviesan nuestros cuerpos cada instante, aunque no podemos verlos ni sentirlos dado que tienen una masa extraordinariamente pequeña y no tienen carga eléctrica, por lo que apenas interaccionan con la materia ordinaria de la que estamos hechos los seres vivos. Algunos fueron creados en el comienzo del universo, en el Big Bang, otros se crean continuamente en diversos procesos que tienen lugar en el interior de la Tierra, en la explosión de supernovas, en la muerte de estrellas supermasivas, etc. La mayoría de los que llegan a la Tierra se originan en las reacciones nucleares que ocurren en el interior del Sol.


El neutrino es la segunda partícula más abundante en el Universo, sólo superado por el fotón, la partícula responsable de la luz. Sin embargo, durante mucho tiempo no se supo de su existencia. Fue predicha teóricamente en 1930 por Wolfang Pauli, pero llegó incluso a dudar de su existencia; se dice que a propósito de su teoría llegó a comentar: "he hecho una cosa terrible, he postulado la existencia de una partícula que no puede ser detectada". Poco tiempo después, el físico italiano Enrico Fermi desarrolló una teoría que contemplaba la existencia de esa partícula, a la que se denominó desde entonces neutrino.


Hizo falta un cuarto de siglo para que el neutrino fuera descubierto experimentalmente. Esto sucedió en la década de los años 50 del siglo pasado, cuando los neutrinos empezaron a producirse en grandes cantidades en los reactores nucleares que habían comenzado a funcionar en aquellos tiempos. En junio de 1956, dos físicos estadounidenses, Frederick Reines y Clyde Cowan enviaron un telegrama a Wolfgang Pauli indicándole que los neutrinos habían dejado huellas en sus detectores. Este hallazgo mostró que el fantasmal neutrino (se le llegó a conocer como la partícula Poltergeist) era una partícula real.


2. ¿Cuáles son las razones para la concesión del Premio Nobel?


El premio Nobel reconoce un descubrimiento que resuelve un rompecabezas originado por los neutrinos que ha tenido desconcertada a la comunidad científica durante mucho tiempo. En efecto, desde la década de 1960, los científicos habían calculado teóricamente el número de neutrinos que se crean en las reacciones nucleares que ocurren en el interior del Sol, pero al realizar mediciones en la Tierra, cerca del 60% de la cantidad calculada no aparecía en los detectores. Tras innumerables suposiciones, se llegó a postular que los neutrinos cambian de identidad durante su movimiento (en la terminología científica, sufren una oscilación). Queda fuera del alcance de este artículo detallar las razones de esta mutación, que sólo puede explicarse acudiendo a conceptos fundamentales de la Mecánica Cuántica.


Una explicación muy simplificada del fenómeno es la siguiente: de acuerdo con el Modelo Estándar de física de partículas, hay tres tipos de neutrinos: el neutrino electrónico, el neutrino muónico y el neutrino tauónico. En el Sol únicamente se producen neutrinos electrónicos; estos, en su viaje a la Tierra, sufren la mutación a neutrinos muónicos y tauónicos, de manera que en los detectores instalados en la Tierra sólo se detecta un tercio de los neutrinos electrónicos "fabricados" por el Sol, correspondiendo el resto a los neutrinos de los otros dos tipos. Análogamente sucede con los neutrinos producidos por otras fuentes, como las reacciones que ocurren por la interacción de la radiación cósmica con la atmósfera, en las que se crean neutrinos que también experimentan ese cambio.


Las especulaciones sobre el cambio de identidad de los neutrinos trajeron de cabeza a la comunidad científica hasta que se pudieron construir grandes detectores donde poder realizar medidas muy precisas de las propiedades de estas partículas. En efecto, dos grandes instalaciones científicas han perseguido a los neutrinos durante años. Por una parte, el detector "Super-Kamiokande", instalado en el interior de en una mina subterránea de zinc a 250 kilómetros al noroeste de Tokio, detector que comenzó a funcionar en 1996. Un par de años después, en 1998, Takaaki Kajita presentó un descubrimiento mediante el que demostraba que los neutrinos provenientes de la radiación cósmica parecen someterse al cambio indicado.

Por otra parte y de manera totalmente independiente, el detector "Sudbury Neutrino Observatory" fue construido en el interior de una mina de níquel en Ontario, comenzando sus observaciones en 1999. En 2001, el grupo de investigación dirigido por Arthur B. McDonald demostró a su vez que los neutrinos provenientes del Sol también cambian de identidad.


De este modo y por separado, ambos equipos científicos pudieron esclarecer la naturaleza camaleónica del neutrino, el descubrimiento que ha merecido ahora el Premio Nobel de Física de este año. Una conclusión trascendental de ambos experimentos es que para que los neutrinos puedan realizar esa transmutación de un tipo en alguno de los otros dos, deben tener masa, al contrario de lo que se creyó durante muchos años. Tal y como dice la Academia sueca en la justificación de la concesión del premio, este hallazgo "Es de importancia revolucionaria para la física de partículas y para nuestra comprensión del universo"


Ambos detectores son instalaciones científicas enormes, cuyo funcionamiento sólo es posible gracias a la colaboración de multitud de científicos, ingenieros, informáticos, técnicos de diversas profesiones, etc. Como con muchos otros descubrimientos que afectan a la comprensión de las propiedades esenciales de la materia, de que esta hecho el universo y de que estamos hechos nosotros, la utilidad de este descubrimiento no es directa, evidente ni inmediata. Pero no cabe la menor duda de que encontrará infinidad de campos de utilidad. No hay más que recordar que la WWW nació en otro detector de partículas, el "Large Hadron Collider", acerca de lo que escribí recientemente en este mismo blog.

"Cuanto más tiempo nos aferremos a este sistema, peor y menores serán nuestras opciones"

Richard Heinberg (1950) es un ecólogo estadounidense especializado en las implicaciones socio-ambientales de los usos de distintos tipos de energía y referente internacional en el estudio de las implicaciones del agotamiento del petróleo barato. Impulsor del Post Carbon Institute, desde donde realiza gran parte de su labor, Heinberg ha escrito una docena de obras de divulgación, entre las que destacan The Party's Over: Oil, War, and the Fate of Industrial Societies (2003); Powerdown: Options and Actions for a Post-Carbon World (2004); Peak Everything: Waking Up to the Century of Declines (2007); The End of Growth: Adapting to Our New Economic Reality (2011); Snake Oil: How Fracking's False Promise of Plenty Imperils Our Future (2013); y Afterburn: Society Beyond Fossil Fuels (de próxima aparición). En esta entrevista aborda diversos aspectos de la crisis energética, con especial atención a los hidrocarburos no convencionales.


El petróleo y el gas de rocas poco porosas, como los esquistos, extraídos mediante fractura hidráulica, son parte de los denominados "hidrocarburos no convencionales". ¿A qué se refiere este término? ¿Qué otros hidrocarburos no convencionales existen?


Las definiciones de los hidrocarburos no convencionales difieren en cierta manera. Por ejemplo, algunos autores incluyen la extracción de petróleo en aguas ultraprofundas en la categoría de "recursos no convencionales", mientras que otros no. Sin embargo, casi todos incluyen el crudo extrapesado, las arenas bituminosas y el kerógeno en la categoría de petróleo no convencional. El metano en lecho de carbón, el gas de lutitas (shale gas) y los hidratos de metano conforman la categoría de "gas no convencional". Y la energía del carbón generada por gasificación subterránea in situ se consideraría el carbón no convencional.


¿A qué responde la fiebre de los hidrocarburos no convencionales en la política de la energía global?


El aumento del interés en hidrocarburos no convencionales responde en gran parte al agotamiento de los hidrocarburos convencionales, que resultan más baratos, limpios y fáciles de obtener en prácticamente todos los casos. Las industrias extractivas lógicamente han extraído primero los mejores recursos, y a medida que estos escasean se hace necesario buscar recursos de menor calidad.


Como apuntas, actualmente, hemos dejado atrás el cenit del petróleo convencional −el momento de máxima extracción a partir del cual la capacidad de obtener ese recurso es inevitablemente descendente por razones geológicas− y en breve vendrá el del gas. ¿Alrededor de cuándo podría producirse ese "pico" para el gas y el petróleo no convencionales? ¿Qué otros elementos, además de los geológicos, influirán en ese cenit?


Es difícil responder porque en estas cuestiones intervienen muchas variables y los datos no están claros. Quizá los recursos no convencionales más fáciles de predecir en EEUU son el gas y el petróleo de formaciones compactas. Ambos han llegado a ser muy importantes en los mercados globales, ampliando la demanda y reduciendo los precios. Sin embargo, cada pozo se agota rápidamente, lo que exige una tasa muy alta de perforaciones. Mientras que las áreas geográficas donde estos recursos están presentes son bastante amplias, la calidad de los recursos dentro de estas zonas varía notablemente; solo unas pocas regiones ofrecen perspectivas de rentabilidad. El número de zonas de perforación en estos espacios regionales es limitado y, de acuerdo a la investigación realizada en el Post Carbon Institute, esto significa que la producción iniciará su declive antes de que acabe la presente década. Sin embargo, el ambiente económico también influye en las tasas de extracción. Las compañías tienen que prometer beneficios a fin de poder continuar las perforaciones, pero con los bajos precios actuales del petróleo y del gas estadounidense, los beneficios se desvanecen. Así, los bajos precios pueden desembocar en una reducción de la extracción antes de que la geología actúe en ese sentido. De hecho, hay quien dice que el petróleo de formaciones compactas en EEUU ya ha alcanzado su pico de extracción.


Los datos de la disponibilidad de hidrocarburos se aportan en términos volumétricos, de forma que todos los líquidos o gases combustibles parecen iguales, independientemente de su origen. ¿Qué ocurriría si se diesen estos datos en términos de la energía neta que aportan a la sociedad?


Desde luego, esto daría lugar a un escenario muy diferente. Desafortunadamente, el análisis de la energía neta está plagado de inconsistencias: distintos investigadores utilizan diferentes límites, resultando en diferentes datos de retornos de energía en relación a la energía invertida (EROEI, por sus siglas en inglés) para la misma fuente energética. Es difícil precisar las cifras exactas. Sin embargo, está claro que la extracción de hidrocarburos no convencionales requiere más unidades de energía por unidad de energía generada que en el caso de los recursos convencionales. De este modo, es totalmente posible en términos de energía neta que todo o la mayor parte del aumento de la extracción mundial de petróleo de los últimos años se traducujera en cantidades estables o en declive de energía utilizable realmente ofrecida a la sociedad.


Últimamente, desde distintos organismos, como la Agencia Internacional de la Energía, se está hablando de profundos cambios en la geoestrategia del petróleo en los cuales EEUU estaría siendo un ganador neto. Detrás de estos cambios estarían los hidrocarburos no convencionales y, más en concreto, los extraídos de rocas poco porosas a través de la fractura hidráulica. ¿Qué opinas de estas afirmaciones?


Sí, se han hecho algunas afirmaciones bastante sorprendentes, incluyendo la sugerencia de que el gas y petróleo estadounidenses podrían cubrir las necesidades energéticas de Europa, que reduciría así la dependencia que tiene de los recursos energéticos rusos. Por supuesto, eso es un disparate: EEUU sigue siendo un importador neto de petróleo y gas, y los hidrocarburos no convencionales que se extraen mediante fracking solo proporcionan un respiro caro y de corto alcance a la demanda interna de EEUU.


Con mucha diferencia, EEUU es el país donde más se está recurriendo a la fractura hidráulica para obtener hidrocarburos. La industria tuvo un desarrollo explosivo, pero ahora está atravesando graves problemas. ¿Qué explica tanto la subida como la bajada?


Como indiqué antes, en parte el contexto tiene que ver con el agotamiento del petróleo y gas convencionales, pero también contribuye al boom un elemento financiero. Cuando los precios del petróleo y el gas eran elevados hace una década aproximadamente tenía sentido para empresas pequeñas participar en iniciativas marginales que requerían intervenciones caras como el fracking y la perforación horizontal, lo que causó un derrumbe en el precio del petróleo con la llegada de la crisis financiera de 2008. Esto provocó un freno temporal a lo que entonces eran solo movimientos preliminares para la explotación de esos recursos. En respuesta a la crisis financiera, la Reserva Federal de EEUU redujo las tasas de interés prácticamente a cero, y con una baja tasa de ganancia sobre el ahorro, un amplio volumen de capital inversor en EEUU estaba buscando oportunidades para especular. Puede decirse que esto era una burbuja esperando la ocasión. Las empresas de fracking estaban ahí con hábiles presentaciones a los inversores, prometiendo ganancias irreales pero atractivas, y así enormes cantidades de capital inundaron esas compañías, lo que les ha permitido perforar enormes extensiones de territorio desde entonces. En muchos casos o en la mayoría la extracción, de hecho, no era rentable −debido a los altos costes que implicaba−, pero los inversores lo asumieron porque no disponían de mejores oportunidades y creían de verdad en las exageradas promesas que se habían hecho. Actualmente, con los precios por los suelos, las empresas de gas y petróleo que operan los pozos de fracking están perdiendo dinero a un ritmo mucho más rápido y es más difícil persuadir a los inversores de que continúen con los proyectos.


¿Consideras que se producirá un fenómeno similar al que se ha dado en EEUU en otros lugares del mundo?


No. Dudo que la fiebre del fracking despegue en otros países de la forma en que lo ha hecho en EEUU. Sin duda, países como el Reino Unido y China tratarán de extraer una parte de sus recursos no convencionales a través de la fractura hidráulica, pero necesitan precios más elevados para hacerlo con beneficios. Los altos precios de la energía tienden a socavar toda la actividad económica, de modo que los boom del fracking están destinados a ser auto-limitantes, de una u otra forma.


¿Qué impactos genera la extracción de hidrocarburos mediante fractura hidráulica? ¿Y, en general, los hidrocarburos no convencionales?


En general, se han desarrollado dos tipos de estudios en torno a los impactos del fracking: medioambientales y sobre la salud. Entre los primeros, la contaminación se mide a partir de un pozo perforado y sellado con los estándares industriales más altos. Este tipo de estudios muestran bajos impactos, si es que alguno. Los segundos examinan un amplio abanico de pozos, incluyendo aquellos en los que el revestimiento no funcionó y los operadores no cumplieron los estándares. Estas investigaciones tienden a mostrar impactos sustanciales en la calidad del aire y el agua, en la salud pública y en la salud del ganado y de la vida salvaje. Las emisiones de carbono para la extracción de petróleo de las arenas bituminosas son mucho más altas que del petróleo convencional. En general, todos los problemas medioambientales y de salud asociados a la extracción de hidrocarburos son peores en los no convencionales.


¿Nos puedes nombrar tres ejemplos representativos de resistencias sociales a la extracción de estos hidrocarburos extremos? ¿Está planteando la lucha anti-fracking algún elemento original frente a otras movilización contra el extractivismo?


Un ejemplo sería la movilización de la gente en las ciudades estadounidenses cercanas a instalaciones de fractura hidráulica para que se aprueben ordenanzas anti-fracking. Se han aprobado normas de este tipo en Colorado, California y Texas. La industria ha respondido persuadiendo a las asambleas legislativas de los estados (en Colorado y Texas) para impedir que las ciudades puedan aprobar tales ordenanzas. Otro ejemplo pueden ser las manifestaciones contra el fracking en Rumanía, donde decenas de personas han resultado heridas en las masivas y repetidas protestas. Un tercer ejemplo pueden ser los esfuerzos anti-fracking que se están realizando en el Reino Unido, aunque las grandes manifestaciones no han logrado impedir las perforaciones. El activismo anti-fracking guarda muchas similitudes con el activismo anterior que busca prohibir o limitar las perforaciones o la minería convencionales. Con frecuencia, personas sin un historial de activismo ecologista se involucran en estas luchas porque ven que su propia salud está amenazada o su propiedad dañada por actividades extractivas.


Ante el "pico de todo" sobre el que has trabajado (no solo de combustibles fósiles, sino también de muchos elementos básicos), ¿qué estrategias deberíamos poner en marcha para realizar una transición lo más ordenada posible en un mundo que está cambiando radicalmente?


Quizá lo más importante que los decisores políticos pueden hacer es darse cuenta de que el crecimiento económico mundial no es sostenible y está llegando a su fin. Deben idear un plan para permitir un adelgazamiento de la economía mientras que minimizan la lucha y la presión sobre la gente. Tendremos menos energía disponible en el futuro y eso significa que se reducirá nuestra movilidad y nuestro consumo. En el escenario ideal, la calidad de vida aumentará a medida que el consumo descienda, pero esto solo será posible si planificamos la contracción. Ello requerirá repensar el dinero, el interés, la inversión y cómo se enseña y se practica la economía. El actual sistema económico funciona con muchas inercias y, por tanto, los líderes tenderán de forma natural a preservarlo el máximo tiempo posible. Sin embargo, este sistema económico no puede sostenerse y cuanto más tiempo nos aferremos a él, peor, y menores serán nuestras opciones para afrontar el fracaso. Debemos encontrar alternativas, y pronto.


Texto publicado originariamente en FUHEM.

Publicado enMedio Ambiente
El CERN presenta la imagen más nítida del bosón de Higgs

Según la institución, las mediciones combinadas de los equipos de los detectores ATLAS y CMS del Gran Colisionador de Hadrones (LHC) han permitido desvelar nuevos detalles sobre cómo se produce y se desintegra el bosón, además de determinar cómo interactúa con otras partículas.


El CERN ha anunciado en la Conferencia LHCP 2015, que se celebra estos días en San Petersburgo (Rusia), los resultados de las mediciones combinadas de los detectores ATLAS y CMS del Gran Colisionador de Hadrones (LHC). El organismo de investigación ha indicado en un comunicado que los datos recogidos durante 2011 y 2012 por los equipos de los detectores ATLAS y CMS del LHC han dibujado la imagen más nítida de la partícula descubierta hace tres años.

En concreto, los nuevos resultados "ofrecen una mayor precisión sobre la producción y desintegración del bosón. También arrojan luz sobre la forma en la que interactúa con otras partículas", indica la institución.


"Todas las propiedades medidas concuerdan con las predicciones del modelo estándar y se convertirán en la referencia para nuevos análisis en los próximos meses, lo que permitirá la investigación de nuevos fenómenos de la física", añade el CERN.

Los nuevos hallazgos suponen un nuevo avance tras las mejores medidas del bosón, publicadas el pasado mes de mayo, fruto también de la colaboración entre ATLAS y CMS.


El modelo estándar, a prueba


"El bosón de Higgs es una herramienta fantástica para poner a prueba el modelo estándar de la física de partículas y estudiar el mecanismo Brout-Englert-Higgs que da masa a las partículas", ha señalado el director general del CERN, Rolf Heuer.

De acuerdo con el modelo estándar, en el momento en que se produce el bosón, en un 58% de los casos debe desintegrarse de forma inmediata en un quark b y su antipartícula. Los experimentos ATLAS y CMS han podido determinar con una precisión inédita las frecuencias de las desintegraciones más comunes.

El CERN añade que las medidas de precisión de las tasas de desintegración son de vital importancia, ya que están directamente vinculadas a la fuerza de la interacción del bosón de Higgs con otras partículas elementales, así como con sus masas.

"El estudio de su desintegración es esencial para determinar la naturaleza del bosón. Cualquier desviación en las velocidades medidas en comparación con las predichas por el modelo estándar podría poner en tela de juicio el mecanismo Brout-Englert-Higgs y, posiblemente, abrir la puerta a una nueva física más allá del modelo estándar", destaca el CERN.

Riesgoso, abrir el petróleo en tiempos de crisis: Venezuela

Lo que revela el desplome del precio del petróleo en el mercado es la antigua pugna internacional sobre el control y la explotación de los hidrocarburos a nivel mundial, y ante ello es imperativo mantener las estrategias de países como Venezuela para recuperar el control de los precios por los productores de los recursos naturales y defenderse ante intentos de las empresas trasnacionales que promueven la apertura de este sector, afirma Rafael Ramírez, representante permanente de Venezuela ante la Organización de Naciones Unidas y anteriormente canciller, ministro de Energía durante 12 años y presidente de Petróleos de Venezuela (PDVSA) durante más de una década.


Ramírez, en entrevista con La Jornada en la sede de la misión de Venezuela ante la ONU, abordó el tema de los hidrocarburos dada su extensa experiencia al frente del desarrollo e implementación de la estrategia petrolera del presidente Hugo Chávez.


La situación actual del desplome de precios en el mercado internacional reafirma lo justo de nuestra política petrolera, basada en la defensa de precios y el control de volúmenes, afirmó. La caída estrepitosa desde más de 100 dólares por barril a un promedio por debajo de los 50 tiene mucho que ver con una falta de acuerdo entre los países productores de petróleo sobre la necesidad de defender el precio.


Indicó: estamos en un escenario de guerra de precios y algunos países de mucha influencia y mucha capacidad de producción han entrado en la idea de que el mercado es el que va a regular los precios. Esa es una idea nefasta, porque no estamos hablando de una mercancía, sino de un recurso natural que se agota. Y esa concepción de que el mercado regule el precio niega la misma existencia de la OPEP, que es una organización que defiende los intereses de los países productores, en el sentido de regular y administrar la tasa de producción del petróleo para fijar el precio.


La situación ahora también tiene que ver con razones geopolíticas, vinculadas a los conflictos en Medio Oriente, las sanciones contra Irán y contra Rusia, y con que algunos países de la OPEP han colocado volúmenes extraordinarios en el mercado, y eso, sumado a la producción de cerca de 3 millones de barriles al día de petróleo de esquisto, ha llevado a que el mercado esté saturado de volúmenes de petróleo. Nosotros vemos esto como un muy grave prejuicio a todos los países productores, sobre todo porque nosotros en la OPEP siempre hemos tratado de tener un precio predecible.


A la vez, hay mucha confusión: países que promueven una apertura en el sector petrolero ante esta situación de sobreproducción colocan aún más en el mercado en un tipo de sálvense quien pueda, lo cual es una falta de visión a largo plazo en la medida de que cada país intente inundar al mercado con toda su producción, y el resultado es que el precio se va a mantener abajo.


No es la primera vez que se enfrenta algo así, y recuerda que en una iniciativa impulsada por Chávez en los 90 se logró recuperar el precio con una respuesta coordinada entre productores, limitando los volúmenes de petróleo en el mercado. Señaló: "nosotros creemos que el precio justo para el petróleo es de 100 el barril.


Nuestra estrategia como país fundador de la OPEP es buscar una coordinación entre los países productores para poder hacer un sacrificio compartido entre todos, regular nuestra producción y recuperar los precios, agregó.


Indicó que los hidrocarburos siguen siendo la fuente primaria y fundamental de la economía mundial, es la más accesible y la más barata. Argumentó que las energías alternativas nunca llegarán a ser alternativas, sino más bien complementarias al petróleo. Pronostica que el petróleo de esquisto llegará a tener un pico, pero por sus mismas características las lleva al agotamiento eventual. Al mismo tiempo, 70 por ciento de las reservas mundiales están en los países de la OPEP, con Venezuela como el país con más reservas del mundo, y que el petróleo, por muchos años más, seguirá siendo la fuente primaria de energía.


"Las empresas trasnacionales, como tienen una visión a largo plazo, cuando hay problemas con los precios tratan de exigir facilidades fiscales a los países dueños de los yacimientos –con el argumento de que es una situación económica complicada–, que les den ventajas para posicionarse con las reservas. Es lo que se llama los procesos de apertura", responde Ramírez sobre el papel de las compañías petroleras trasnacionales en este tipo de coyuntura.


Subrayó que no se involucra "en las decisiones de otros países hermanos, como es el caso de México, pero sí puedo hablar de nuestra propia experiencia: en los años 90, antes de la llegada del comandante Chávez, nuestro país, con los mismos argumentos de que hacía falta el capital privado extranjero, que las trasnacionales van a invertir, que así se aumentará la producción y se hará frente a la caída de los precios... se inició un proceso de apertura. Ese proceso fue nefasto porque se tradujo en una entrega de nuestros recursos naturales a las trasnacionales, al punto que los grandes yacimientos del petróleo de Venezuela... se entregaron a las principales trasnacionales estadunidenses.


Las trasnacionales, cuando hay una situación coyuntural de precios bajos, pescan en río revuelto y juegan a que los países cedan en el manejo soberano de los recursos naturales y se posicionan sobre las reservas. Independientemente de qué hacen con ellas, a las trasnacionales lo que les interesa es tener reservas controladas con una visión de largo plazo en el negocio petrolero.


Por eso nosotros siempre somos muy cautelosos de que en estas situaciones de precios bajos no se recurra a la apertura petrolera, que termina por socavar el control de los estados sobre sus principales recursos naturales. Indica que en países como Venezuela, México, Ecuador y Argelia, los recursos naturales, en este caso el petróleo, son factor fundamental para captar una renta para el desarrollo. "Hay que estar siempre alerta cuando hay precios bajos, ya que las trasnacionales intentan avanzar para escamotear el control de nuestros países sobre los recursos naturales..."


Sobre la posición de Venezuela como país petrolero ante el tema de mayor prioridad en el debate en la ONU este año, del cambio climático, Ramírez afirmó que es la que estableció el presidente Chávez cuando declaró: no hay que cambiar el clima, hay que cambiar el sistema. Elaboró que el centro del problema es el "esquema de consumo preponderante en el mundo actualmente... hemos argumentado que el sistema capitalista es insostenible porque requiere de todos los recursos naturales... es un sistema muy depredador".


Es notable, agregó, que casi todos los países integrantes de la OPEP, incluido el suyo, han suscrito el Protocolo de Kyoto (que establece un marco para frenar el cambio climático), pero muchos de los grandes consumidores, sobre todo Estados Unidos, no lo han hecho. Tampoco desean hacer un compromiso para regular su consumo. Resumió: el problema no está en los hidrocarburos ni en la producción del petróleo; el problema está en el consumo desproporcionado que se hace del petróleo en los esquemas industriales sin gran regulación, señaló, Estados Unidos consume 25 por ciento de la energía del planeta, y a pesar de los anuncios recientes del presidente Barack Obama, el patrón de consumo estadunidense sigue siendo muy dilapidador de energía.


Afirmó que el debate sobre el cambio climático se ha querido aprovechar para controlar la producción de petróleo, es decir, para violentar la soberanía de los países sobre su producción petrolera, y se desea imponer una especie de impuestos sobre la producción. Nosotros decimos que el impuesto debe imponerse al consumo del petróleo y a las emisiones que genera cada país.

Publicado enEconomía
La recuperación económica de Estados Unidos, bajo sospecha

En Mishawaka, una ciudad de Indiana de menos de 50.000 habitantes, se encuentra una muestra piloto de lo que sería la recuperación económica más deseada para Estados Unidos. La fábrica de AM General, que cayó en desgracia en 2009 con el cese de la marca Hummer, aquellos medio coches medio tanques de lujo símbolo de la América próspera, ha vuelto a la vida con un contrato para producir automóviles Mercedes-Benz para el mercado chino.


"Esta es la primera vez que un fabricante de lujo extranjero utiliza una planta de propiedad estadounidense para construir sus vehículos, pero lo que es emocionante de veras es que AM General va a producir en Indiana coches de lujo alemanes que se van a vender exclusivamente en China", explica Howard Glaser, presidente de AM General Comercial, apenas dos semanas después de sacar el primer modelo.


Empuje a la industria en suelo estadounidense con un producto de alto valor encargado por un país europeo y para nada más ni menos que el gran mercado asiático. Si esta fuera la norma, a la presidenta de la Reserva Federal, Janet Yellen, no le temblaría el pulso a la hora de aprobar la primera subida de tipos de interés en 10 años, una medida sobre la que ha advertido hasta la saciedad y que, aun así, hoy sigue despertando inquietud en todo el globo.


Porque ese ejemplo de Indiana reúne también el rosario de peligros que acechan la reactivación americana. Si el cliente chino de pronto deja de comprar los flamantes Mercedes, si el fabricante alemán reduce los pedidos y si esa factoría de automóviles de lujo deja de ser competitiva porque el dólar empieza a resultar demasiado caro para el euro, la resurrección industrial de Mishawaka puede darse al traste. Hablando en términos macroeconómicos, la ralentización económica de China, las pocas alegrías en el resto de países emergentes y la revalorización de la divisa pueden tentar a la Fed para aplazar de nuevo la decisión de subir el precio del dinero pese a que el paro está en el 5,3% y la economía crece de forma sostenida.


PERSPECTIVA GLOBAL


"Lo que está bajo amenaza son las perspectivas globales, no tanto la de Estados Unidos. En tanto que la actividad continúe en la tendencia actual, la Fed continuará inclinada a subir los tipos", apunta Roberto Perli, jefe del área de política monetaria de la firma de análisis independiente Cornerstone Macro. Aunque añade que la fortaleza del dólar, los débiles precios del petróleo y el frenazo de China suponen riesgos para la primera potencia mundial.


Todos los ojos están puestos en la próxima reunión de la Fed, el 17 de septiembre. El relato interno avala la subida de tipos, pero lo que ocurre fuera no, y, aunque la Reserva Federal debe atender a los indicadores estadounidenses, y sobre todo el empleo, está muy claro que no los puede obviar.


Algo chirría además en los números internos: genera inquietud un producto interior bruto (PIB) que tiembla con una fuerte nevada o con una huelga de estibadores en California. Con crecimientos del entorno del 2%, esta recuperación está siendo la más lenta y mediocre de EE UU desde la Gran Depresión. Y ha aumentado la precariedad del empleo, lo que está impidiendo una recuperación plena del consumo. "Es una recuperación más frágil que las anteriores, y es cierto que no hay una inflación fuerte que obligue a frenar [el dinero gratis], pero si miras todos los elementos en conjunto, la Fed tiene los argumentos para subir los tipos. Nosotros creemos que lo hará en septiembre, es una manera también de enviar una señal", explica Chris Christopher, de IHS Global Insight.


Se han cernido tantas nubes en las últimas semanas en los mercados que renunciar de nuevo la subida de tipos podría tener incluso el efecto adverso de legitimar los miedos de los más pesimistas. El Fondo Monetario Internacional (FMI) ha reclamado que se postergue la medida hasta 2016. Las actas de la última reunión de la Fed, que se conocieron esta semana, no aclaran nada.


Pero, en realidad, no es en sí crucial que este movimiento se produzca el mes que viene o en la reunión de octubre o diciembre, sino más bien el mensaje que lo acompañe. Una opción que barajan algunos analistas es que Yellen opte por subir ya los tipos y transmitir al mismo tiempo —en el gaseoso lenguaje de los banqueros centrales— que habrá que esperar para ver otra subida.


SIN MUNICIÓN


Y, aun así, el precio del dinero seguirá en un mínimo irrisorio, porque la tan traída y llevada subida de tipos de interés en EE UU no se espera que suba del cuarto de punto; es decir, en pasar la barrera del cero, donde llevan ni más ni menos que desde 2008, al 0,25%. Ha sido tan inédito el arsenal monetario lanzado para reactivar la economía después del pánico financiero y la recesión que se han agotado las balas, así que muchos analistas, como Juan Ignacio Crespo, ven que la Reserva Federal se inclina por subir los tipos para, entre otras cosas, tener margen para bajarlos si hay una recaída.
"Yo creo que hay otras cosas que pueden hacer en caso de que las cosas vayan mal, por ejemplo, los tipos negativos, pero probablemente unos tipos por encima de cero ayudan a afrontar un futuro declive, cuando se produzca", apunta por su parte Roberto Perli.


Hay además problemas estructurales en la primera economía del mundo. Estados Unidos ha perdido crecimiento potencial, que es lo que puede llegar a crecer una economía si pone todos sus recursos en marcha y, por tanto, es una estimación. La gran economía tira con menos brío que antes de la crisis, los beneficios de las empresas se ven lastrados por la fuerza del dólar y la productividad va a la baja: en los últimos 10 años subió un 1,4%, la mitad que en la década anterior.


CRISIS ESTRUCTURAL


Roberto Perli señala que los problemas estructurales de EEUU "fueron infravalorados al principio de la recuperación y por eso tanto las previsiones de la Fed como las de muchos analistas fueron demasiado optimistas. Ahora los tienen en cuenta y los pronósticos son más plausibles".


Y si algo escuece especialmente en el país emprendedor por excelencia, ese que reduce las vacaciones a la mínima expresión, es haber estado perdiendo lo que se conoce como tasa de participación. El concepto es muy parecido a la tasa de actividad española porque recoge a todos aquellos mayores de 16 años que o trabajan o buscan trabajo. Este grupo está menguando: antes de la Gran Recesión era del 66% y ahora está en el 62%. Hace más de 30 años que no había una tasa tan baja.


El jefe de estudios de la Cámara de Comercio de EE UU, Marty Regalia, es muy crítico con la Administración Obama y no le valen los argumentos del envejecimiento de la población y el hecho de que la dureza del invierno alargase algunos periodos escolares y frenase algunas incorporaciones al mercado de trabajo. "No hay ninguna explicación para la cantidad de gente que está dejando el mercado de trabajo", critica, y lo achaca a la falta de expectativas de hallar un empleo.


El pasado 11 de agosto salió el primer Mercedes indiano para el mercado chino y muchos de los trabajadores que perdieron su trabajo en lo peor de la crisis han vuelto a su antiguo empleo. Ese mismo día, el Banco Central de China, a donde va dirigido el producto, devaluó el yuan. La Fed se la juega entre ambas realidades. El director de AM General es optimista: "Este proyecto habla de la habilidad no solo de esta compañía, sino de la capacidad de la industria americana para adaptarse a los cambios globales del mercado".

Publicado enEconomía
Jueves, 13 Agosto 2015 11:12

Isagen, ¿para el capital privado?

Isagen, ¿para el capital privado?

Isagen se convirtió en el objeto de una encarnizada disputa jurídica y política. El gobierno de Juan Manual Santos, una vez más, la tercera, como Judas, intenta privatizarla. Y una vez más, el debate va en ascenso, enfrentando a representantes oficiales con políticos, sindicalistas y periodistas opositores quienes han alzado la voz e interpuesto acciones jurídicas encaminadas a impedir la venta de este estratégico bien público. Demandas y acciones cautelares han impedido desde el 2013 que la venta se concrete, pero una decisión que está por tomar el Consejo de Estado podría dar luz verde a su enajenación.

 

¿Quién es y por qué es importante Isagen?

 

Isagen es una empresa mixta estructurada como sociedad anónima encargada de producir y comercializar energía eléctrica. Hasta el momento, en cabeza del Ministerio de Hacienda y Crédito Público, su mayor accionista es la Nación, con una participación equivalente al 57.61%; las acciones restantes se distribuyen entre las Empresas Públicas de Medellín (13.14%) y el excedente pertenece a fondos de pensiones e inversionistas privados.

En su ramo, Isagen es la segunda empresa generadora de energía del país. Sucapacidad instalada alcanza a los 3.032 megavatios (MW), generados a partir del funcionamiento conjunto de siete centrales eléctricas (seis hidroeléctricas y una termoeléctrica) ubicadas en los departamentos de Antioquia, Tolima, Santander y Caldas. La empresa estima que su producción de energía eléctrica durante el 2014 abasteció el 16.69% de la demanda en Colombia. Además de ello, la empresa es el enlace para la conexión eléctrica con Venezuela a través del circuito Cuestecitas-Cuatricentenario que otorga a la compañía una capacidad adicional de 150 megavatios.

 

¿Es rentable la empresa?

 

De acuerdo a la Asociación de empleados y pensionados de Isagen, Feisa, en su informe "Isagen, un importante patrimonio del pueblo colombiano" : "Para el año 2014 (los ingresos de Isagen) fueron de $2,3 billones (con) una utilidad neta de $436.583 millones. En el 2015 le entregará a la Nación dividendos por valor de $277.000 millones y tiene proyectado pagarle, entre 2016 y 2019, una cifra de aproximadamente $1,5 billones". El Informe de Gestión Financiera de Isagen durante el 2014 muestra una rentabilidad de patrimonio del 12.6 puntos, una utilidad operacional de 624.229 millones (+7.44% respecto al 2013), un Ebitda en millones de 742.822 (+7.24%) y una capacidad de generación total equivalente a 10.609 GW.

En una publicación reciente, El Colombiano ( http://www.elcolombiano.com/utilidad-de-isagen-crecio-41-en-segundo-trimestre-de-2015-1-FF2474601) destaca que las utilidades de Isagen crecieron un 41% en el segundo trimestre del 2015: la utilidad neta cerró en 115.175 millones, es decir 33.398 millones más que en el segundo trimestre del 2014. Durante este periodo, como resultado directo de la apertura de Hidro Sogamoso , la producción de energía aumentó un 47% lo que se reflejó en un aumento del 7% de los ingresos que llegaron hasta 656.325 millones de pesos, mientras rebajó un 26% sus costos operativos gracias a que tuvo que comprar menos energía en la bolsa para cumplir con la demanda. En la actualidad la empresa vende electricidad a comercializadores (distribuidoras de electricidad locales y regionales) que atienden el mercado regulado y al mercado no regulado (los usuarios finales del mercado no regulado son fábricas, industrias y empresas de suministro de gas).

Muy lejos de la baja rentabilidad, la empresa exhibe un potencial de crecimiento que envidiaría cualquier otra empresa en Colombia, de la mano de una reducción de sus costos operativos y de una arquitectura de gestión empresarial impecable que la llevó a alcanzar la máxima calificación en el índice Dow Jones de Sostenibilidad para Mercados Emergentes desde el año 2013. Son estos algunos de los factores capaces de despertar el interés de GDF SUEZ (Francia), Colbún (Chile) y Brookfield (Canadá), inversores que aguardan en ascuas mientras el Consejo de Estado autoriza o desaprueba la venta que el Gobierno tanto insiste en redondear.

 

¿Cómo justifica el Gobierno la venta de Isagen?

 

El ministerio de Hacienda y Crédito Público ha justificado su venta a través del documento titulado "Respuestas Ministerio de Hacienda y Crédito Público Proposición No 31 'Venta de ISAGEN'". Las siguientes son algunos de sus motivos fundamentales:

• El buen precio que se pagará por Isagen permitirá invertir los recursos en activos que brindan mayor retorno económico y social como lo es la infraestructura.
• Serias deficiencias en la infraestructura nacional y en el presupuesto disponible para su financiación. La posibilidad de vender la empresa y usar los recursos sin recurrir al endeudamiento.
• Gran interés por inversionistas locales y extranjeros para ingresar al mercado energético colombiano, lo que permite negociar un precio bastante conveniente.
• La experiencia que se exige a los inversionistas puede permitir el mejoramiento de los niveles de eficiencia y rentabilidad, facilitando la expansión de Isagen.
• El ingreso de un nuevo accionista con experiencia estimula la competencia con las otras empresas del sector lo que redunda en un mejor servicio para los usuarios.

En relación a las eventuales desventajas de la venta, el documento expone. "Con relación a la pregunta sobre posibles desventajas, en el criterio de la Nación-Ministerio de Hacienda y Crédito Público, se considera que no existen desventajas en la enajenación, y por el contrario, con base en lo expuesto, es un momento muy oportuno para la venta y la optimización de precio a recibir y direccionarlo eficientemente a otros sectores de la economía, en los términos expuestos".

 

¿Cómo ha avanzado el proceso de venta de la empresa?

 

El Gobierno comenzó a mover sus fichas para vender Isagen a mediados del 2013. En Julio del mismo año el Ejecutivo dispuso la venta de la participación de la Nación en la empresa (Decreto 1609), fijando para ello un precio por acción equivalente a 2.850 pesos, precio que modificó a 3.178 pesos en Consejo de Ministros desarrollado el 30 de noviembre del mismo año. El Estado esperaba vender su participación total en un monto aproximado a los 4.5 billones de pesos.

Mientras el Gobierno alistaba los últimos preparativos para entregar la empresa al capital extranjero, y planeaba el desarrollo de obras de infraesructura con los billones que generaría su venta, avanzaba una acción popular instaurada por el abogado Guillermo Rodríguez, representante legal del expresidente Ubie Vélez, quien en desarrollo de su estrategia electoral con miras a las elecciones que se celebrarían el siguiente año decidió interponer en agosto del 2013, en abierta contradicción a su talante neoliberal, una acción popular en el Tribunal Administrativo de Cundinamarca para solicitar la expedición de medidas cautelares que frenaran la venta de la empresa. En su fallo el alto Tribunal decidió suspender la venta hasta que fuera resuelta la acción interpuesta por el expresidente. El 18 de diciembre, mediante auto, el Tribunal negó las medidas cautelares y luego, el 7 de marzo del 2014, negó el recurso de reposición presentado en enero de 2014 por el "ejemplar" ciudadano.

Esta decisión del Tribunal daba indirectamente un espaldarazo a Santos Calderón para seguir impulsando la venta de la compañía. El Gobierno se preparaba nuevamente para reanudar la operación cuando el 28 de marzo del 2014 una demanda interpuesta por la Red de Justicia Tributaria fue aceptada por la sección primera del Consejo de Estado quien tuvo en cuenta para su dictado que fueron "Particularmente ilustrativos, al efecto, los resultados sobre las utilidades en el año 2013 y sobre el cumplimiento del Plan de Expansión para el año 2014". Uno de los alegatos más fuertes de los demandantes evidencia que el Gobierno estaba improvisando la venta, pues los planes para privatizar la compañía violan las disposiciones establecidas por la Ley 1473 de 2011, o Ley de Sostenibilidad Fiscal, y con este el Marco Fiscal de Mediano Plazo. En estas circunstancias el Gobierno aplazó la venta hasta el 2015, con lo que el proceso jurídico fue suspendido: adujo que los inversionistas habían solicitado explicaciones sobre la eventual entrada en funcionamiento de Hidro Sogamoso.

Finalmente, el 3 de mayo del presente año, el Gobierno retomó el proceso de venta de Isagen publicando un nuevo aviso para que los inversionistas interesados se presentaran al proceso de pre calificación a través del cual serían recibidas sus propuestas hasta el día 15 de abril. El argumento: la necesidad de inyectar recursos a la Financiera de Desarrollo Nacional (FDN) encargada de financiar los proyectos de obras 4G. Pero una nueva piedra en el camino vendría a interponerse en los planes del Gobierno por cuenta de las demandas de los ciudadanos Hélber Adolfo Castaño, Enrique Alfredo Daza Gamba y Rodrigo Toro Escobar, quienes demandaron nuevamente la venta ante el Consejo de Estado, instancia que decidió el 15 de mayo suspender la subasta de la empresa que estaba programada para el 19 del mismo mes. Esta vez fue el magistrado Hugo Bastidas quien dictó la medida cautelar y dio un plazo de 10 días, a partir del 4 de agosto, para que las partes presentaran sus alegatos por escrito. Veinte días hábiles luego de esto un fallo a fondo deberá conocerse.

En este punto se encuentra actualmente el proceso.

 

¿Es realmente conveniente vender la empresa?

 

En columnas para El Espectador, los día 23 de mayo y 4 de abril del 2014 tituladas respectivamente "La rentabilidad de Isagen" (http://www.elespectador.com/opinion/rentabilidad-de-isagen) y "El costo de la privatización" (http://www.elespectador.com/opinion/el-costo-de-privatizacion-de-isagen) el columnistas Eduardo Sarmiento señala que los cálculos más recientes del Gobierno indican que su participación en Isagen está avaluada en 5.2 billones de pesos, y que las ganancias obtenidas en las últimas décadas equivalen apenas al 3.5% de dicho monto, lo que les lleva a deducir la baja rentabilidad de la inversión en Isagen respecto al mercado financiero y a la construcción de carreteras. Señala Sarmiento: "La verdad es que la relación calculada con las utilidades del pasado en el numerador y el valor de la empresa en el denominador es un adefesio que deforma la realidad de la empresa y la presenta como un elefante blanco que renta menos que un CDT [...] La rentabilidad financiera de la inversión solo tiene sentido en términos de las utilidades futuras [...] Así las cosas, la rentabilidad de la inversión se estima en el orden de 15%, cifra muy superior a los rendimientos del sector financiero y al promedio de la economía, que se estima en 8%. Esta es la realización de una empresa que durante una década creció a un ritmo de 10% y en los últimos seis años elevó su capacidad instalada en 40%".

Sarmiento critica la posición del Gobierno al asegurar la mayor rentabilidad de la inversión en vías 4G pues "Las obras viales se caracterizan por altas relaciones capital-producto, bajos costos variables y elevados costos con relación al ingreso per cápita del país. Su viabilidad está condicionada a subsidios, sobrecostos y garantías de tráfico que revelan una rentabilidad muy inferior al promedio de la economía". Lo que realmente pretende hacerse con la venta de Isagen, deduce, es transferir un activo de alta rentabilidad a concesionarios viales a los que se les entregarán subsidios y se convertirán en acreedores del Estado. El Gobierno parece olvidar, opina Sarmiento, que "[...] los beneficios de la actividad recuperables por los agentes privados, e incluso por el Gobierno, son inferiores a los costos. Ahora se pretende hacer lo mismo con la privatización de Isagén. Así, los recursos de la venta ingresan al Fonade y a otras dependencias oficiales, y, a renglón seguido, se destinan a financiar créditos con plazos muertos, cubrir sobrecostos y pagar seguros de tráfico a los concesionarios." ¡Gran negocio!

Además de lo anterior, también es necesario tener en cuenta el flujo de utilidades que enviarán hacia sus casas matrices las empresas que adquieran a Isagen, además de la realidad de la tasa de cambio hoy vigente peso-dólar, con la cual, de venderse hoy la empresa, la Nación recibirá mucho menos dinero.

El Gobierno ha argumentado en reiteradas ocasiones que el mercado se encuentra maduro y que es conveniente que entre un nuevo actor para que prolifere la competencia y con ello se eleve la calidad del servicio. Algunas de las críticas realizadas a este argumento cuestionan el hecho de que las tres primeras empresas generadoras de energía en el país (Empresas Públicas de Medellín, Emgesa S.A. e Isagen) controlan alrededor del 60% del mercado nacional. Un proceso de privatización exitosa entregaría a Emgesa y a la nueva (privatizada) Isagen una porción del mercado del 40%, lo que otorgaría a los particulares (sin contar su participación en el restante 60%) el control de la oferta y los precios de la electricidad de Colombia, sin que el Estado tenga mayor control a través de organismos de regulación como la Creg.

Es necesario recordar, además, que Isagen preserva en la actualidad alrededor de 23.000 hectáreas de bosques y espejos de agua, y con ellos la fauna y flora de estos ecosistemas, un aporte invaluable para el ecosistema nacional.

Desde el punto de vista de los usuarios, la principal preocupación generada ante el afán oficial por enajenar este bien público estratégico, tiene que ver con la posibilidad de incrementos no regulados a las tarifas de electricidad.

Todas estas, variables económicas, territoriales, políticas, sociales y ambientales, pesan sobre la decisión final del Gobierno central, la que depende de un concepto de la Justicia. Pero, más allá de lo que ésta decida, la sociedad colombiana en su conjunto debería levantarse como un solo cuerpo para proteger uno de sus principales bienes estratégicos, impidiendo que lo hagan dinero para financiar la campaña presidencial de Germán Vargas Lleras, actual vicepresidende, quien con la 4G cumple con los compromisos contraídos por el Estado colombiano con la estrategia de integración regioinal conocida como Iiirsa, pero también aceita toda la maquinaria que lo deberá llevar a ocupar la Casa de Narió en el periodo 2018-2022.

 

Artículos relacionados:

El Consejo de Estado dicta medida cautelar en contra del proceso de venta de Isagen

Mayo 15 de 2015

 

ISA en proceso de privatización

Edición 208, noviembre 2014

Publicado enColombia