Una explosión 10 veces mayor que la de Hiroshima sobre el mar de Bering

Un sistema de detección de infrasonidos desplegado durante la Guerra Fría para vigilar ensayos nucleares descubre el estallido de un meteoro que había pasado inadvertido

Todos los días, entre 1.000 y 10.000 toneladas de material llegan a la Tierra desde el espacio. La cantidad es grande, pero cae muy repartida y la Tierra está prácticamente deshabitada. Solo el 1% del planeta está poblado, así que es normal que no percibamos que están lloviendo piedras. En nuestra experiencia, de toda esta materia solo quedan los destellos que producen cuando se desintegran contra la atmósfera en forma de estrellas fugaces.


Pero de vez en cuando llega una roca mayor con potencial catastrófico. En 2013, un meteoro explotó sobre la región rusa de Cheliabinsk liberando 30 veces más energía que la bomba atómica de Hiroshima. Aquel fue el mayor impacto registrado del siglo y dejó cristales rotos y algunos heridos leves. Hace unos días, según informaba Newscientist, Peter Brown, de la Universidad de Ontario Occidental (Canadá), anunció que el pasado mes de diciembre otro gran impacto, provocado por un objeto de 10 metros de diámetro, sacudió la Tierra, pero lo hizo en una región tan remota que nadie lo vio.


El estallido del meteoro en la atmósfera se produjo sobre el mar de Bering, cerca de la península de Kamchatka, y liberó 10 veces más energía que la bomba de Hiroshima. El descubrimiento de aquel estallido ha sido posible meses después gracias a un sistema de monitorización global de infrasonidos, indetectables para el oído humano, desplegado por todo el mundo durante la Guerra Fría para vigilar pruebas nucleares secretas.


El descubrimiento de este gran impacto vuelve a llamar la atención sobre la dificultad para detectar objetos de pocos metros de diámetro que, si caen o estallan sobre una población, pueden tener consecuencias catastróficas. La NASA tiene un mandato del Congreso para identificar el 90% de los asteroides con órbitas cercanas a la Tierra de 140 metros de diámetro o más. Hace 15 años se estimaba que sería posible tener listo ese catálogo para 2020, pero con la tecnología actual es probable que sean necesarias tres décadas más.


Josep María Trigo, investigador del Instituto de Ciencias del Espacio (CSIC) y del Institut d'Estudis Espacials de Catalunya (IEEC), explica que pese a que la mayoría de objetos de ese tamaño son todavía desconocidos, para esas dimensiones de 10 metros ya existen diversos proyectos de seguimiento que pueden localizarlos con unos pocos días de antelación”. El telescopio Joan Oró del Observatori Astronòmic del Montsec, que contribuye a diversos programas internacionales de monitorización de asteroides, colabora en este tipo de búsquedas internacionales. Trigo recuerda cómo en 2008 “el asteroide 2008TC3 fue, con 4 metros de diámetro, el primer asteroide de ese tamaño en ruta de colisión directa con la Tierra detectado con una margen de unas veinte horas”.


Salvador Sánchez, director del Observatorio Astronómico de Mallorca y miembro de uno de los equipos que más objetos con órbitas cercanas a la Tierra ha descubierto en el mundo, plantea que este tipo de impactos son relativamente frecuentes. “Son metralla ligera que la Tierra recibe cada mes. En EE UU registran gran cantidad de estos objetos en el momento, pero no dicen nada porque caen en el mar o en los polos y los rusos, aunque igual no con tanta precisión, también los detectan, pero no dicen nada”, señala. “La Tierra es un planeta hostil y los asteroides que llegan se desintegran al entrar en la atmósfera o rebotan”, continúa. Después de muchos años detectando objetos de mayor tamaño, Sánchez explica que ahora cuentan con un sistema de telescopios que observa de forma continua un sector del cielo 24 horas al día (sistema ojo de dios) para captar la llegada de objetos de menor tamaño y poder calcular sus órbitas en el momento.


Además de este tipo de proyectos terrestres, en EE UU ya se está analizando la posibilidad de construir un telescopio bautizado como NeoCam que sería lanzado al espacio para completar con precisión el catálogo de los asteroides de más de 140 metros. Entre los más pequeños ya ha sido posible detectar con solo ocho horas de margen el impacto de un asteroide de poco más de tres metros de diámetro. La proeza fue posible gracias al observatorio Catalina Sky Survey situado en Arizona el 7 de octubre de 2008. Poco después, el centro para el estudio de NEO (objetos cercanos a la Tierra, de sus siglas en inglés) del Jet Propulsion Laboratory de la NASA calculó su órbita y el lugar probable donde caería. Con esos datos, fue posible encontrar fragmentos del objeto en Botsuana, justo donde los científicos habían predicho.


Infrasonidos para cazar asteroides


D. M.


Nadie presenció el estallido del último gran meteoro en el extremo oriental ruso, pero meses después ha sido posible reconstruir cómo ocurrió gracias a una red de vigilancia instalada por la Organización del Tratado de Prohibición Completa de los Ensayos Nucleares (CTBTO, por sus siglas en inglés) para hacer cumplir los acuerdos de no proliferación nuclear durante la Guerra Fría. Se trata de 45 estaciones distribuidas por el mundo capaces de detectar ondas sonoras demasiado débiles para que el oído humano las capte y que viajan mucho más lejos y mucho más rápido que las frecuencias habituales.


En ocasiones, estas ondas pueden dar varias vueltas al mundo y eso hace que sean tan interesantes para saber si se ha producido un suceso de gran intensidad energética en algún lugar del mundo por escondido que esté. A partir de los sonidos registrados, los científicos son capaces de saber si es una explosión en un lugar fijo, como un test nuclear, o una en movimiento, como la que produce un meteoro. También se puede calcular la energía liberada, el tamaño del asteroide o su velocidad.

Por Daniel Mediavilla
19 MAR 2019 - 04:08 COT

Miércoles, 13 Marzo 2019 06:27

Buscan reponerse del apagón

Buscan reponerse del apagón

El país no ha volado por los aires. Podría haberlo hecho si se toma en cuenta la profundidad del impacto generado por el apagón nacional que comenzó el jueves a las 17 horas y aún no ha terminado de restablecerse el suministro por completo. Las noticias de este martes son que en algunos puntos recién volvió la luz, como en la ciudad de Maracaibo, o en la Comuna El Maizal, en el estado Lara. 

Las consecuencias del apagón fueron múltiples, las formas de enfrentarlas también. Tanto por parte del gobierno como de iniciativas espontáneas. Las políticas, por ejemplo, fueron de abastecer con camiones cisternas los principales puntos, como cerros y hospitales, y garantizar distribución de alimentos a través de diferentes mecanismos. Se trata de normalizar un país que ya estaba en un cuadro de dificultades prolongado, luego de un golpe de una magnitud aún difícil de calcular.


La respuesta no logró dar abasto ante la magnitud de la demanda, por ejemplo, de agua, ya que el sistema de bombeo se vio afectado por el apagón, lo que se tradujo en iniciativas colectivas, como abrir un caño en El Valle o San Agustín, zonas populares de Caracas, para llenar botellas y botellones. Son muchas las imágenes de personas haciendo colas para abastecerse de agua en todo sitio donde se pueda conseguir, comercios, llenaderos, cisternas, manantiales.


Ante una situación de esas características se podría haber esperado una multiplicación masiva de focos de protesta espontáneos, violencia, movilizaciones, por fuera de lo que la oposición intente convocar. Se dieron hechos como saqueos, por ejemplo, en el centro comercial Sambil, en Maracaibo, donde según informó el gerente general, se trató de un grupo de trescientas personas que lograron derribar portón, fachada y puerta hasta ingresar al interior. Fueron varios casos, aunque no se puede hablar de un cuadro que desbordó y masificó en un escenario inestable, peligroso, por los hechos en sí y los llamados de la oposición. El Fiscal General informó que se iniciará una investigación contra Guaidó por su presunta participación en el sabotaje al sistema eléctrico nacional.


El clima en las calles caraqueñas durante el día ha sido de preocupación, resolución, cotidianeidad, restablecimiento de comercios, sistemas electrónicos de pagos, de transporte, aunque el sistema de metro aún no esté activo. Quien llegue a la ciudad no se encuentra con un cuadro de devastación sino con un escenario de dificultades acumuladas y nuevas, una idiosincrasia venezolana que permite enfrentar adversidades de manera sorprendente para una mirada ajena, un chavismo activado en su dimensión de gobierno y organización popular, una tranquilidad en regreso marcada por la conciencia de que nada ha terminado, sino que se está en el centro de un conflicto nacional e internacional.


Esta última dimensión ha estado sobre la mesa de manera central en la mañana de ayer con la decisión del gobierno de Venezuela, anunciada por el canciller Jorge Arreaza, de dar por terminadas las conversaciones con Estados Unidos para el establecimiento de oficinas de interés, y la orden al personal diplomático norteamericano de abandonar Venezuela en las próximas 72 horas.


Por otro lado, la administración de Donald Trump incluyó en el pedido de presupuesto para el año 2020, la suma de 500 millones de dólares para “la transición en Venezuela”, ratificando la política y la probable prolongación del conflicto.


A su vez desde anteayer se encuentra la misión técnica de trabajo de la Oficina de la Alta Comisionada de Naciones Unidas para los Derechos Humanos de la Organización de Naciones Unidas (ONU), quien fue recibida el lunes por el canciller y ayer mantuvo una reunión en la Asamblea Nacional. En los próximos días, según indicó el canciller, la misión de la ONU se reunirá con instituciones del gobierno bolivariano y los poderes públicos.


En ese contexto elaborarán un informe de la situación dentro de un contexto muy complejo, donde existen datos antagónicos, muchas veces sin confirmación. El caso más claro es el de los muertos que habría provocado el apagón: según voceros de la oposición primero fueron 17, luego un periodista afirmó que fueron 296, entre los cuales 80 neonatos, cifra que luego fue desmentida por la presidenta del Colegio de Médicos del estado Zulia y no fue retomada. El ministro de Salud, por su parte, afirmó que no ha habido muertos en hospitales públicos debido al apagón.


Ayer se dieron protestas convocadas por la oposición, aunque solo reunieron unos pocos cientos de manifestantes. Pero los acontecimientos se mueven con mucha velocidad, se superponen los días con las noches, y la confirmación de los hechos requiere siempre la verificación por diferentes fuentes. La verdad, se sabe, es una de las principales víctimas en estos contextos.

Publicado enInternacional
Exxon y Chevron al rescate del fracking en EU

Los medios cercanos a la industria petrolera no podían quedarse callados cuando dos de las magnas trasnacionales de Estados Unidos (EU) Exxon y Chevron "apuestan a largo plazo al auge del gas/petróleo lutita en la cuenca del Pérmico" –en la parte occidental de Texas y el sureste de Nuevo México: "confían en superar los desafíos técnicos y financieros (sic)", según Financial Times (07/03/19), cercano a los banqueros Rothschild con fuertes intereses en British Petroleum (BP) (https://bit.ly/2Cf1ArF).

Exxon es la joya trasnacional de EU (https://amzn.to/2gqobZy). Su anterior director ejecutivo Rex Tillerson fue secretario de Estado con Trump, mientras que en Chevron, Condoleezza Rice, ex asesora de Seguridad Nacional de Baby Bush, pertenece a su consejo directivo.

A juicio de Ed Crooks, Exxon y Chevron “han incrementado sus expectativas de producción en la Cuenca Pérmica para la primera mitad de la década de 2020 (FT; 05/03/19)”: el primero pasaría casi al doble de 600 mil barriles al día a un millón en 2024, mientras el segundo pasaría de 650 mil barriles al día a 900 mil en 2023. Ed Crooks apuesta a que los "anuncios de Exxon y Chevron fueron una señal de que el auge continuará".

Una ventaja de Chevron radica en que es propietaria de la mayor parte de los terrenos en el Pérmico,por lo que evita pagar derechos de extracción. ¿No habrá contado Chevron con información privilegiada debido a sus contactos directos con el nepotismo dinástico de los Bush que nunca cesó de ser petrolero?

Exxon y Chevron se disponen a pasar al liderazgo en el Pérmico después de haber tenido un papel mínimo cuando en forma darwiniana devoraran a las medianas empresas de exploración y producción que se encuentran al borde de la insolvencia.

El virtual rescate de los gigantes petroleros de EU llega en un momento crucial para el futuro del gas/petróleo lutita extraído por el polémico fracking (fracturación hidráulica) que exhibe sus limitaciones técnicas y financieras cuando las empresas petroleras son subsidiadas por la Reserva Federal y los megabancos de Wall Street (https://bit.ly/2F0ZCgu).

Las dificultades del fracking se ensombrecen con el desprendimiento de los billonarios "fondos soberanos de riqueza" de Noruega que anunció la venta de sus activos debido a potenciales riesgos financieros: "reducir la vulnerabilidad a un declive permanente (sic) del precio del petróleo" (https://bit.ly/2NVVtx5)”. ¡Declive "permanente"!

Los "fondos soberanos de riqueza" de Noruega comportan 40 mil millones de dólares de acciones en las tres trasnacionales petroleras anglosajonas Exxon, Chevron y British Petroleum.

Mientras “Wall Street ha perdido su fe (sic) en el gas/petróleo lutita (https://bit.ly/2TLBXJi)”, Bob Dudley, mandamás de BP, contaminadora del Golfo de México, juzgó que el gas/petróleo lutita de EU es "un mercado sin cerebro" y "al contrario de Arabia Saudita y Rusia, que ajustan su producción en respuesta a la abundancia o escasez en el abastecimiento del petróleo, el mercado de lutita de EU responde puramente a sus precios".

Martin Sandbu del FT (08/03/19) juzga que los fondos soberanos de riqueza "permanecerán invertidos en las grandes empresas de energía" y que Noruega "se asegura del precio del petróleo". Juzga que la "desinversión será de limitado significado cuantitativo" ya que "alrededor de 6 por ciento de su portafolio está en empresas energéticas" y que "solamente una fracción será vendida" cuando la desinversión se aplicaría a las empresas de exploración y producción y se mantendrá en British Petroleum y Exxon.

Martin Sandbu arguye que el "precio futuro del petróleo enfrenta un significativo riesgo a la baja" cuando la "revolución lutita y la generación de energía renovable se han desarrollado mucho más rápido".

Por cierto, BlackRock, máximo banco de gestión de activos del mundo, en 2013 era el principal accionista tanto de Exxon (22 por ciento) como de Chevron (15 por ciento), por lo que se descuenta que las dos gigantes trasnacionales petroleras de EU no sufrirán las dificultades financieras de los liliputienses al borde de la quiebra en el Pérmico (https://econ.st/2CdG7zs).

AlfredoJalife.com

Twitter: @AlfredoJalifeR_

Facebook: AlfredoJalife

Vk: id254048037

 

Publicado enInternacional
 Una refinería en el centro de México. Reuters

La revolución del fracking va a cambiar el panorama energético mundial a corto plazo. En realidad, ya lo ha hecho, pero la Agencia Internacional de la Energía (AIE) anticipa que lo va a hacer más en los próximos años, impulsando a Estados Unidos a la cima de la producción mundial de petróleo. El organismo con sede en París anticipa que el país que hasta hace poco era un importador neto de petróleo superará dentro de cinco años al segundo productor mundial (Rusia), acercándose mucho al primero (Arabia Saudí).

Otra de las conclusiones relevantes del informe Petróleo 2019 es que la demanda de crudo sigue creciendo de manera sostenida, a una media anual de 1,2 millones de barriles diarios suplementarios, después de que el año pasado se alcanzará el récord de demanda de 100 millones de barriles al día.


Por ahora, la AIE sigue sin detectar un máximo de demanda que marque el punto de inflexión. Este aumento se explica sobre todo por la necesidad de productos petroquímicos y la aviación, sobre todo en Asia y EE UU. En el lado contrario, se percibe una ralentización en el consumo de gasolina gracias a la mejora de eficiencia y al impulso de los vehículos eléctricos.
“EE UU lidera cada vez más el crecimiento en la oferta global de productos petrolíferos, con un importante crecimiento también de otros países no miembros de la OPEP como Brasil Noruega y Guyana”, asegura la Agencia. La AIE califica además de “inédito” la forma en la que EE UU se ha convertido en menos de una década en un gran exportador de crudo. “Esto se debe a la capacidad de su industria de fracking de responder rápidamente a los movimientos de precios impulsando la producción. EE UU representa el 70% del incremento total en la capacidad global en 2024, añadiendo un total de cuatro millones de barriles diarios. Esto sigue a un crecimiento espectacular en 2018 de 2,2 millones de barriles diarios”, continúa la Agencia.

Por Luis Doncel
Madrid 11 MAR 2019 - 15:59 COT

Publicado enEconomía
Viernes, 22 Febrero 2019 06:30

Trump y la guerra del petróleo

Trump y la guerra del petróleo

Donald Trump ha ordenado apremiar el plan imperial para desestabilizar Venezuela, promover una guerra civil que justifique su intervención militar y tomar el control de la mayor riqueza petrolera del planeta. Hoy da un paso más en su plan de guerra bajo la máscara de la mendaz "ayuda humanitaria" transportada en aviones militares estadunidenses para tratar de introducirla por la ciudad de Cúcuta, fronteriza con la nación bajo el régimen chavista.

La violencia del plan imperial de guerra contra Venezuela es directamente proporcional a la amenaza que enfrenta la nación del norte de que su auge petrolero esté llegando a su límite, con los precios actuales del crudo, y se reinicie la declinación de sus reservas de hidrocarburos y disminuya su producción interna.

Estados Unidos es el país de mayor consumo de combustibles fósiles del planeta. Su consumo de representa 20 por ciento del total mundial contra 11 por ciento de China, que con su excesivo consumo ocupa el segundo lugar.1 Precisamente, la declinación de sus reservas en los años sesenta del siglo XX y en su ritmo de producción de crudo a finales de 1970 y del gas a partir de 1973, impulsó a sus gobiernos a poner en práctica un conjunto de acciones que estremecieron el mercado mundial, destruyendo la economía y el tejido social de extensas regiones de Medio Oriente y África.

Frente al talón de Aquiles que era depender 80 por ciento de sus importaciones petroleras de la OPEP, establecieron una alianza con países como Irán, bajo el mandato del sah Reza Pahlevi, para un aumento de petroprecios que favoreciera la explotación de yacimientos en otras regiones, incluyendo su propio territorio.2

Estados Unidos logró optimizar el consumo del crudo en su mercado interno, en particular en la industria, y disminuir su dependencia de la OPEP, pero no logró frenar la declinación de sus reservas. La caída en la rentabilidad para explotar sus yacimientos fue consecuencia del prolongado desplome que atravesaron los precios reales del petróleo que los redujo 83 por ciento en 1998 respecto a 1980.3 Por lo tanto, sus reservas de crudo y gas continuaron declinando llegando, en el caso del gas, a su nivel mínimo en 1993 con 171 trillones de pies cúbicos y, en el caso del petróleo, en 2008, con 19 mil millones de barriles.

Frente a ese panorama de menor disponibilidad, Estados Unidos reaccionó como león herido. En su interior impulsó, aun por encima de su legislación vigente de protección ambiental, la técnica del fracking para recuperar los combustibles fósiles.4 Hacia el exterior fue el eje articulador de todos los eventos violentos y de guerra que se extendieron en regiones petroleras; siempre invocando como pretexto cínicas mentiras y personajes manipulados.

El fracking colocó a Estados Unidos frente a un auge en disponibilidad y producción de reservas de hidrocarburos sin precedente, logrando lo siguiente: a) aumentar las reservas en 2017 a 39 mil 157 millones de barriles y 464.3 trillones de pies cúbicos, respectivamente; b) incrementar la producción de petróleo a finales de 2018 a 11 millones 900 mil barriles por día; c) disminuir las importaciones netas de petróleo a finales de 2018 a un millón 589 mil barriles por día y a disponer, por segundo año consecutivo, de un excedente neto de gas natural para exportación.5

Hoy el interés imperial de adueñarse del control del hidrocarburo de Venezuela tiene entre otros, tres objetivos principales: 1) asegurar un abastecimiento adicional de crudo importado y estratégico como el que ya le suministra Canadá y cubrir desde el continente americano el total de sus requerimientos de importación; 2) provocar un desplome de petroprecios que arrastre a una mayor crisis a todos los países productores y exportadores del combustible, incluyendo a sus "aliados"; lo cual alcanzaría a Rusia; 3) colocar bajo el precio de esta mercancía, como sucedió en el cuarto ciclo en la historia del petróleo de 1932 a 1970 y salir de la larga depresión económica que atraviesa.

Por Francisco Colmenares, jubilado de Pemex, economista.

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

1 Datos para 2017 del BP Statistical Review of World Energy, junio de 2018.

2 Estados Unidos a través del sah de Irán logró llevar a la OPEP a aprobar las mayores alzas en los precios del petróleo desde el siglo XIX. La revelación del tejido de esta estrategia fue realizada por Zaki Yamani en 2007, mencionando públicamente el nombre de su artífice: Henry Kissinger. Yamani, Zaki, Conferencia titulada "OPEP: pasado, presente y futuro", en Madrid el 21 de noviembre de 2007, dentro del ciclo de conferencias del Real Instituto Elcano.

3 Datos de la serie de precios históricos del petróleo a valor de 2017 publicados por British Petroleum.

4 Método de extracción que consiste básicamente en fracturar mediante agua a presión mezclada con arena y elementos químicos las zonas rocosas del subsuelo en las que están alojadas las reservas de hidrocarburos.

5 El atentado criminal y siniestro a las Torres Gemelas de Nueva York y las instalaciones del Pentágono, el 11 de septiembre de 2001, reconocido por Osama Bin Laden, reclutado por la CIA para operaciones en Afganistán, fue utilizado por el gobierno de George W. Busch para intensificar operaciones intervencionistas de Estados Unidos.

Publicado enCrisis Venezuela
Spherex: un telescopio para encontrar vida extraterrestre

El telescopio estudiará cientos de millones de galaxias, algunas tan lejanas que su luz ha tardado 10 mil millones de años en llegar a la Tierra.

 


Encontrar vida más allá de la Vía Láctea es el gran objetivo de Spherex, el nuevo telescopio de la NASA que analizará en torno a 300 millones de estrellas en otras galaxias.
El proyecto está pensado para 2023, y su objetivo es el de lanzarse en busca de conocimiento sobre la evolución del universo así como las partículas que forman otros sistemas planetarios

.
"Estoy muy emocionado por esta nueva misión", aseguraba el administrador de la NASA y miembro del partido republicano Jim Bridenstine.


El investigador principal de la misión es James Bock, del Instituto de Tecnología de California en Pasadena, California. Caltech trabajará con el Jet Propulsion Laboratory (JPL) de la NASA para desarrollar la carga útil de la misión.


"Esta increíble misión será un tesoro de datos únicos para los astrónomos", dijo Thomas Zurbuchen, administrador asociado de la Dirección de Misiones Científicas de la NASA. "Proporcionará un mapa galáctico sin precedentes que contendrá desde los primeros momentos en la historia del universo. Tendremos nuevas pistas sobre uno de los mayores misterios de la ciencia: ¿Qué hizo que el universo se expandiera tan rápidamente en menos de un nanosegundo después del Big Bang?".


El telescopio estudiará cientos de millones de galaxias, algunas tan lejanas que su luz ha tardado 10 mil millones de años en llegar a la Tierra. En la Vía Láctea, la misión buscará agua y moléculas orgánicas, elementos esenciales para la vida, tal como la conocemos, en viveros estelares, regiones donde nacen las estrellas del gas y el polvo, y discos alrededor de las estrellas donde podrían formarse nuevos planetas.


El programa Explorer de la NASA, administrado por el Centro Goddard de Vuelo Espacial de la agencia en Greenbelt, Maryland, es el programa continuo más antiguo de la agencia, diseñado para proporcionar acceso frecuente y de bajo costo al espacio utilizando las principales investigaciones científicas del espaciodirigidas por investigadores relevantes para los programas de Astrofísica y Heliofísica en la Dirección de Misiones Científicas de la NASA.


16/02/2019 09:53 Actualizado: 16/02/2019 09:53

Las hormigas obreras trabajan sin comunicarse para ahorrar energía

Entre las hormigas obreras no hay capataz alguno. Estos insectos construyen sus senderos sin recibir ninguna consigna y sin intercambio de información que valga, según un estudio publicado este miércoles en la revista Proceedings, de la Real Sociedad B.

“Es sorprendente, porque los comportamientos colectivos suelen organizarse a través de la comunicación”, explicó Thomas Bochynek, de la Universidad Northwestern, en Estados Unidos, uno de los autores del estudio.


Las hormigas son insectos sociales y se considera que poseen una verdadera inteligencia colectiva.


La construcción de los caminos que emplea la colonia para llevar alimentos hasta el hormiguero requiere miles de obreros, según el estudio.


Cada colonia puede despejar hasta tres kilómetros de caminos por año, invirtiendo hasta 11 mil horas de trabajo anual.


Tal organización (o, más bien, falta de ella) permite ahorrar energía, pues comunicar, ya sea por contacto o mediante feromonas (que hay que producir, almacenar y segregar), genera un gasto energético, precisa Thomas Bochynek.

Proyectan un colisionador 10 veces más potente que el LHC

La colaboración Future Circular Collider (FCC) presentó su Informe de diseño conceptual. El objetivo final es proporcionar un anillo acelerador de protones superconductor de 100 kilómetros, con energía de hasta 100 teraelectronvoltios (TeV), lo que significa un orden de magnitud más poderoso que el LHC, explica en un comunicado el director de aceleradores y tecnología del CERN, Frédérick Bordry.

El costo de este gran colisionador circular de electrones y positrones estaría en cerca de nueve mil millones de euros, incluidos otros cinco mil millones para la obra de ingeniería civil en un túnel de 100 kilómetros.


El FCC proporcionaría colisiones electrón-positrón, protón-protón e ión-ion a energías e intensidades sin precedente, con la posibilidad de colisiones electrón-protón y electrón-ión.
La línea de tiempo del FCC prevé comenzar con una máquina de electrón-positrón, igual que LEP precedió al LHC. Esto permitiría que un programa rico beneficie a la comunidad de física de partículas a lo largo del siglo XXI, detalló Bordry.


Usando imanes superconductores de campo alto de nueva generación, el colisionador de protones de la FCC ofrecería una amplia gama de nuevas oportunidades de física. Alcanzar energías de 100 TeV y más allá permitiría estudios precisos de cómo una partícula de Higgs interactúa con otra de ellas, y una exploración completa del papel de la simetría electrodébil que emerge en la historia de nuestro universo.

También permitiría acceder a escalas de energía sin precedente en busca de nuevas partículas masivas, con múltiples oportunidades para grandes descubrimientos. Además, colisionaría iones pesados, manteniendo un rico programa de física de iones pesados para estudiar el estado de la materia en el universo primitivo.
Poderosa fábrica de Higgs


Los colisionadores de protones han sido la herramienta elegida durante generaciones para aventurar nueva física a la escala más pequeña. Un gran colisionador de protones presentaría un gran avance en esta exploración y extendería de manera decisiva el programa de física más allá de los resultados proporcionados por el LHC y un posible colisionador de electrón-positrones, dijo el director de investigación y computación del CERN, Eckhard Elsen.


Una máquina de electrón-positrón de 90 a 365 GeV con alta luminosidad podría ser un primer paso. Un colisionador de este tipo sería una fábrica de Higgs muy poderosa, que permite detectar procesos nuevos y raros y medir las partículas conocidas con precisiones que nunca antes se habían logrado. Estas medidas precisas proporcionarían una gran sensibilidad a posibles desviaciones mínimas de las expectativas del modelo estándar, lo que sería un signo de nueva física.


Este colisionador serviría a la comunidad física mundial entre 15 y 20 años. El programa de física podría comenzar en 2040, al final del LHC de alta luminosidad. El costo estimado para una máquina de protones superconductores que luego usaría el mismo túnel es de alrededor de 15 mil millones de euros. Esta máquina podría comenzar a funcionar a finales de los años 2050.


Los complejos instrumentos requeridos para la física de partículas inspiran nuevos conceptos, tecnologías innovadoras que benefician a otras disciplinas de investigación y eventualmente encuentran su camino en muchas aplicaciones que tienen un impacto significativo en la economía del conocimiento y la sociedad, destaca el CERN.


Un futuro colisionador circular ofrecería oportunidades extraordinarias para la industria, ayudando a impulsar aún más los límites de la tecnología. También proporcionaría una formación excepcional para una nueva generación de investigadores e ingenieros, subraya.

El enigma de las señales cósmicas que llegan cada 131 segundos

Dos estudios aclaran el comportamiento de los agujeros negros, los objetos más violentos del universo

 

Durante 500 días, unas potentes señales de rayos X llegaron a la Tierra desde una remota galaxia. Lo más sorprendente es que eran periódicas. Se repetían exactamente cada 131 segundos. Para alcanzar esa galaxia y conocer el origen de esas señales habría que viajar durante casi tres siglos a 300.000 kilómetros por segundo —la velocidad de la luz— algo totalmente imposible con la tecnología actual. Ahora, gracias a varios telescopios espaciales, un equipo de astrónomos ha conseguido explicar el fenómeno y, de paso, aclarar cómo se alimentan los agujeros negros.


La teoría de la relatividad de Einstein predice la existencia de estos cuerpos, cadáveres de grandes estrellas cuya enorme masa se concentra en una superficie esférica reducida de forma que nada que cruce su umbral puede escapar a la fuerza de gravedad, ni siquiera la luz. Son invisibles a los telescopios, pero gracias a la observación de su entorno puede conocerse mejor las diferentes clases de agujeros y su comportamiento.


En noviembre de 2014, varios telescopios captaron un estallido de rayos X llegado desde un agujero negro con una masa un millón de veces superior a la del Sol que está en el centro de la galaxia en cuestión. Es un cuerpo similar al que hay en el centro de nuestra propia galaxia, la Vía Láctea. El destello se produjo cuando el agujero engulló una estrella que cruzó el horizonte de sucesos, el límite más allá del cual nada puede escapar a su atracción.


“Un evento como este sucede solo una vez cada 50.000 años en una galaxia”, resalta Dheeraj Pasham, físico del Instituto Tecnológico de Massachusetts (MIT), en EE UU. Su equipo ha analizado las observaciones de este agujero negro hechas por los telescopios espaciales XMM Newton de la Agencia Espacial Europea y Chandra y Swift de la NASA. Todos captaron la misma señal pautada de rayos X que llegaba justo desde el horizonte de sucesos.


Gracias a estas señales el equipo ha podido estimar por primera vez la velocidad de rotación de un agujero negro: 150.000 kilómetros por segundo, es decir, la mitad de la velocidad de la luz, según explican en un estudio publicado hoy en Science y presentado en el congreso de la Sociedad Astronómica de EE UU, que se celebra en Seattle.


La hipótesis del equipo es que parte de la estrella no fue devorada, sino que se desintegró en una nube de gas y polvo que quedó orbitando justo en el horizonte del agujero. Los pulsos periódicos se deben a que hay otra estrella en la misma órbita, una enana blanca, que arrastró consigo la nube de polvo y produce las emisiones periódicas de rayos X. Se trata de un fenómeno extremadamente raro que durará solo unos cientos de años antes de que el agujero se trague a este otro astro, explican los responsables del estudio.


El trabajo de Pasham permitirá explorar regiones del cosmos imposibles de visitar y aclarar la evolución de este tipo de agujeros negros, fundamentales para la evolución de las galaxias que se forman a su alrededor. “Usando estos mismos principios”, explica Pasham, se podría inferir la rotación de otros agujeros negros supermasivos e incluso crear “una función de distribución para explicar cómo han evolucionado los agujeros negros supermasivos desde el principio del tiempo hasta ahora”, explica. Sobre los pulsos periódicos, tal vez no se vuelva a saber más. “La señal estuvo activa durante 500 días. Después el brillo disminuyó radicalmente y ya no es detectable con ningún telescopio”, explica el astrofísico. Solo se conoce otro caso de este tipo de señales, añade.


El año pasado se captó otro potente estallido de rayos X llegado de un lugar a apenas 10.000 años luz de la Tierra. Era un agujero negro de 10 masas solares que acababa de engullir una gran cantidad de polvo y gas que provenían de una estrella cercana. Un equipo de astrónomos de EE UU y Europa recurrieron al experimento Nicer, que comenzó a funcionar el año pasado a bordo de la Estación Espacial Internacional, para cartografiar el agujero negro en base a sus emanaciones de luz. Alrededor de estos cuerpos se forma un disco de gas y polvo a cientos de miles de grados sometido a la gran velocidad de rotación, lo que acaba descomponiendo los átomos. Los protones y los neutrones quedan en este disco de acreción mientras que los electrones forman una nube justo encima del agujero que recibe el nombre de corona. El estudio, publicado en la portada de la revista Nature, ha captado cómo esta corona se contrae decenas de kilómetros cuando el agujero se pega un atracón de materia estelar y escupe los potentes estallidos de rayos X.


Es la primera vez que se observa algo así en un agujero negro cercano y de pequeño tamaño, los más violentos. Los científicos creen que pueden utilizar estos cuerpos como análogos de los agujeros supermasivos para estudiar sus efectos en la evolución de galaxias distantes. El equipo ha captado ya otros cuatro eventos similares con el instrumento a bordo de la ISS, según Phil Uttley, coautor del estudio. “Estamos a punto de conseguir descubrimientos rompedores”, asegura.



¿QUÉ HAY DENTRO DE UN AGUJERO NEGRO?


En el universo hay dos grandes clases de agujeros negros. “Los de masa estelar tienen el tamaño de una ciudad y masas de hasta 10 soles y nacen de explosiones de estrellas enormes”, escribe Daryl Haggard, del Instituto del Espacio de la Universidad McGill, en Canadá, en un comentario publicado por Nature. “Los agujeros supermasivos tienen el tamaño del sistema solar, concentran millones o miles de millones de veces la masa del Sol y residen en el centro de las galaxias”. Lo que aún es imposible de saber es qué sucede con lo que cae en un agujero. “Según la teoría de la relatividad de Einstein ninguna información puede escapar del interior de un agujero negro, porque para ello tendría que viajar más rápido que la luz [y la relatividad deja claro que nada puede ser más rápido que la luz]”, explica Teo Muñoz Darias, del Instituto de Astrofísica de Canarias. Solo gracias a nuevas teorías aún por demostrar como la gravedad cuántica se podría comenzar a responder esta pregunta.

Por NUÑO DOMÍNGUEZ
10 ENE 2019 - 03:11 COT

Jueves, 03 Enero 2019 06:31

Pensar los bienes comunes

Pensar los bienes comunes


Los comunes son los bienes que son de todos y que a todos nos interesa conservar

.
Para pensar los bienes comunes “fuera de la caja”, pensad en algo que a todos nos conviene cuidar y mantener en buen estado, pero para lo que no existen incentivos particulares para hacerlo. En este sentido, normalmente, se identifican tres tipos de bienes comunes:


1) Los bienes comunes tradicionales se refieren a recursos de los que toda una comunidad o un pueblo depende: el agua del río que pasa por allí, los pastos, la tierras de cultivo, las zonas de pesca, etc. Se trata de recursos que no pueden dividir fácilmente y que ninguno del pueblo se puede apropiar por sí mismo. Si no lo cuidan, todos mueren de hambre, pero no hay nadie en concreto que tenga un incentivo personal para cuidarlo. De ahí que se tengan que poner de acuerdo para cuidarlo entre todos, estableciendo normas y regulaciones de uso común. Eso es el gobierno de los bienes comunes, o lo que es lo mismo, el gobierno común de los bienes. Elinor Ostrom lo describe brillantemente en el libro que lleva ese título.


2) Los bienes planetarios se refieren a la atmósfera, los océanos, la biodiversidad que son patrimonio de toda la humanidad (y del resto seres vivos). Nadie en concreto parecer tener responsabilidad de cuidarlos, no se obtiene un beneficio particular por cuidarlos con respecto a quienes no los cuidan. Más bien es al contrario,

contaminando estos recursos es como obtenemos beneficios particulares. De ahí que hagan falta acordar normas y regulaciones para reducir la contaminación, y por eso todos los países del planeta se reúnen en cumbres sobre el clima, para no llegar a ningún acuerdo porque sus gobiernos están más interesados en ventajas particulares que en el bien común. (nótese la polisemia de “bien común” como recurso común y como algo que es bueno para todos).


3) Los comunes digitales, se refieren al conocimiento compartido que es gratis y está accesible para todos, pero para el que hace falta un sistema de gestión de ese conocimiento para asegurar que tiene cierta fiabilidad y validez. Ahí está la Wikipedia con sus reglas y distribución de tareas para permitir que el resultado tenga una fiabilidad bastante aceptable; o las comunidades de software libre que trabajan coordinadamente de acuerdo a normas y protocolos propios para crear algunos de los mejores programas informáticos que existen.


La clave de todos estos sistemas de gobierno común está en que los acuerdos entre las partes son la forma más eficiente de gestionar estos recursos. Lo que lo diferencia de las otras dos formas de gestión conocidas: la centralizada y la de mercado.


En todos estos casos, una autoridad central tendría muy difícil legitimarse como propietaria o administradora del bien; y si lo hiciera, le sería muy difícil gestionarlo eficientemente, por falta de información, conocimiento y capacidad de acción.


También son recursos difíciles de gestionar por un sistema de mercado, puesto que para que los agentes económicos colaboraran en el cuidado del bien, habría que crear incentivos económicos particulares para orientar su acción, lo que en la práctica requiere (de nuevo) una regulación centralizada. Un ejemplo de este intento sería el mercado de venta de derechos de emisión de CO2, sin embargo, su eficacia para reducir la contaminación es muy limitada, porque sigue apelando a incentivos particulares.


En definitiva, los comunes muestran la necesidad de un sistema de acuerdos colectivos para regular en base al interés común (=conservar el recurso en buen estado) y no al interés particular (=hacer el mayor uso del mismo). Esa es la clave del concepto de procomún que se puede aplicar a muchos ámbitos.
Ahora, pensad “fuera de la caja”:


Podemos aplicar esta idea, por ejemplo, al concepto de privacidad y al modo en que es explotada en los reality shows. Todos tenemos una intimidad y a todos nos conviene que exista un respeto por la intimidad de los demás, en base a eso valoramos una serie de normas (de forma explícita o implícita) para el respeto a la intimidad de los demás. En las relaciones sociales (digitales o no) esto implica un código de conducta de respeto hacia los demás. Renunciamos al beneficio que podríamos obtener faltando al respeto o apelando a los trapos sucios de los demás para facilitar una cultura del respeto de la que nos beneficiamos.


También podemos aplicar esta idea a la comunicación pública en general, y en particular al modo en que apela a las emociones de la gente. Desde un respeto al bienestar común, renunciaremos a estimular determinadas emociones negativas (racismo, sexismo, odio, etc.) porque no queremos vivir en una sociedad en la que esas emociones sean predominantes, aunque en el corto plazo podamos obtener un beneficio apelando a alguna de ellas.


En estos dos casos no hay normas explícitas de gestión comunitaria, ni hay un bien o recurso material concreto que gobernar, pero en la práctica funciona el mismo principio de actuar en base a un sentido colectivo de respeto a un un interés común. En este sentido, los modos de gobierno de los bienes comunes (los tradicionales de Ostrom o los digitales como la Wikipedia) nos pueden ser útiles para pensar cómo se podría mejorar la gestión de otras cuestiones que nos afectan a todos y que a todos nos interesa cuidar y mantener.


Los comunes son los bienes que son de todos y que a todos nos interesa conservar

Publicado enSociedad