Este modelo se ha asociado con la constante cosmológica, desarrollada por Einstein en 1917. Imagen ilustrativa.

Científicos de la Universidad de Copenhague presentaron un nuevo modelo que sugiere que la expansión del universo se debe a una sustancia oscura con una especie de fuerza magnética, lo que podría significar que la energía oscura no existe, informan los especiaistas en un comunicado.

Según el modelo comúnmente aceptado de distribución de la energía del universo, un 5 % se correspondería con materia normal, un 25 % con materia oscura y un 70 % con energía oscura.

Este modelo se ha asociado con la constante cosmológica, desarrollada por Einstein en 1917, que puede ser atribuida a la presencia de una energía del vacío diferente de cero. Sin embargo, debido a que la energía oscura no se puede medir directamente, numerosos investigadores, incluido Einstein, han dudado de su existencia, sin poder sugerir una alternativa viable.

Por su parte, en el nuevo modelo, se le otorgan cualidades especiales al 25 % de la materia oscura, lo que hace que el 70 % de la energía oscura resulte redundante. En otras palabras, el modelo reemplaza la energía oscura con una materia oscura en forma de fuerzas magnéticas.

“Si lo que descubrimos es exacto, arruinaría nuestra creencia de que lo que pensamos que constituía el 70 por ciento del universo, en realidad, no existe. Hemos eliminado la energía oscura de la ecuación y hemos añadido algunas propiedades más para la materia oscura. Esto parece tener el mismo efecto sobre la expansión del universo que la energía oscura", explicó Steen Harle Hansen, el autor del estudio.

“Desarrollamos un modelo que funcionó a partir de la suposición de que las partículas de materia oscura tienen un tipo de fuerza magnética e investigamos qué efecto tendría esta fuerza en el universo. Y resulta que tendría exactamente el mismo efecto en la velocidad de expansión que conocemos de energía oscura”, comentó Hansen.

Sin embargo, los investigadores destacan que este mecanismo debe ser revisado con mejores modelos que tomen más factores en consideración.

“Honestamente, nuestro descubrimiento puede ser solo una coincidencia. Pero si no lo es, es realmente increíble. Cambiaría nuestra comprensión sobre la composición del universo y sobre el porqué de su expansión” , añadió el científico.

3 abril 2021

(Con información de RT en Español)

Recreación artística del fenómeno experimentado por esos cuerpos celestes.Foto Igfae

El evento de esos astros, también llamados transparentes, explicaría la mayor colisión masiva de agujeros negros

 

Madrid. Una fusión de estrellas de bosones, conocidas por algunos astrónomos y astrofísicos como estrellas transparentes, podría explicar la colisión de agujeros negros más masiva jamás observada, que produjo la onda gravitacional GW190521, y probar la existencia de la materia oscura.

Es la conclusión del trabajo de un equipo internacional de científicos, liderado por el Instituto Gallego de Física de Altas Energías (Igfae) y la Universidad de Aveiro.

Las ondas gravitacionales son olas en el tejido del espacio-tiempo que viajan a la velocidad de la luz y cuya existencia fue predicha por Albert Einstein en en su teoría general de la relatividad. Estas ondas se originan en los eventos más violentos del universo, llevando consigo la información sobre dicho origen.

Desde 2015, el ser humano puede observar e interpretar ondas gravitacionales gracias a los detectores Advanced LIGO (Livingston y Hanford, Estados Unidos) y al detector Virgo (Cascina, Italia). Hasta ahora, éstos han observado alrededor de 50, originadas durante las fusiones de dos de los entes más misteriosos del universo –agujeros negros y estrellas de neutrones–, que nos han permitido saber más acerca de estos objetos.

Pese a todos los descubrimientos acumulados en sólo seis años, el potencial real de las ondas gravitacionales va mucho más allá. En el futuro, podrían permitirnos observar nuevos tipos de objetos celestes y dar pistas sobre problemas fundamentales de la ciencia como, por ejemplo, la naturaleza de la materia oscura. Esto último, sin embargo, podría haber ocurrido ya.

Onda gravitacional

En septiembre de 2020, las colaboraciones científicas LIGO y Virgo, anunciaron la onda gravitacional GW190521. De acuerdo con el análisis realizado, esta señal era compatible con la fusión de dos agujeros negros de 85 y 66 veces la masa del Sol, lo que dio lugar a uno final de 142 masas solares. Este último es el primero de una nueva familia de agujeros negros: los de masa intermedia. Tal descubrimiento reviste gran importancia, pues dichos agujeros negros eran considerados una especie de eslabón perdido entre dos familias ya conocidas: los de masa estelar que se forman por el colapso de una estrella y los supermasivos que se esconden en los centros de las galaxias, incluyendo nuestra Vía Láctea.

Hoy, parte de los científicos de LIGO y Virgo publican que esa señal no la produjeron dos agujeros negros, sino dos estrellas transparentes hechas de partículas nunca observadas que son billones de veces más ligeras que un electrón. Se llaman bosones ultraligeros y en teoría pueden ser la explicación a uno de los mayores enigmas del universo: ¿qué es la materia oscura?, ese misterioso componente que constituye 27 por ciento del universo mientras la materia conocida compone sólo 5 por ciento?

En el artículo publicado en Physical Review Letters, un equipo de científicos liderado por Juan Calderón Bustillo, en el Igfae, centro mixto de la Universidad de Santiago de Compostela y la Xunta de Galicia, y Nicolás Sanchis-Gual, investigador posdoctoral en la Universidad de Aveiro y en el Instituto Superior Técnico, de la Universidad de Lisboa, propusieron un nuevo origen para la señal GW190521: la fusión de dos objetos exóticos conocidos como estrellas de bosones.

Esos cuerpos son objetos hipotéticos que constituyen uno de los principales candidatos para formar lo que conocemos como materia oscura. Asumiendo ese tipo de colisión, el equipo fue capaz de estimar la masa del constituyente fundamental de esas estrellas, una nueva partícula conocida como bosón ultraligero, billones de veces más ligera que un electrón.

Fueron teorizadas a finales de los años 50 y descritas en mayor detalle en la década posterior. Se trataría de astros hechos de partículas que no emiten luz, pero en lugar de ser un gran punto oscuro en el firmamento serían transparentes a nuestros ojos. Hasta ahora no se ha podido comprobar su existencia debido a que falta la tecnología necesaria y modelos que expliquen bien su comportamiento.

National Research Center «Kurchatov Institute»

Se planea realizar entre 20 y 30 experimentos al año con este potente reactor nuclear de investigación científica.

 

El presidente ruso Vladímir Putin ordenó esta semana la puesta en marcha a capacidad nominal del reactor de neutrones de Gátchina (región de San Petersburgo), que es uno de los más potentes reactores de investigación nuclear en el mundo.

Con una capacidad proyectada de 100 megavatios, el reactor PIK supera a sus análogos de Grenoble (Francia) y Múnich (Alemania) y no tiene rivales en la densidad del flujo de neutrones, que es de dos megavatios por litro.

Mijail Kovalchuk, presidente del Instituto Kurchátov, principal institución de investigación y desarrollo en el ámbito de la energía nuclear en Rusia, afirmó durante una videoconferencia con Putin que el PIK es "la más poderosafuente de neutrones en el mundo".  

Asentado en el Instituto de Física Nuclear B. P. Konstantínov, el reactor será un decisivo aporte a la investigación en el terreno de lo atómico y subatómico y abrirá nuevas oportunidades para la ciencia de los materiales, así como en la biología, la biofísica y la física de la materia condensada.

La capacidad del reactor aumentará gradualmente hasta 10 megavatios en los próximos meses y hasta 100 megavatios en 2022.

A partir de entonces se repartirá el acceso al reactor entre diversos grupos científicos, incluidos algunos internacionales. Se planea realizar entre 20 y 30 experimentos al año, con duración de entre 1 y 10 días cada uno.

"El coste anual de la operación del PIK se aproxima a 1.000 milllones de rublos (13,5 millones de dólares)", afirmó Vladímir Voronin, subdirector del Instituto, al precisar que es imposible que tal proyecto alcance autosuficiencia económica.

El nuevo reactor viene a viabilizar un proyecto que cumple 45 años. Iniciado en tiempos de la URSS, en 1976, fue interrumpido tras la catástrofe de Chernóbil en 1986, cuando estaba avanzado en 70 %. La construcción se reanudó tras la revisión de las normas de seguridad, pero fue luego suspendida a raíz de la desintegración de la URSS y de las crisis financieras subsiguientes. Las obras se reanudaron en 2001.

Publicado: 12 feb 2021 22:24 GMT

Mapas de contraste de densidad normalizada. Ejemplos de cortes del cerebelo (fila superior), de la corteza cerebral (fila del medio) y de la distribución de materia oscura de la red cósmica (fila inferior). Author provided

¿Existen similitudes entre el cerebro humano y el universo? De ser así, ¿cuáles son y cómo se producen? ¿El procesamiento de la información en el cosmos y en la mente humana sigue pautas afines? ¿La inmensidad del universo es condición necesaria para la existencia del cerebro? ¿Por qué estos hallazgos pueden a llegar a ser tan importantes?

Estas preguntas ya fueron esbozadas desde antes del antiguo Egipto, y aun seguimos buscando respuestas. Gracias al avance tecnológico y científico se ha podido llegar a demostrar algo que se consideraba hace mucho tiempo atrás: el cerebro y el universo son dos entidades parecidas, aunque a distinta escala.

Un estudio reciente publicado en Frontiers in Physics comparó cuantitativamente la red neuronal y la web cósmica del universo. Su conclusión es que el universo puede estar creciendo de la misma forma que un cerebro gigante, con el disparo eléctrico entre las células cerebrales reflejadas por la forma de galaxias en expansión.

El tentador grado de similitud que exponen estos análisis parecen sugerir que la autoorganización de ambos sistemas complejos probablemente esté siendo moldeada por principios similares de dinámica de redes.

El universo visto como un cerebro gigante

Franco Vazza, astrofísico, y Alberto Feletti, neurocirujano, encontraron que tanto el universo como el cerebro están organizados en redes bien definidas, con nodos interconectados a través de filamentos y cuya extensión típica es solo una pequeña fracción de su sistema anfitrión. Según los autores, esto podría deberse a que ambas redes crecieron como resultado de principios físicos similares.

Universo y cerebro difieren en escala en 27 órdenes de magnitud (es decir, el universo es mil millones de billones de billones más grande que nuestro cerebro), pero el análisis de ambas reveló que en los diferentes procesos físicos pueden conllevar el surgimiento de estructuras similares en complejidad y autoorganización.

Ambos son materiales aparentemente pasivos, con un 70 % de masa o energía dentro de cada sistema compuesta por elementos que juegan solo un papel indirecto en sus estructuras internas. Se trata del agua en el caso del cerebro y de la energía oscura en el universo observable.

La red cósmica y las redes neuronales se basan en conexiones

Este nuevo estudio indica que una sola ley fundamental de la naturaleza puede gobernar estas redes. Los resultados de una simulación por computadora sugieren que las "dinámicas de crecimiento natural" (la forma en que evolucionan los sistemas) son las mismas para los diferentes tipos de redes, ya sea internet, el cerebro humano o el universo en su conjunto.

Cuando se comparó la historia del universo con el crecimiento de las redes sociales y los circuitos cerebrales descubrieron que todas las redes se expandieron de forma similar: equilibraron los enlaces entre nodos similares con los que ya tenían muchas conexiones.

Probablemente, "la conectividad dentro de las dos redes evolucione siguiendo principios físicos similares, a pesar de la llamativa y obvia diferencia entre los poderes físicos que regulan las galaxias y las neuronas", explicó el neurocirujano Feletti lo que describió como "niveles inesperados de semejanza".

Uno de los análisis mostró que la distribución de la fluctuación dentro de la red neuronal del cerebelo en una escala de 1 micrómetro a 0,1 milímetros sigue la misma progresión que la distribución de la materia en la red cósmica pero, por supuesto, en una escala mayor que va de cinco millones a 500 millones de años luz.

¿Por qué estos hallazgos pueden llegar a ser tan importantes?

La física cuántica parece desempeñar un papel sutil tanto en las galaxias como en las sinapsis cerebrales. Contemplar el universo como un inmenso ordenador nos lleva a preguntas cruciales sobre su programa y su memoria.

El método utilizado para encontrar las hasta ahora insólitas semejanzas estructurales entre el cerebro humano y el universo puede ser de gran ayuda en los campos de la cosmología y de la neurocirugía.

La importancia del descubrimiento de este método recae en que puede ayudar a descifrar y comprender mejor la dinámica de la evolución temporal, tanto del cerebro como del universo.

Por Fátima Servián Franco

Psicóloga General Sanitaria. Directora del Centro de Psicología RNCR y PDI en la

01/02/2021

6G: la revolución tecnológica ininterrumpida de China

Un año atrás China anunció, en plena disputa con EEUU por la instalación de redes 5G, la creación de "un grupo de trabajo para el desarrollo de la red de sexta generación", proyecto que estaba aún en su fase inicial pero que consiste en "una combinación de una red inalámbrica y un satélite espacial, algo que ayudará a cubrir un área más amplia".

Un año después, se supo que el Ejército Popular de Liberación (ELP) está planificando usar las futuras redes 6G para renovar completamente su estructura, aunque la tecnología existía solo en la teoría, como informaba en mayo el South China Morning Post.

Lo más impactante es que China envió al espacio, el 6 de noviembre, "un satélite de prueba de comunicaciones de sexta generación", el primero en el mundo de la tecnología 6G, cuando aún no se ha desplegado la 5G en la mayor parte de los países. De ese modo, el Dragón toma la delantera en la futura tecnología de las telecomunicaciones.

El 13 de abril el sitio oficial del Ministerio de Defensa, había publicado un artículo titulado 'If 6G Were to be Used in the Future Battlefield', que enfatizaba cómo la nueva tecnología supondrá "un gran impacto en las prácticas militares, como las formaciones de guerra, el desarrollo de equipos y las comunicaciones en el campo de batalla". La 6G se convirtió en uno de los principales objetivos de los militares chinos.

Según el periodista de Business Insider, Giuseppe Luca Scaffidi, los técnicos del Ministerio de Ciencia y Tecnología de China estiman que la 6G puede alcanzar una velocidad de descarga de un Terabyte por segundo (frente a 600 MB de la 5G, una velocidad 8.000 veces mayor) y podría cubrir la comunicación bajo el agua, aunque son apenas estimaciones teóricas.

En el campo militar se producirían cambios notables, ya que la tecnología 6G "estaría en condiciones de modificar las reglas de juego incluso en el campo de batalla, donde el factor humano será cada vez más marginalizado", estima la misma fuente. La inteligencia artificial tendrá un desarrollo exponencial con 6G.

El primer satélite para operar 6G fue desarrollado conjuntamente por Chengdu Guoxing AerospaceTechnology, la Universidad de Ciencia y Tecnología Electrónica de China y Beijing Mino Space Technology, y se utilizará para verificar el rendimiento de la tecnología 6G en el espacio.

Se cree que hacia el final de la década, antes incluso de 2030, se estará comercializando 6G en teléfonos móviles, aunque se estima que el consumo de energía será muy elevado y tendrá efectos dañinos para el entorno. Se trata de críticas similares a las que se realizan a las redes 5G, por la gran cantidad de antenas que deben desplegarse ya que no necesita fibra óptica, pero sin embargo las nuevas tecnologías siempre terminan por imponerse.

Los mismos que advierten sobre los efectos nocivos de utilización de energía por las redes 5 y 6G, consideran que para su masiva implementación deberán multiplicarse las fuentes de energías renovables y limpias, rubro en el cual China se ha convertido en "el líder mundial indiscutible en los últimos cuatro años".

En cuanto a energía eólica, China es líder mundial "con más de un tercio de la capacidad mundial" y el doble de EEUU, según la Revista Eólica y del Vehículo Eléctrico.

Un reciente informe de Le Monde Diplomatique en su edición de octubre, recuerda que la estadounidense Qualcomm fue "gran ganadora del 2G y de varias normas importantes", pero que ahora "obtiene dos tercios de su volumen de negocios de China, mayoritariamente de Huawei", con lo que destaca la enorme dependencia de la empresas de EEUU del mercado chino.

​El mismo informe titulado Geopolítica del 5G, presenta un cuadro ilustrativo sobre el porcentaje de patentes registradas por país de origen en las tecnologías 4G (desarrollada hacia 2007) y la 5G. En la tecnología 4G, las coreanas Samsung y LG controlan el 25% de las patentes, mientras las empresas chinas Huawei y ZTE alcanzaban el 21,5%.

En cuanto a la 5G, las empresas chinas alcanzan el 34% de las patentes, mientras las coreanas se quedan con el 24,5%. Pero lo más revelador es el pobre y decreciente papel de las empresas estadounidenses, Intel y Qualcomm: pasaron de reclamar el 17% de las patentes 4G a solo el 13% de las 5G, poco más de un tercio que las chinas, según el gráfico de Le Monde.

Las conclusiones de este conjunto de datos parecen evidentes.

La primera y fundamental es que Occidente ha perdido la carrera tecnológica con Asia. Si se suman las patentes de 5G de China, Corea del Sur y Japón, se alcanza un impresionante 71,5% de las patentes del mundo. En tanto, la Unión Europea y EEUU apenas llegan al 30%.

La segunda conclusión es el impresionante ascenso de China, con más de un tercio de la patentes globales de 5G, lo que le permite seguir un desarrollo autónomo y cada vez menos vinculado a los desarrollos occidentales, en general, y de Estados Unidos en particular.

El punto central es que China, que aún mantiene dependencia de las tecnologías occidentales en el rubro estratégico de semiconductores, se encuentra en camino de cerrar la brecha, además de agrandar la ventaja en aquellas en las que va por delante como la inteligencia artificial.

El tercer punto es que EEUU tiene muy pocas balas en su recámara ante China. La guerra comercial desatada por Donald Trump no consiguió sus objetivos de frenar el ascenso tecnológico del Dragón. Peor aún, parece haber mostrado a la población que no debe confiar en Washington y al Gobierno que debe acelerar su independencia en todos los rubros.

En particular, como definió la quinta sesión plenaria del XIX Comité Central del PCCh, para 2035 China se convertirá en "líder global en innovación, alcanzando grandes avances en las tecnologías fundamentales de áreas clave".

Las tendencias de fondo, de larga duración, no las puede revertir un gobierno, por más ambicioso que sea. Sería tanto como tapar el sol con el dedo. Este siglo, la ventaja asiática, y la de China en particular, parece imbatible.

 

Por Raúl Zibechi

16:22 GMT 09.11.2020URL corto

Fuentes: El viejo topo

Entrevista a Álvaro de Rújula sobre Disfruta de tu universo, no tienes otra opción (I)

 

Álvaro de Rújula nació en Madrid, donde estudió Física y obtuvo su doctorado. Ha trabajo en Italia (Centro Internacional de Física Teórica, Trieste), Francia (Instituto de Estudios Científicos Avanzados), Estados Unidos (Universidades de Harvard y de Boston, MIT) y en la Organización Europea para la Investigación nuclear, el CERN (desde estudiante de verano hasta director de la División de Teoría). Actualmente también forma parte del Instituto de Física Teórica de la Universidad Autónoma de Madrid (IFT/UAM/CSIC).

En los años setenta del pasado siglo, el profesor de Rújula contribuyó a la consolidación del modelo estándar de la física de partículas, principalmente la cromodinámica cuántica y sus quarks encantados. También ha realizado trabajos sobre neutrinos (las mediciones de la masa y la tomografía de la Tierra), la ausencia de antimateria en el universo, cómo encontrar el bosón de Higgs, etc.

En Los Libros de la Catarata (junto con la Fundación Areces y la Real Sociedad Española de Física) ha publicado recientemente Disfruta de tu universo, no tienes otras opción.

Disfruta de tu universo, no tienes otra opción, es el hermoso y epicúreo título de tu último libro. ¿Es imprescindible saber ciencia para disfrutar de nuestro universo y de tu libro?

Para disfrutar de nuestro universo ciertamente no es imprescindible. Espero que no lo sea para disfrutar de mi libro. Es una de las razones por las que lo escribí.

¿Pero cuánta ciencia habría que saber?

Para disfrutar de mi libro espero que muy muy poca. Para disfrutar del universo, cuanta más, mejor.

El “tu” del título: ¿hace referencia a un universo personal o el universo es igual para todos?

Quizás todos tengamos un universo personal. Pero, si así fuese, yo sólo he estado en el mío. El Universo con mayúscula es igual o muy parecido para todos los científicos… serios.

¿Y qué condiciones debe tener un científico para ser serio? ¿Hay científicos o científicas que no lo son?

Debería de haber dicho bueno, íntegro u honesto. Evidentemente en todas las profesiones los hay que no lo son. En la ciencia el sistema para detectarlos, esencialmente el “arbitraje por los pares”, funciona relativamente bien, pero está lejos de ser perfecto. Hay feudos inexpugnables, intereses económicos espurios, etc. Como en todas partes, pero mucho menos.

Intereses económicos espurios, feudos inexpugnables… ¿Nos puedes dar algún ejemplo?

Las investigaciones en farmacia y ocasionalmente en biología tienen subvenciones directas, o indirectas, de compañías farmacéuticas. Eso tiene sus peligros evidentes. Algunas revistas científicas de prestigio tienen también sus peculiaridades. Un ejemplo: Nature, en donde he publicado algunos artículos de investigación o de comentario (con tendencia a que me cambiaran el título sin mi permiso). Si quieres publicar en Nature un artículo criticando otro que hayan ya publicado y proponiendo una alternativa, la revista exige que tu artículo sea primero aceptado por los autores del artículo criticado. Muy honestos tienen realmente que ser dichos autores para no disfrutar de su inviolabilidad automática. Los hay que no lo son.

Como en todas partes, dices, pero mucho menos. ¿Por qué mucho menos? ¿Ser científico exige un grado de honradez inexistente en las otras profesiones o trabajos? ¿No estás mirando tu profesión con ojos  demasiado generosos?

Para no meterme en camisas de once varas, quizás debería de haber dicho “rigor”, en lugar de honradez. El juez definitivo e infalible en la ciencia es lo observable en la naturaleza. El arbitraje de los pares puede no ser riguroso, pero a la larga la verdad científica (en su acuerdo con lo repetida y precisamente observado) prevalece. Pero no siempre los datos se manejan con rigor o se atribuyen las ideas a su primer autor o autores. De ahí que dijera mucho menos y no muchísimo menos.

¿Qué es la ciencia para un científico investigador como tú?

En sentido estricto las ciencias como la química o la biología —y sobre todo la física— son aquellas en las que quienes las practican pueden llegar a un acuerdo basado en realidades comprobables observacionalmente. Las matemáticas también son una ciencia, pero sus criterios de veracidad son lógicos, no experimentales. La economía emplea hoy en día métodos científicos pero no es una ciencia. Razón: trata con demasiadas variables no medibles. Prueba: los economistas jamás se ponen de acuerdo, por mucho que manejen los mismos datos.

Para mí la ciencia es un apasionante hobby que de paso me da de comer. Y de cuando en cuando, satisfacción. Por ejemplo cuando creo saber —o mis colaboradores y yo creemos saber— algo que en este planeta nadie más sabe. Y resulta ser cierto.

Lo que apuntas de la economía, ¿se puede decir también del resto de disciplinas que forman parte de las ciencias sociales?

Temo que sí.

¿Será porque en estas disciplinas la ideología de los científicos está más presente?

En la diana.

¿Nos puedes dar algún ejemplo de alguna cosa que tus colaboradores y tú hayáis creído saber y que nadie más sabía, y que además era cierta?

Un ejemplo fácil de entender: el universo visible no está hecho de grandes “continentes”, unos con estrellas y planetas de materia “ordinaria” y otros de antimateria. Demostrado con mis colegas Andy Cohen y Shelly Glashow.

Más difícil de explicar brevemente: las interacciones entre quarks están caracterizadas por una escala de energía o, equivalentemente, de distancias. Dicha escala cromodinámica podía deducirse a mediados de los 70 del siglo pasado empleando datos ya existentes. Yo fui el primero en hacerlo y conocer su valor; ningún otro físico teórico ha sido el primero en determinar una constante “fundamental” de la naturaleza.

Y un ejemplo que no entenderás: es posible acotar la masa de los neutrinos empleando procesos de captura “débil” de electrones; trabajos en parte en colaboración con mi colega Maurizio Lusignoli.

Paro aquí, me he pasado ya varios pueblos dándome autobombo. Te atribuyo a ti toda la culpa.

Haces bien, asumo toda la culpa y acepto también mi dificultad para entender el último ejemplo que has dado. Estudio, me documento.

¿Qué relación hay, desde tu punto de vista, entre ciencia y verdad?

La ciencia no busca la “Verdad” con mayúscula. Pero sí descubre aproximaciones cada vez más precisas a la verdad (científica, claro).

¿Quiénes buscarían entonces la Verdad con mayúscula?

Soy físico, no tertuliano. No tengo respuestas ex-cátedra a todas las preguntas. ¿Y a quién podría interesarle mi opinión sobre una pregunta de la que todo el mundo sabe la respuesta?

A mí por ejemplo y no sé si todo el mundo sabe la respuesta.

Menosprecias a tus lectores. Malo, malo.

Intento no hacerlo. ¿Qué caracteriza a la verdad científica, la que escribes con minúscula?

Lo he dicho: es una aproximación, pero es verificable. Las hay que no parecen aproximaciones, por ejemplo que el espacio tiene tres dimensiones. Pero hasta esto es, en cierto sentido, una aproximación, ya que existe la posibilidad —no excluida— de que cada cosa que nosotros consideramos un punto sea como una bolita con sus propias dimensiones “internas”. Pues bien, habitantes de civilizaciones distintas que nunca hayan tenido un contacto anterior llegarán a la misma conclusión: es verdad que hay tres dimensiones espaciales “grandes”: esas que van de adelante a atrás; del lado del corazón al otro; y de arriba a abajo.

Sobre lo que es Verdad con mayúscula, raro sería que dos civilizaciones distintas se pusieran de acuerdo por medios no violentos.

¿La ciencia es el único conocimiento sólido o hay otros tipos de conocimientos, no estrictamente científicos, que no merecen ni deben ser menospreciados?

Por supuesto que, en mi opinión, los hay. Por ejemplo todas las artes. Aunque conocimiento “sólido” no sea la mejor manera de calificarlas. A pesar de que Michelangelo ya supiera de antemano qué estatua, bien sólida, le aguardaba dentro de una enorme losa de mármol de Carrara.

Escribes en el prefacio de tu libro: “Pocos no científicos se adhieren con entusiasmo a la opinión de que entender el universo en el que estamos, o sencillamente intentarlo, también es muy divertido. “No entiendo nada” es una reacción frecuente a cualquier texto científico. En mi opinión, la razón fundamental no es que la ciencia sea aburrida o indescifrable, sino que, en la mayoría de los casos, no se enseña adecuadamente.” ¿Quiénes no la enseñan adecuadamente?

Muchos —aunque no todos— los maestros o profesores, desde el jardín de infancia hasta la universidad.

¿Por desconocimiento, por falta de habilidad pedagógica, por la compleja matemática que rodea a algunos resultados científicos, por excesivo teoricismo…?

Supongamos que un profesor de tenis no haya jugado nunca al tenis. Olvidemos la compleja matemática, que en el tenis lo es mucho. Este profe tendría también las otras carencias que citas. De modo análogo, para enseñar bien ciencia es casi imprescindible haber hecho un poco de investigación o, como mínimo, haber presenciado como la hacen quienes la hacen. Un ejemplo: grupos de profesores de primaria y secundaria de muchos países visitan con regularidad el CERN. Lo más útil de esas visitas son las sesiones en las que participan con investigadores en, por ejemplo, un análisis de datos. Es como si el profe de tenis se decidiera finalmente un buen día a jugar un poco. Aunque más le hubiera valido empezar ya de pequeñito.

¿No es casi socialmente imposible, una especie de utopía pedagógica, que todo el profesorado que enseña ciencia deba haber hecho un poco de investigación o presenciado como la hacen quienes las hacen? ¿No exigiría lo que señalas y defiendes una verdadera revolución (la palabra no está de más) en la formación de nuestros maestros y profesores de ciencias?

En mi opinión los maestros son los pilares de la sociedad. Y la revolución a la que te refieres se puede costear. Por ejemplo, profesores universitarios de reconocida calidad investigadora y docente podrían pasar una fracción de su tiempo enseñando a maestros o haciendo de maestros. Pagándoles bien por ello, claro. Muchos laboratorios y universidades podrían hacer cosas como las que el CERN y otros laboratorios como Fermilab (cerca de Chicago) ya hacen. Hay que poner las “manos en la masa”, algo que escribo con mayúsculas porque es una manera, que explico en el libro, de enseñar a niños como actuar y colaborar como científicos.

Por último, bueno sería que la de maestro fuese una profesión extremadamente competitiva, socialmente respetadísima y muy bien pagada. Nada de esto me parece utópico.

Déjame dar una referencia, que tomo de tu libro, de ese programa de enseñanza al que aludes (“Hands on): “Looking Back: Innovative Programs of the Fermilab Education Office”https://ed.fnal.gov/office/marge/retro.html. Tomemos un descanso si te parece.

De acuerdo.

Por Salvador López Arnal | 10/11/2020

Fuente: El Viejo Topo, octubre de 2020

© Foto : Pixabay/geralt

Cosmólogos de la Universidad de California en Riverside utilizaron una serie de herramientas y una nueva técnica para calcular cuánta materia hay en el universo.

 

Para calcularla, los científicos primero contaron la materia en una sola galaxia observando cómo órbita las galaxias vecinas, y luego escalaron la cantidad para todo el universo. 

El equipo descubrió que la materia constituye el 31% del universo, el resto es energía oscura, una "forma desconocida de energía" que los científicos aún no entienden.

Según los autores del estudio, de ese 31%, el 80% lo constituye la materia oscura, una sustancia que solo se detecta a través de sus interacciones gravitacionales con otra materia. La cantidad de materia conocida —el gas, el polvo, las estrellas, las galaxias y los planetas— constituye solo el 20%.

Determinar exactamente cuánta materia hay en el universo no es una tarea fácil, explicaron los cosmólogos, al indicar que depende tanto de las observaciones como de las simulaciones.

"Hemos tenido éxito en hacer una de las medidas más precisas jamás hechas usando la técnica de cúmulos de galaxias", afirmó la coautora Gillian Wilson.

Este fue el primer uso de la técnica de la órbita de las galaxias, que implica determinar la cantidad de materia en una sola galaxia mirando cómo orbita otras galaxias. 

Como parte de su medición, el equipo comparó sus resultados con otras predicciones y simulaciones para obtener una cifra que "parecía perfecta".

"Un mayor porcentaje de materia daría como resultado más cúmulos", explicó el autor principal, Mohamed Abdullah.

"Pero es difícil medir la masa de cualquier cúmulo de galaxias con precisión porque la mayor parte de la materia es oscura y no podemos verla con telescopios", agregó.

La materia oscura es una sustancia relativamente desconocida que se cree que es el pegamento gravitacional que mantiene las galaxias juntas. Los cálculos muestran que muchas galaxias se separarían en lugar de rotar si no se mantuvieran unidas por una gran cantidad de materia oscura. Nunca ha sido observada directamente y solo puede ser vista a través de su interacción gravitacional con otras formas de materia. 

Para superar esta dificultad, los astrónomos desarrollaron GalWeight, una herramienta cosmológica para medir la masa de un cúmulo de galaxias usando las órbitas de sus galaxias miembros.

Con ayuda de esta herramienta, los investigadores crearon un catálogo de cúmulos de galaxias. Finalmente, compararon el número de cúmulos en su nuevo catálogo con simulaciones para determinar la cantidad total de materia en el universo. 

"Una gran ventaja de usar nuestra técnica de órbita de galaxias GalWeight fue que nuestro equipo pudo determinar una masa para cada cúmulo individualmente en lugar de depender de métodos estadísticos más indirectos", reveló el tercer coautor, Anatoli Klipin.

04:05 GMT 30.09.2020URL corto

Los hallazgos se han publicado en el Astrophysical Journal. 

Simulación de una fusión de agujero negro binario.Foto Afp

 

Descubren la colisión de dos hoyos negros que creó uno nuevo de tamaño jamás visto // Tardó 7 mil millones de años en revelarse a la ciencia

 

Washington. Los agujeros negros no dejan de causar extrañeza, incluso a los astrónomos. Acaban de detectar la señal de una antiquísima colisión violenta de dos de ellos que creó uno nuevo de tamaño jamás visto.

“Es la explosión más violenta desde el Big Bang que haya observado la humanidad”, señaló Alan Weinstein, del Instituto Tecnológico de California y miembro del equipo que efectuó el descubrimiento.

Demoró 7 mil millones de años en revelarse a la ciencia: un agujero negro masivo de un nuevo tipo, fruto de la fusión de dos agujeros negros, fue observado directamente por primera vez gracias a las ondas gravitacionales, anunciaron ayer dos estudios.

Este hallazgo constituye la primera prueba directa de la existencia de agujeros negros de masa intermedia (entre 100 y 100 mil veces más masivos que el Sol) y podría explicar uno de los enigmas de la cosmología, esto es, la formación de estos objetos supermasivos presentes en varias galaxias, incluida la Vía Láctea.

¡Es una puerta que se abre sobre un nuevo paisaje cósmico!, se felicitó en rueda de prensa Stavros Katsanevas, director de Virgo, uno de los dos detectores de ondas gravitacionales que captaron las señales de este nuevo agujero negro.

Se trata de regiones del espacio tan densas que ni siquiera dejan escapar la luz. Los observados hasta ahora eran de dos tamaños en general. Unos son “pequeños”, llamados agujeros negros estelares, formados cuando se colapsa una estrella y su tamaño es alrededor del de una ciudad pequeña. Los otros son los supermasivos, millones o miles de millones de veces más masivos que el Sol, en torno de los cuales giran galaxias enteras.

Según estimaciones de los astrónomos, no tenía sentido que los hubiera de dimensiones intermedias porque las estrellas que crecían demasiado antes de colapsar se consumen sin dejar agujeros negros.

Según los científicos, el colapso de una estrella no podía crear un agujero negro estelar mucho mayor que 70 veces la masa de nuestro Sol, explicó Nelson Christensen, del Centro Nacional de Investigación Científica de Francia.

Sin embargo, en mayo de 2019 dos detectores captaron una señal que resultó ser la energía de dos agujeros negros estelares –cada uno de ellos demasiado grande para ser un estelar– que chocaban entre sí. Uno tenía 66 veces la masa de nuestro Sol y el otro 85 veces.

Resultado de ello fue el primer agujero negro intermedio que se haya descubierto con 142 veces la masa del Sol.

En la colisión se perdió una enorme cantidad de energía bajo la forma de una onda gravitatoria, que viaja por el espacio a la velocidad de la luz. Esa es la onda que captaron el año pasado los físicos en Estados Unidos y Europa por medio de detectores llamados LIGO y Virgo. Tras descifrar la señal y verificar el trabajo, los científicos publicaron los resultados este miércoles en las revistas Physical Review Letters y Astrophysical Journal Letters.

Debido a que los detectores permiten captar las ondas gravitatorias como señales de audio, los científicos pudieron escuchar la colisión, que por ser tan violenta y dramática, duró apenas una décima de segundo.

“Suena como un golpe sordo, no como gran cosa en un parlante”, concluyó Weinstein.

(Con información de Afp)

Uno de los artefactos se podría inyectar con una aguja hipodérmica. Poseen cuatro patas y se alimentan mediante células solares. Foto Afp

París. Microscópicos e hiperresistentes. Así son los robots capaces de desplazarse a cuatro patas desarrollados por un equipo de investigadores, según un estudio publicado en la revista Nature.

Estos robots, cuyo tamaño equivale al grosor de un cabello, "son invisibles para el ojo humano. Poseen cuatro patas y se alimentan mediante células solares implantadas. Podemos hacer mover sus piernas enviando una luz láser sobre estas células fotovoltaicas, lo que les permite caminar", explicó Marc Miskin, de la Universidad de Cornell, en Estados Unidos.

Cada robot está constituido de un simple circuito fabricado a partir de células fotovoltaicas de silicio (el cuerpo) y de cuatro accionadores electroquímicos (las patas).

Según el estudio, estos mecanismos son robustos porque pueden sobrevivir en entornos muy ácidos y a variaciones de temperaturas de más de 70 grados Celsius.

Un millón de ejemplares

Se produjeron más de un millón de estos robots, que "podrían inyectarse mediante agujas hipodérmicas, ofreciendo la posibilidad de explorar entornos biológicos", según el estudio, o bien ser útiles, por ejemplo, para la reparación de materiales a escala microscópica.

"Cincuenta años de reducción de electrónica nos condujeron a tecnologías extremadamente minúsculas: se pueden construir captores, ordenadores, memoria, todo en espacios muy reducidos, pero si uno quiere también robots, necesita accionadores, piezas que se muevan", sin necesidad de una fuente de energía demasiado pesada ni voluminosa, señaló Miskin.

Por ahora, están lejos de ser perfectos: son lentos e incontrolables.

Sin embargo, asociados a componentes microelectrónicos podrían convertirse en microrrobots autónomos, según los autores.

Pero "para llegar a la fase de aplicaciones, todavía queda mucho trabajo por realizar", concluyó Miskin.

Una bomba nuclear estadounidense tipo 'Fat Man', que se utilizó en el bombardeo de Nagasaki

En agosto de 1945 la Alemania nazi ya había sido derrotada, pero EEUU necesitaba mandar un mensaje de supremacía al mundo, y así lo hizo.

 

Fue Harry Truman, presidente norteamericano, el encargado de dar la orden de utilizar armas de destrucción masiva contra Hiroshima y Nagasaki, llevando así a cabo un proyecto anhelado durante varios años por los Gobiernos de EEUU y Gran Bretaña.

En 1940, antes del ataque japonés a Pearl Harbor, la investigación científica para la guerra unió a EEUU y Gran Bretaña, y muchos de sus logros militares provienen de esa alianza, ya que al amparo de la misma se inició la investigación para desarrollar la bomba atómica.

Por cuanto que en ese momento Gran Bretaña estaba expuesta a ataques aéreos constantes y estaba amenazada por una posible invasión nazi, el primer ministro Churchill y el presidente Roosevelt acordaron que era prudente llevar a cabo el proyecto nuclear en EEUU.

La inteligencia soviética sabía que desde 1939 los científicos de Inglaterra, Estados Unidos, Alemania, Francia y otros países habían comenzado a tratar de cerca el problema de la fisión del núcleo atómico y trataban de obtener una nueva fuente de energía atómica.

Los informes sobre la intensificación del desarrollo de una nueva temible arma fue transmitida a la URSS en septiembre de 1941 por un miembro del famoso grupo de agentes prosoviéticos Cambridge Five, John Cairncross, quien logró obtener un informe secreto para el primer ministro británico Winston Churchill sobre los planes de crear armas atómicas de destrucción masiva, junto con EEUU.

 

Estudios secretos y víctimas silenciadas

 

La biblioteca de Truman cuenta en sus archivos digitales con un documento titulado Evaluación sobre bombardeos estratégicos de los Estados Unidos: los efectos de las bombas atómicas en Hiroshima y Nagasaki, aunque no se detallan muchos aspectos, en especial el referido a los efectos de la radiación en los sobrevivientes.

Luego de la rendición japonesa, EEUU implantó una política del silencio sobre cualquier cosa relacionada con los bombardeos o los efectos de la radiación. La única investigación autorizada era realizada por la comisión sobre las víctimas de la bomba atómica —Atomic Bomb Casualty Commission (ABCC)—. Si bien dicha comisión realizó exámenes médicos, no suministró atención médica porque su misión tenía un mandato de no realizar curaciones o tratamiento, afirma Atomicheritage.

Según dicha organización el tratamiento en sí se convirtió en un problema político porque, a la vista del público, tratar y curar a los hibakusha (como se les llama a las víctimas de los bombardeos atómicos norteamericanos) podría haber constituido una expiación estadounidense por los bombardeos atómicos, es decir un reconocimiento del crimen masivo.

En una publicación del diario oficial de la Academia Nacional de Ciencias de EEUU, se relata sobre los estudios epidemiológicos y genéticos de los sobrevivientes y de sus hijos por parte de la ABCC y su sucesora, la fundación de investigación de efectos de la radiación (RERF). Pero las víctimas afirman que la información fue distorsionada y ocultada por parte de la ABCC y que nunca recibieron tratamiento, y solo fueron fotografiados y luego enviados a casa.

Peor aún, las víctimas estaban restringidas por su propia autocensura. Muchas se ocultaron durante años, sentían vergüenza por sus deformaciones, sus heridas, sus enfermedades y, sobre todo, un deseo de olvidar el pasado.

 

El ignominioso escuadrón japonés 731

 

La humanidad tampoco debe olvidar algunas acciones del Ejército imperial japonés, en especial las referidas a sus proyectos de creación de armas biológicas de destrucción masiva, para lo cual utilizaron seres vivos: humanos y animales.

La película Men Behind the Sun, controversial por sus crueles escenas, relata que presos chinos, coreanos y soviéticos eran sujeto de experimentos inhumanos a cargo del Escuadrón 731 del Ejército imperial japonés. 

Tales hechos serían difíciles de creer si hoy no conociéramos los registros del proceso de Jabárovsk llevado a cabo por los soviéticos en 1949 y por los documentos desclasificados por los norteamericanos.

El Mengele nipón, Ishii Shiro, a la cabeza del Escuadrón 731, tenía como misión desarrollar armas biológicas para su Gobierno, en la región de Harbin al norte de China, ocupada por los japoneses. Así lo relató durante el juicio en Jabárovsk, Yoshio Shinozuka, miembro del escuadrón, quien afirmó que habían criado pulgas infectadas de tifus en ratas, ántrax, peste y cólera para usar contra el Ejército soviético.

La Unión Soviética logró enjuiciar por crímenes de guerra a 12 militares japoneses del Escuadrón 731, pero no pudo enjuiciar a Ishii Shiro, porque simplemente se había esfumado.

Durante muchos años se negó la actividad de dicho escuadrón, pero EEUU fue desclasificando cientos de documentos que dan cuenta de los "experimentos de guerra biológica". El proceso de Jabárovsk permitió a los soviéticos conocer detalles dolorosos, inmorales y de altísima peligrosidad.

Uno de los enjuiciados fue K. Kawashima, jefe del departamento de producción en el destacamento 731, quien reconoció que "el departamento de producción estaba muy bien equipado para el cultivo de bacterias, lo que nos permitió producir mensualmente en forma pura hasta 300 kilogramos de bacterias de peste, o hasta 500-600 kilogramos de bacterias de ántrax, o hasta 800-900 kilogramos de bacterias tifoideas, paratifoideas o disenterías o hasta 1.000 kilogramos de bacterias del cólera".

A pesar de los intentos, los soviéticos no pudieron nunca capturar ni enjuiciar al cabecilla del escuadrón, Ishii Shiro. ¿Por qué? El hecho es que, la información sobre las armas biológicas que el Imperio japonés había acumulado durante los experimentos, fue utilizada posteriormente como herramienta de negociación con EEUU.

La potencia norteamericana decidió otorgar libertad e inmunidad a Ishii Shiro y a otros miembros del nefasto Escuadrón 731, a cambio de la información que poseían. Toda una canallada histórica e inmoral.

 

La relación entre EEUU y Japón

 

EEUU a lo largo de estas décadas ha sabido manejar y construir con Japón una relación compleja pero muy favorable a sus intereses. Entre los acuerdos y tratados firmados se puede destacar el Tratado de cooperación mutua y seguridad entre Japón y EEUU que otorgó a EEUU el uso de áreas e instalaciones japonesas por parte de sus fuerzas terrestre, aéreas y naval.

Las bases en Japón son relevantes para la estrategia estadounidense. El portaaviones USS Kitty Hawk con sede en Yokosuka participó en los conflictos en Afganistán e Irak. Los aviones de combate estacionados en Misawa y Kadena también se desplegaron en Irak a partir de 2003. Las bases en Okinawa en particular son cruciales para sus acciones en el océano Índico y Oriente Medio y durante la guerra de Vietnam jugaron un rol estratégico y logístico importante.

En mayo de 2016 cuando el presidente norteamericano Barack Obama visitó Hiroshima afirmó que los hechos en Hiroshima y Nagasaki "demostraron que la humanidad poseía los medios para destruirse a sí misma", es decir, atribuyó a toda la humanidad la posesión de esos medios de destrucción masiva, lo cual es un embuste.

Evidentemente, la presencia militar norteamericana en territorio japonés es una piedra angular para los intereses de EEUU en Asia y han sabido construirla de manera sostenida y firme a pesar de toda la historia precedente.

La amenaza del uso de armas de destrucción masiva se ha incrementado
Mientras tanto, hoy, en el mundo hay unas 22.000 armas nucleares y se han llevado a cabo más de 2.000 ensayos nucleares.

Los países han firmado varios tratados multilaterales para detener la carrera armamentista nuclear, entre ellos, el Tratado sobre la No Proliferación de las Armas Nucleares (TNP) y en 2017 se avanzó hacia el Tratado sobre la Prohibición de las Armas Nucleares, donde cada Estado firmante se compromete a nunca y bajo ninguna circunstancia, desarrollar, ensayar, producir, adquirir, poseer o almacenar armas nucleares y a no usar o amenazar con usar armas nucleares.

Este tratado representa el único compromiso vinculante de desarme en un tratado multilateral por parte de los Estados poseedores de armas nucleares. Los países signatarios por ahora suman 82, pero sólo 40 lo han ratificado y para entrar en vigor necesita de 50.

Este año 2020 debía celebrarse la Conferencia Examen del Tratado de No Proliferación TNP, pero debido a la pandemia del COVID-19 lamentablemente debió posponerse hasta 2021.

Cuba por su parte nos recuerda y alerta que "las 1.750 ojivas nucleares desplegadas son más que suficientes para destruir la civilización varias veces. De ellas, más del 46% está en manos de EEUU".

La Segunda Guerra Mundial ha dejado muchas lecciones y eventos cruentos que no debemos olvidar ni permitir que las jóvenes generaciones desconozcan. Es importante refrescar la memoria para que no se repita.

2 agosto 2020 | 3

(Tomando de Sputnik)

Publicado enInternacional
Página 1 de 9