6G: la revolución tecnológica ininterrumpida de China

Un año atrás China anunció, en plena disputa con EEUU por la instalación de redes 5G, la creación de "un grupo de trabajo para el desarrollo de la red de sexta generación", proyecto que estaba aún en su fase inicial pero que consiste en "una combinación de una red inalámbrica y un satélite espacial, algo que ayudará a cubrir un área más amplia".

Un año después, se supo que el Ejército Popular de Liberación (ELP) está planificando usar las futuras redes 6G para renovar completamente su estructura, aunque la tecnología existía solo en la teoría, como informaba en mayo el South China Morning Post.

Lo más impactante es que China envió al espacio, el 6 de noviembre, "un satélite de prueba de comunicaciones de sexta generación", el primero en el mundo de la tecnología 6G, cuando aún no se ha desplegado la 5G en la mayor parte de los países. De ese modo, el Dragón toma la delantera en la futura tecnología de las telecomunicaciones.

El 13 de abril el sitio oficial del Ministerio de Defensa, había publicado un artículo titulado 'If 6G Were to be Used in the Future Battlefield', que enfatizaba cómo la nueva tecnología supondrá "un gran impacto en las prácticas militares, como las formaciones de guerra, el desarrollo de equipos y las comunicaciones en el campo de batalla". La 6G se convirtió en uno de los principales objetivos de los militares chinos.

Según el periodista de Business Insider, Giuseppe Luca Scaffidi, los técnicos del Ministerio de Ciencia y Tecnología de China estiman que la 6G puede alcanzar una velocidad de descarga de un Terabyte por segundo (frente a 600 MB de la 5G, una velocidad 8.000 veces mayor) y podría cubrir la comunicación bajo el agua, aunque son apenas estimaciones teóricas.

En el campo militar se producirían cambios notables, ya que la tecnología 6G "estaría en condiciones de modificar las reglas de juego incluso en el campo de batalla, donde el factor humano será cada vez más marginalizado", estima la misma fuente. La inteligencia artificial tendrá un desarrollo exponencial con 6G.

El primer satélite para operar 6G fue desarrollado conjuntamente por Chengdu Guoxing AerospaceTechnology, la Universidad de Ciencia y Tecnología Electrónica de China y Beijing Mino Space Technology, y se utilizará para verificar el rendimiento de la tecnología 6G en el espacio.

Se cree que hacia el final de la década, antes incluso de 2030, se estará comercializando 6G en teléfonos móviles, aunque se estima que el consumo de energía será muy elevado y tendrá efectos dañinos para el entorno. Se trata de críticas similares a las que se realizan a las redes 5G, por la gran cantidad de antenas que deben desplegarse ya que no necesita fibra óptica, pero sin embargo las nuevas tecnologías siempre terminan por imponerse.

Los mismos que advierten sobre los efectos nocivos de utilización de energía por las redes 5 y 6G, consideran que para su masiva implementación deberán multiplicarse las fuentes de energías renovables y limpias, rubro en el cual China se ha convertido en "el líder mundial indiscutible en los últimos cuatro años".

En cuanto a energía eólica, China es líder mundial "con más de un tercio de la capacidad mundial" y el doble de EEUU, según la Revista Eólica y del Vehículo Eléctrico.

Un reciente informe de Le Monde Diplomatique en su edición de octubre, recuerda que la estadounidense Qualcomm fue "gran ganadora del 2G y de varias normas importantes", pero que ahora "obtiene dos tercios de su volumen de negocios de China, mayoritariamente de Huawei", con lo que destaca la enorme dependencia de la empresas de EEUU del mercado chino.

​El mismo informe titulado Geopolítica del 5G, presenta un cuadro ilustrativo sobre el porcentaje de patentes registradas por país de origen en las tecnologías 4G (desarrollada hacia 2007) y la 5G. En la tecnología 4G, las coreanas Samsung y LG controlan el 25% de las patentes, mientras las empresas chinas Huawei y ZTE alcanzaban el 21,5%.

En cuanto a la 5G, las empresas chinas alcanzan el 34% de las patentes, mientras las coreanas se quedan con el 24,5%. Pero lo más revelador es el pobre y decreciente papel de las empresas estadounidenses, Intel y Qualcomm: pasaron de reclamar el 17% de las patentes 4G a solo el 13% de las 5G, poco más de un tercio que las chinas, según el gráfico de Le Monde.

Las conclusiones de este conjunto de datos parecen evidentes.

La primera y fundamental es que Occidente ha perdido la carrera tecnológica con Asia. Si se suman las patentes de 5G de China, Corea del Sur y Japón, se alcanza un impresionante 71,5% de las patentes del mundo. En tanto, la Unión Europea y EEUU apenas llegan al 30%.

La segunda conclusión es el impresionante ascenso de China, con más de un tercio de la patentes globales de 5G, lo que le permite seguir un desarrollo autónomo y cada vez menos vinculado a los desarrollos occidentales, en general, y de Estados Unidos en particular.

El punto central es que China, que aún mantiene dependencia de las tecnologías occidentales en el rubro estratégico de semiconductores, se encuentra en camino de cerrar la brecha, además de agrandar la ventaja en aquellas en las que va por delante como la inteligencia artificial.

El tercer punto es que EEUU tiene muy pocas balas en su recámara ante China. La guerra comercial desatada por Donald Trump no consiguió sus objetivos de frenar el ascenso tecnológico del Dragón. Peor aún, parece haber mostrado a la población que no debe confiar en Washington y al Gobierno que debe acelerar su independencia en todos los rubros.

En particular, como definió la quinta sesión plenaria del XIX Comité Central del PCCh, para 2035 China se convertirá en "líder global en innovación, alcanzando grandes avances en las tecnologías fundamentales de áreas clave".

Las tendencias de fondo, de larga duración, no las puede revertir un gobierno, por más ambicioso que sea. Sería tanto como tapar el sol con el dedo. Este siglo, la ventaja asiática, y la de China en particular, parece imbatible.

 

Por Raúl Zibechi

16:22 GMT 09.11.2020URL corto

Fuentes: El viejo topo

Entrevista a Álvaro de Rújula sobre Disfruta de tu universo, no tienes otra opción (I)

 

Álvaro de Rújula nació en Madrid, donde estudió Física y obtuvo su doctorado. Ha trabajo en Italia (Centro Internacional de Física Teórica, Trieste), Francia (Instituto de Estudios Científicos Avanzados), Estados Unidos (Universidades de Harvard y de Boston, MIT) y en la Organización Europea para la Investigación nuclear, el CERN (desde estudiante de verano hasta director de la División de Teoría). Actualmente también forma parte del Instituto de Física Teórica de la Universidad Autónoma de Madrid (IFT/UAM/CSIC).

En los años setenta del pasado siglo, el profesor de Rújula contribuyó a la consolidación del modelo estándar de la física de partículas, principalmente la cromodinámica cuántica y sus quarks encantados. También ha realizado trabajos sobre neutrinos (las mediciones de la masa y la tomografía de la Tierra), la ausencia de antimateria en el universo, cómo encontrar el bosón de Higgs, etc.

En Los Libros de la Catarata (junto con la Fundación Areces y la Real Sociedad Española de Física) ha publicado recientemente Disfruta de tu universo, no tienes otras opción.

Disfruta de tu universo, no tienes otra opción, es el hermoso y epicúreo título de tu último libro. ¿Es imprescindible saber ciencia para disfrutar de nuestro universo y de tu libro?

Para disfrutar de nuestro universo ciertamente no es imprescindible. Espero que no lo sea para disfrutar de mi libro. Es una de las razones por las que lo escribí.

¿Pero cuánta ciencia habría que saber?

Para disfrutar de mi libro espero que muy muy poca. Para disfrutar del universo, cuanta más, mejor.

El “tu” del título: ¿hace referencia a un universo personal o el universo es igual para todos?

Quizás todos tengamos un universo personal. Pero, si así fuese, yo sólo he estado en el mío. El Universo con mayúscula es igual o muy parecido para todos los científicos… serios.

¿Y qué condiciones debe tener un científico para ser serio? ¿Hay científicos o científicas que no lo son?

Debería de haber dicho bueno, íntegro u honesto. Evidentemente en todas las profesiones los hay que no lo son. En la ciencia el sistema para detectarlos, esencialmente el “arbitraje por los pares”, funciona relativamente bien, pero está lejos de ser perfecto. Hay feudos inexpugnables, intereses económicos espurios, etc. Como en todas partes, pero mucho menos.

Intereses económicos espurios, feudos inexpugnables… ¿Nos puedes dar algún ejemplo?

Las investigaciones en farmacia y ocasionalmente en biología tienen subvenciones directas, o indirectas, de compañías farmacéuticas. Eso tiene sus peligros evidentes. Algunas revistas científicas de prestigio tienen también sus peculiaridades. Un ejemplo: Nature, en donde he publicado algunos artículos de investigación o de comentario (con tendencia a que me cambiaran el título sin mi permiso). Si quieres publicar en Nature un artículo criticando otro que hayan ya publicado y proponiendo una alternativa, la revista exige que tu artículo sea primero aceptado por los autores del artículo criticado. Muy honestos tienen realmente que ser dichos autores para no disfrutar de su inviolabilidad automática. Los hay que no lo son.

Como en todas partes, dices, pero mucho menos. ¿Por qué mucho menos? ¿Ser científico exige un grado de honradez inexistente en las otras profesiones o trabajos? ¿No estás mirando tu profesión con ojos  demasiado generosos?

Para no meterme en camisas de once varas, quizás debería de haber dicho “rigor”, en lugar de honradez. El juez definitivo e infalible en la ciencia es lo observable en la naturaleza. El arbitraje de los pares puede no ser riguroso, pero a la larga la verdad científica (en su acuerdo con lo repetida y precisamente observado) prevalece. Pero no siempre los datos se manejan con rigor o se atribuyen las ideas a su primer autor o autores. De ahí que dijera mucho menos y no muchísimo menos.

¿Qué es la ciencia para un científico investigador como tú?

En sentido estricto las ciencias como la química o la biología —y sobre todo la física— son aquellas en las que quienes las practican pueden llegar a un acuerdo basado en realidades comprobables observacionalmente. Las matemáticas también son una ciencia, pero sus criterios de veracidad son lógicos, no experimentales. La economía emplea hoy en día métodos científicos pero no es una ciencia. Razón: trata con demasiadas variables no medibles. Prueba: los economistas jamás se ponen de acuerdo, por mucho que manejen los mismos datos.

Para mí la ciencia es un apasionante hobby que de paso me da de comer. Y de cuando en cuando, satisfacción. Por ejemplo cuando creo saber —o mis colaboradores y yo creemos saber— algo que en este planeta nadie más sabe. Y resulta ser cierto.

Lo que apuntas de la economía, ¿se puede decir también del resto de disciplinas que forman parte de las ciencias sociales?

Temo que sí.

¿Será porque en estas disciplinas la ideología de los científicos está más presente?

En la diana.

¿Nos puedes dar algún ejemplo de alguna cosa que tus colaboradores y tú hayáis creído saber y que nadie más sabía, y que además era cierta?

Un ejemplo fácil de entender: el universo visible no está hecho de grandes “continentes”, unos con estrellas y planetas de materia “ordinaria” y otros de antimateria. Demostrado con mis colegas Andy Cohen y Shelly Glashow.

Más difícil de explicar brevemente: las interacciones entre quarks están caracterizadas por una escala de energía o, equivalentemente, de distancias. Dicha escala cromodinámica podía deducirse a mediados de los 70 del siglo pasado empleando datos ya existentes. Yo fui el primero en hacerlo y conocer su valor; ningún otro físico teórico ha sido el primero en determinar una constante “fundamental” de la naturaleza.

Y un ejemplo que no entenderás: es posible acotar la masa de los neutrinos empleando procesos de captura “débil” de electrones; trabajos en parte en colaboración con mi colega Maurizio Lusignoli.

Paro aquí, me he pasado ya varios pueblos dándome autobombo. Te atribuyo a ti toda la culpa.

Haces bien, asumo toda la culpa y acepto también mi dificultad para entender el último ejemplo que has dado. Estudio, me documento.

¿Qué relación hay, desde tu punto de vista, entre ciencia y verdad?

La ciencia no busca la “Verdad” con mayúscula. Pero sí descubre aproximaciones cada vez más precisas a la verdad (científica, claro).

¿Quiénes buscarían entonces la Verdad con mayúscula?

Soy físico, no tertuliano. No tengo respuestas ex-cátedra a todas las preguntas. ¿Y a quién podría interesarle mi opinión sobre una pregunta de la que todo el mundo sabe la respuesta?

A mí por ejemplo y no sé si todo el mundo sabe la respuesta.

Menosprecias a tus lectores. Malo, malo.

Intento no hacerlo. ¿Qué caracteriza a la verdad científica, la que escribes con minúscula?

Lo he dicho: es una aproximación, pero es verificable. Las hay que no parecen aproximaciones, por ejemplo que el espacio tiene tres dimensiones. Pero hasta esto es, en cierto sentido, una aproximación, ya que existe la posibilidad —no excluida— de que cada cosa que nosotros consideramos un punto sea como una bolita con sus propias dimensiones “internas”. Pues bien, habitantes de civilizaciones distintas que nunca hayan tenido un contacto anterior llegarán a la misma conclusión: es verdad que hay tres dimensiones espaciales “grandes”: esas que van de adelante a atrás; del lado del corazón al otro; y de arriba a abajo.

Sobre lo que es Verdad con mayúscula, raro sería que dos civilizaciones distintas se pusieran de acuerdo por medios no violentos.

¿La ciencia es el único conocimiento sólido o hay otros tipos de conocimientos, no estrictamente científicos, que no merecen ni deben ser menospreciados?

Por supuesto que, en mi opinión, los hay. Por ejemplo todas las artes. Aunque conocimiento “sólido” no sea la mejor manera de calificarlas. A pesar de que Michelangelo ya supiera de antemano qué estatua, bien sólida, le aguardaba dentro de una enorme losa de mármol de Carrara.

Escribes en el prefacio de tu libro: “Pocos no científicos se adhieren con entusiasmo a la opinión de que entender el universo en el que estamos, o sencillamente intentarlo, también es muy divertido. “No entiendo nada” es una reacción frecuente a cualquier texto científico. En mi opinión, la razón fundamental no es que la ciencia sea aburrida o indescifrable, sino que, en la mayoría de los casos, no se enseña adecuadamente.” ¿Quiénes no la enseñan adecuadamente?

Muchos —aunque no todos— los maestros o profesores, desde el jardín de infancia hasta la universidad.

¿Por desconocimiento, por falta de habilidad pedagógica, por la compleja matemática que rodea a algunos resultados científicos, por excesivo teoricismo…?

Supongamos que un profesor de tenis no haya jugado nunca al tenis. Olvidemos la compleja matemática, que en el tenis lo es mucho. Este profe tendría también las otras carencias que citas. De modo análogo, para enseñar bien ciencia es casi imprescindible haber hecho un poco de investigación o, como mínimo, haber presenciado como la hacen quienes la hacen. Un ejemplo: grupos de profesores de primaria y secundaria de muchos países visitan con regularidad el CERN. Lo más útil de esas visitas son las sesiones en las que participan con investigadores en, por ejemplo, un análisis de datos. Es como si el profe de tenis se decidiera finalmente un buen día a jugar un poco. Aunque más le hubiera valido empezar ya de pequeñito.

¿No es casi socialmente imposible, una especie de utopía pedagógica, que todo el profesorado que enseña ciencia deba haber hecho un poco de investigación o presenciado como la hacen quienes las hacen? ¿No exigiría lo que señalas y defiendes una verdadera revolución (la palabra no está de más) en la formación de nuestros maestros y profesores de ciencias?

En mi opinión los maestros son los pilares de la sociedad. Y la revolución a la que te refieres se puede costear. Por ejemplo, profesores universitarios de reconocida calidad investigadora y docente podrían pasar una fracción de su tiempo enseñando a maestros o haciendo de maestros. Pagándoles bien por ello, claro. Muchos laboratorios y universidades podrían hacer cosas como las que el CERN y otros laboratorios como Fermilab (cerca de Chicago) ya hacen. Hay que poner las “manos en la masa”, algo que escribo con mayúsculas porque es una manera, que explico en el libro, de enseñar a niños como actuar y colaborar como científicos.

Por último, bueno sería que la de maestro fuese una profesión extremadamente competitiva, socialmente respetadísima y muy bien pagada. Nada de esto me parece utópico.

Déjame dar una referencia, que tomo de tu libro, de ese programa de enseñanza al que aludes (“Hands on): “Looking Back: Innovative Programs of the Fermilab Education Office”https://ed.fnal.gov/office/marge/retro.html. Tomemos un descanso si te parece.

De acuerdo.

Por Salvador López Arnal | 10/11/2020

Fuente: El Viejo Topo, octubre de 2020

© Foto : Pixabay/geralt

Cosmólogos de la Universidad de California en Riverside utilizaron una serie de herramientas y una nueva técnica para calcular cuánta materia hay en el universo.

 

Para calcularla, los científicos primero contaron la materia en una sola galaxia observando cómo órbita las galaxias vecinas, y luego escalaron la cantidad para todo el universo. 

El equipo descubrió que la materia constituye el 31% del universo, el resto es energía oscura, una "forma desconocida de energía" que los científicos aún no entienden.

Según los autores del estudio, de ese 31%, el 80% lo constituye la materia oscura, una sustancia que solo se detecta a través de sus interacciones gravitacionales con otra materia. La cantidad de materia conocida —el gas, el polvo, las estrellas, las galaxias y los planetas— constituye solo el 20%.

Determinar exactamente cuánta materia hay en el universo no es una tarea fácil, explicaron los cosmólogos, al indicar que depende tanto de las observaciones como de las simulaciones.

"Hemos tenido éxito en hacer una de las medidas más precisas jamás hechas usando la técnica de cúmulos de galaxias", afirmó la coautora Gillian Wilson.

Este fue el primer uso de la técnica de la órbita de las galaxias, que implica determinar la cantidad de materia en una sola galaxia mirando cómo orbita otras galaxias. 

Como parte de su medición, el equipo comparó sus resultados con otras predicciones y simulaciones para obtener una cifra que "parecía perfecta".

"Un mayor porcentaje de materia daría como resultado más cúmulos", explicó el autor principal, Mohamed Abdullah.

"Pero es difícil medir la masa de cualquier cúmulo de galaxias con precisión porque la mayor parte de la materia es oscura y no podemos verla con telescopios", agregó.

La materia oscura es una sustancia relativamente desconocida que se cree que es el pegamento gravitacional que mantiene las galaxias juntas. Los cálculos muestran que muchas galaxias se separarían en lugar de rotar si no se mantuvieran unidas por una gran cantidad de materia oscura. Nunca ha sido observada directamente y solo puede ser vista a través de su interacción gravitacional con otras formas de materia. 

Para superar esta dificultad, los astrónomos desarrollaron GalWeight, una herramienta cosmológica para medir la masa de un cúmulo de galaxias usando las órbitas de sus galaxias miembros.

Con ayuda de esta herramienta, los investigadores crearon un catálogo de cúmulos de galaxias. Finalmente, compararon el número de cúmulos en su nuevo catálogo con simulaciones para determinar la cantidad total de materia en el universo. 

"Una gran ventaja de usar nuestra técnica de órbita de galaxias GalWeight fue que nuestro equipo pudo determinar una masa para cada cúmulo individualmente en lugar de depender de métodos estadísticos más indirectos", reveló el tercer coautor, Anatoli Klipin.

04:05 GMT 30.09.2020URL corto

Los hallazgos se han publicado en el Astrophysical Journal. 

Simulación de una fusión de agujero negro binario.Foto Afp

 

Descubren la colisión de dos hoyos negros que creó uno nuevo de tamaño jamás visto // Tardó 7 mil millones de años en revelarse a la ciencia

 

Washington. Los agujeros negros no dejan de causar extrañeza, incluso a los astrónomos. Acaban de detectar la señal de una antiquísima colisión violenta de dos de ellos que creó uno nuevo de tamaño jamás visto.

“Es la explosión más violenta desde el Big Bang que haya observado la humanidad”, señaló Alan Weinstein, del Instituto Tecnológico de California y miembro del equipo que efectuó el descubrimiento.

Demoró 7 mil millones de años en revelarse a la ciencia: un agujero negro masivo de un nuevo tipo, fruto de la fusión de dos agujeros negros, fue observado directamente por primera vez gracias a las ondas gravitacionales, anunciaron ayer dos estudios.

Este hallazgo constituye la primera prueba directa de la existencia de agujeros negros de masa intermedia (entre 100 y 100 mil veces más masivos que el Sol) y podría explicar uno de los enigmas de la cosmología, esto es, la formación de estos objetos supermasivos presentes en varias galaxias, incluida la Vía Láctea.

¡Es una puerta que se abre sobre un nuevo paisaje cósmico!, se felicitó en rueda de prensa Stavros Katsanevas, director de Virgo, uno de los dos detectores de ondas gravitacionales que captaron las señales de este nuevo agujero negro.

Se trata de regiones del espacio tan densas que ni siquiera dejan escapar la luz. Los observados hasta ahora eran de dos tamaños en general. Unos son “pequeños”, llamados agujeros negros estelares, formados cuando se colapsa una estrella y su tamaño es alrededor del de una ciudad pequeña. Los otros son los supermasivos, millones o miles de millones de veces más masivos que el Sol, en torno de los cuales giran galaxias enteras.

Según estimaciones de los astrónomos, no tenía sentido que los hubiera de dimensiones intermedias porque las estrellas que crecían demasiado antes de colapsar se consumen sin dejar agujeros negros.

Según los científicos, el colapso de una estrella no podía crear un agujero negro estelar mucho mayor que 70 veces la masa de nuestro Sol, explicó Nelson Christensen, del Centro Nacional de Investigación Científica de Francia.

Sin embargo, en mayo de 2019 dos detectores captaron una señal que resultó ser la energía de dos agujeros negros estelares –cada uno de ellos demasiado grande para ser un estelar– que chocaban entre sí. Uno tenía 66 veces la masa de nuestro Sol y el otro 85 veces.

Resultado de ello fue el primer agujero negro intermedio que se haya descubierto con 142 veces la masa del Sol.

En la colisión se perdió una enorme cantidad de energía bajo la forma de una onda gravitatoria, que viaja por el espacio a la velocidad de la luz. Esa es la onda que captaron el año pasado los físicos en Estados Unidos y Europa por medio de detectores llamados LIGO y Virgo. Tras descifrar la señal y verificar el trabajo, los científicos publicaron los resultados este miércoles en las revistas Physical Review Letters y Astrophysical Journal Letters.

Debido a que los detectores permiten captar las ondas gravitatorias como señales de audio, los científicos pudieron escuchar la colisión, que por ser tan violenta y dramática, duró apenas una décima de segundo.

“Suena como un golpe sordo, no como gran cosa en un parlante”, concluyó Weinstein.

(Con información de Afp)

Uno de los artefactos se podría inyectar con una aguja hipodérmica. Poseen cuatro patas y se alimentan mediante células solares. Foto Afp

París. Microscópicos e hiperresistentes. Así son los robots capaces de desplazarse a cuatro patas desarrollados por un equipo de investigadores, según un estudio publicado en la revista Nature.

Estos robots, cuyo tamaño equivale al grosor de un cabello, "son invisibles para el ojo humano. Poseen cuatro patas y se alimentan mediante células solares implantadas. Podemos hacer mover sus piernas enviando una luz láser sobre estas células fotovoltaicas, lo que les permite caminar", explicó Marc Miskin, de la Universidad de Cornell, en Estados Unidos.

Cada robot está constituido de un simple circuito fabricado a partir de células fotovoltaicas de silicio (el cuerpo) y de cuatro accionadores electroquímicos (las patas).

Según el estudio, estos mecanismos son robustos porque pueden sobrevivir en entornos muy ácidos y a variaciones de temperaturas de más de 70 grados Celsius.

Un millón de ejemplares

Se produjeron más de un millón de estos robots, que "podrían inyectarse mediante agujas hipodérmicas, ofreciendo la posibilidad de explorar entornos biológicos", según el estudio, o bien ser útiles, por ejemplo, para la reparación de materiales a escala microscópica.

"Cincuenta años de reducción de electrónica nos condujeron a tecnologías extremadamente minúsculas: se pueden construir captores, ordenadores, memoria, todo en espacios muy reducidos, pero si uno quiere también robots, necesita accionadores, piezas que se muevan", sin necesidad de una fuente de energía demasiado pesada ni voluminosa, señaló Miskin.

Por ahora, están lejos de ser perfectos: son lentos e incontrolables.

Sin embargo, asociados a componentes microelectrónicos podrían convertirse en microrrobots autónomos, según los autores.

Pero "para llegar a la fase de aplicaciones, todavía queda mucho trabajo por realizar", concluyó Miskin.

Una bomba nuclear estadounidense tipo 'Fat Man', que se utilizó en el bombardeo de Nagasaki

En agosto de 1945 la Alemania nazi ya había sido derrotada, pero EEUU necesitaba mandar un mensaje de supremacía al mundo, y así lo hizo.

 

Fue Harry Truman, presidente norteamericano, el encargado de dar la orden de utilizar armas de destrucción masiva contra Hiroshima y Nagasaki, llevando así a cabo un proyecto anhelado durante varios años por los Gobiernos de EEUU y Gran Bretaña.

En 1940, antes del ataque japonés a Pearl Harbor, la investigación científica para la guerra unió a EEUU y Gran Bretaña, y muchos de sus logros militares provienen de esa alianza, ya que al amparo de la misma se inició la investigación para desarrollar la bomba atómica.

Por cuanto que en ese momento Gran Bretaña estaba expuesta a ataques aéreos constantes y estaba amenazada por una posible invasión nazi, el primer ministro Churchill y el presidente Roosevelt acordaron que era prudente llevar a cabo el proyecto nuclear en EEUU.

La inteligencia soviética sabía que desde 1939 los científicos de Inglaterra, Estados Unidos, Alemania, Francia y otros países habían comenzado a tratar de cerca el problema de la fisión del núcleo atómico y trataban de obtener una nueva fuente de energía atómica.

Los informes sobre la intensificación del desarrollo de una nueva temible arma fue transmitida a la URSS en septiembre de 1941 por un miembro del famoso grupo de agentes prosoviéticos Cambridge Five, John Cairncross, quien logró obtener un informe secreto para el primer ministro británico Winston Churchill sobre los planes de crear armas atómicas de destrucción masiva, junto con EEUU.

 

Estudios secretos y víctimas silenciadas

 

La biblioteca de Truman cuenta en sus archivos digitales con un documento titulado Evaluación sobre bombardeos estratégicos de los Estados Unidos: los efectos de las bombas atómicas en Hiroshima y Nagasaki, aunque no se detallan muchos aspectos, en especial el referido a los efectos de la radiación en los sobrevivientes.

Luego de la rendición japonesa, EEUU implantó una política del silencio sobre cualquier cosa relacionada con los bombardeos o los efectos de la radiación. La única investigación autorizada era realizada por la comisión sobre las víctimas de la bomba atómica —Atomic Bomb Casualty Commission (ABCC)—. Si bien dicha comisión realizó exámenes médicos, no suministró atención médica porque su misión tenía un mandato de no realizar curaciones o tratamiento, afirma Atomicheritage.

Según dicha organización el tratamiento en sí se convirtió en un problema político porque, a la vista del público, tratar y curar a los hibakusha (como se les llama a las víctimas de los bombardeos atómicos norteamericanos) podría haber constituido una expiación estadounidense por los bombardeos atómicos, es decir un reconocimiento del crimen masivo.

En una publicación del diario oficial de la Academia Nacional de Ciencias de EEUU, se relata sobre los estudios epidemiológicos y genéticos de los sobrevivientes y de sus hijos por parte de la ABCC y su sucesora, la fundación de investigación de efectos de la radiación (RERF). Pero las víctimas afirman que la información fue distorsionada y ocultada por parte de la ABCC y que nunca recibieron tratamiento, y solo fueron fotografiados y luego enviados a casa.

Peor aún, las víctimas estaban restringidas por su propia autocensura. Muchas se ocultaron durante años, sentían vergüenza por sus deformaciones, sus heridas, sus enfermedades y, sobre todo, un deseo de olvidar el pasado.

 

El ignominioso escuadrón japonés 731

 

La humanidad tampoco debe olvidar algunas acciones del Ejército imperial japonés, en especial las referidas a sus proyectos de creación de armas biológicas de destrucción masiva, para lo cual utilizaron seres vivos: humanos y animales.

La película Men Behind the Sun, controversial por sus crueles escenas, relata que presos chinos, coreanos y soviéticos eran sujeto de experimentos inhumanos a cargo del Escuadrón 731 del Ejército imperial japonés. 

Tales hechos serían difíciles de creer si hoy no conociéramos los registros del proceso de Jabárovsk llevado a cabo por los soviéticos en 1949 y por los documentos desclasificados por los norteamericanos.

El Mengele nipón, Ishii Shiro, a la cabeza del Escuadrón 731, tenía como misión desarrollar armas biológicas para su Gobierno, en la región de Harbin al norte de China, ocupada por los japoneses. Así lo relató durante el juicio en Jabárovsk, Yoshio Shinozuka, miembro del escuadrón, quien afirmó que habían criado pulgas infectadas de tifus en ratas, ántrax, peste y cólera para usar contra el Ejército soviético.

La Unión Soviética logró enjuiciar por crímenes de guerra a 12 militares japoneses del Escuadrón 731, pero no pudo enjuiciar a Ishii Shiro, porque simplemente se había esfumado.

Durante muchos años se negó la actividad de dicho escuadrón, pero EEUU fue desclasificando cientos de documentos que dan cuenta de los "experimentos de guerra biológica". El proceso de Jabárovsk permitió a los soviéticos conocer detalles dolorosos, inmorales y de altísima peligrosidad.

Uno de los enjuiciados fue K. Kawashima, jefe del departamento de producción en el destacamento 731, quien reconoció que "el departamento de producción estaba muy bien equipado para el cultivo de bacterias, lo que nos permitió producir mensualmente en forma pura hasta 300 kilogramos de bacterias de peste, o hasta 500-600 kilogramos de bacterias de ántrax, o hasta 800-900 kilogramos de bacterias tifoideas, paratifoideas o disenterías o hasta 1.000 kilogramos de bacterias del cólera".

A pesar de los intentos, los soviéticos no pudieron nunca capturar ni enjuiciar al cabecilla del escuadrón, Ishii Shiro. ¿Por qué? El hecho es que, la información sobre las armas biológicas que el Imperio japonés había acumulado durante los experimentos, fue utilizada posteriormente como herramienta de negociación con EEUU.

La potencia norteamericana decidió otorgar libertad e inmunidad a Ishii Shiro y a otros miembros del nefasto Escuadrón 731, a cambio de la información que poseían. Toda una canallada histórica e inmoral.

 

La relación entre EEUU y Japón

 

EEUU a lo largo de estas décadas ha sabido manejar y construir con Japón una relación compleja pero muy favorable a sus intereses. Entre los acuerdos y tratados firmados se puede destacar el Tratado de cooperación mutua y seguridad entre Japón y EEUU que otorgó a EEUU el uso de áreas e instalaciones japonesas por parte de sus fuerzas terrestre, aéreas y naval.

Las bases en Japón son relevantes para la estrategia estadounidense. El portaaviones USS Kitty Hawk con sede en Yokosuka participó en los conflictos en Afganistán e Irak. Los aviones de combate estacionados en Misawa y Kadena también se desplegaron en Irak a partir de 2003. Las bases en Okinawa en particular son cruciales para sus acciones en el océano Índico y Oriente Medio y durante la guerra de Vietnam jugaron un rol estratégico y logístico importante.

En mayo de 2016 cuando el presidente norteamericano Barack Obama visitó Hiroshima afirmó que los hechos en Hiroshima y Nagasaki "demostraron que la humanidad poseía los medios para destruirse a sí misma", es decir, atribuyó a toda la humanidad la posesión de esos medios de destrucción masiva, lo cual es un embuste.

Evidentemente, la presencia militar norteamericana en territorio japonés es una piedra angular para los intereses de EEUU en Asia y han sabido construirla de manera sostenida y firme a pesar de toda la historia precedente.

La amenaza del uso de armas de destrucción masiva se ha incrementado
Mientras tanto, hoy, en el mundo hay unas 22.000 armas nucleares y se han llevado a cabo más de 2.000 ensayos nucleares.

Los países han firmado varios tratados multilaterales para detener la carrera armamentista nuclear, entre ellos, el Tratado sobre la No Proliferación de las Armas Nucleares (TNP) y en 2017 se avanzó hacia el Tratado sobre la Prohibición de las Armas Nucleares, donde cada Estado firmante se compromete a nunca y bajo ninguna circunstancia, desarrollar, ensayar, producir, adquirir, poseer o almacenar armas nucleares y a no usar o amenazar con usar armas nucleares.

Este tratado representa el único compromiso vinculante de desarme en un tratado multilateral por parte de los Estados poseedores de armas nucleares. Los países signatarios por ahora suman 82, pero sólo 40 lo han ratificado y para entrar en vigor necesita de 50.

Este año 2020 debía celebrarse la Conferencia Examen del Tratado de No Proliferación TNP, pero debido a la pandemia del COVID-19 lamentablemente debió posponerse hasta 2021.

Cuba por su parte nos recuerda y alerta que "las 1.750 ojivas nucleares desplegadas son más que suficientes para destruir la civilización varias veces. De ellas, más del 46% está en manos de EEUU".

La Segunda Guerra Mundial ha dejado muchas lecciones y eventos cruentos que no debemos olvidar ni permitir que las jóvenes generaciones desconozcan. Es importante refrescar la memoria para que no se repita.

2 agosto 2020 | 3

(Tomando de Sputnik)

Publicado enInternacional
Electrosensibilidad, 5G y el determinismo biológico como caballo de Troya

Existe todo un movimiento organizado que reivindica una moratoria en la implantación del 5G, la reducción de las emisiones de estas radiaciones y un mayor estudio de sus efectos sobre la salud. Los argumentos de los promotores de su desmantelamiento son diversos: ambientales, energéticos, decrecentistas, por los problemas que generará en la investigación astronómica, o por motivos de salud. En este último, sus detractores van desde los que afirman que es causante de la electrosensibilidad, una enfermedad “ambiental emergente”, que sufren miles de personas y cuya etiología no ha sido descubierta, a ser responsable del incremento de enfermedades como el cáncer; pasando por teorías como que es causante de la pandemia de la COVID19. 

La divulgación científica de masas afronta este asunto como otro objetivo blando, tipo homeopatía, chemtrails, etc. Y lo hace con arrogancia, autoritarismo y cientifismo. Siendo el cientifismo el motor del negacionismo científico. Además, desde los 80, la medicina se encuentra en un proceso de “biomedicalización”, que consiste en una transformación tecnocientífica de los conceptos de salud y enfermedad (Clarke, 2003). La biomedicalización tiene un brazo tecnocientífico, donde lo sanitario se mercantiliza, donde la tecnología domina lo epistemológico. La medicina, una “ciencia social” (Rudolf Virchow), que de manera holística (término denostado) debería afrontar el bienestar humano, se ha convertido en un taller de coches. Un coche funciona o no, y cuando se estropea se diagnostica el problema y se intenta arreglar. 

Otro elemento fundamental de la biomedicalización es que ha extendido en las sociedades una ideología reduccionista, el determinismo biológico. Aquel dogma por el que todo fenómeno en los organismos se puede reducir a una fenómeno biológico. Desde un resfriado a una depresión tiene una explicación biológica de que algo en el coche no va bien. Sin embargo, aunque el material que compone el coche es acero y plástico, pero esos materiales, sus engranajes, no explican el funcionamiento del coche. De igual manera, las neuronas y sus conexiones son la base material de la consciencia, pero no la explican. Así, si algo cambia en esa base material repercutirá en el comportamiento, las emociones, etc. pero eso no significa que los cambios en las emociones estén causadas por alteraciones comprensibles en la materia. Atención, no estamos defendiendo la existencia del alma como entidad separada de la materia, sino el idealismo por el que la ideología reduccionista dominante pretende que las propiedades emergentes como la consciencia se reduzcan a mecanismos biológicos.

El tercer elemento es el solucionismo. Tenemos la explicación biológica (mecanicista), tenemos la tecnología (tecnociencia) – y si no, es cuestión de tiempo y recursos producirla – y por tanto tenemos la solución, tecnológica. Este fenómeno, que apenas tiene unas pocas décadas, acelerado por desarrollos tecnocientíficos como la genómica, tiene profundas consecuencias sociales y médicas.

Pongamos como ejemplo la depresión, cajón de sastre de criterios muy laxos, que casi siempre tiene unas causas estructurales (económicas, emocionales, históricas) y, por tanto, habría que afrontarlas de manera sistémica. Sin embargo, la ideología biologicista ha hecho que ya no sea un fenómeno que trasciende al individuo que necesita por un lado de cuidados, sostén y psicoterapia, abordaje individual, y por otro de soluciones estructurales (laborales, económicas, sociales), sino un fenómeno biológico que puede ser corregido mediante tecnología. Tú no estás jodido porque en este mundo lo raro es no estarlo, sino por tus desequilibrios en la serotonina. La consecuencia de este fenómeno es la medicalización de todos los fenómenos categorizados como “enfermedad”. Por eso, a menudo se habla de que se están generando nuevas enfermedades (enfermos). Otros ejemplos son el trastorno de déficit de atención e hiperactividad, o el autismo. Es obvio que no puede ser que en solo unos pocos años nos hayamos encontrado con una epidemia de autismo, sino que se están catalogando como ese síndrome una variedad enorme de sufrimientos, para así abordarlos de manera determinista. 

Porque la biomedicalización y la ideología biologicista no solo lleva al tratamiento biológico de todo lo considerado enfermedad, sino a la parcelación y segmentación de fenómenos psicológicos, y a menudo culturales, para conseguir “el diagnóstico”. Surge el paradigma de la “enfermedad mental”, que lleva asociado por supuesto el negocio de la psicofarmacologia expansiva.

En esta década, con el abaratamiento de la secuenciación masiva, este biologicismo con los fenómenos psicológicos (con o sin sufrimiento), ha llevado a un fuerte resurgir de una neo-eugenesia, financiada con dinero público, con la que estos “científicos” asocian patrones de expresión génica con la susceptibilidad a la pobreza, a la posibilidad de ser víctima de abuso infantil, o a la homosexualidad. Y por tanto, susceptible de corrección de todas estas desviaciones de la norma.

Por otro lado, y con la crisis de la Covid-19 se está viendo acentuado, existen muchísimas personas que sufren a las que la biomedicina es incapaz de diagnosticar, o sea, de encasillar. Para ello, continuamente se generan nuevas categorías “médicas” sin etiología biológica, cajones de sastre para personas sufrientes, mientras se encuentra el “marcador”. Pero claro, para la biomedicina, si no tienes un relato biológico, ahí se incluirían muchísimas “enfermedades raras”, eres una persona enferma de tercera división, cuando no directamente psicosomático, y por tanto loca.

Aquí podemos introducir otro elemento. La arrogancia científica y médica a la que llaman “medicina basada en la evidencia”. De esa manera se arrogan la autoridad para decir qué es una enfermedad, o una “histeria”, que tiene que ser tratada como enfermedad mental no catalogada, con fármacos anuladores.

Entonces, las personas sufrientes, que no encajan en el dogma del todo es biológico, ¿qué tienen que hacer para ser cuidadas y atendidas para mejorar su estado? Buscar y hacer lobby para que se busque la fuente biológica de su mal. ¡Qué remedio! Porque si no, son simplemente mujeres vagas, quejicas, histéricas, que quieren una paguita por no hacer nada. El clavo ardiendo es la prueba de lo material, lo biológico, que hará que los señores, médicos y científicos, pero también jueces y seguridad social, entonces sí, se fijen en su sufrimiento. Si no, ni ayuda médica, ni ayuda social.

¿Con qué problema nos encontramos? ¿Cómo resolvemos este entuerto sin paternalismos, condescendencia ni pensamiento mágico o postulados anticientíficos?

Pues es un temazo, como dicen. En una sociedad donde lo que no tiene base material no existe, y donde hay que explicarlo todo de manera mecanicista, no hay cabida para fenómenos que la ciencia al uso no puede explicar. Parto del escepticismo, o sea, de que la ciencia no ha desvelado todos los misterios de la naturaleza, y que a lo mejor no lo podrá hacer.

Pero estamos convencidos de que existe una vía de en medio, una alternativa al dualismo. No existen evidencias en la física o la biología que expliquen que la 5G, esa longitud de onda de la TDT, una onda de radio, sea causante de todos esos efectos biológicos que desde grupos como Plataforma STOP 5G, Ecologistas en acción o la asociación Electro Químico Sensibles por el Derecho a la Salud se dicen. En esta última he buscado alguna referencia científica (revisada por pares) pero no tienen ninguna en su página. Me han enviado decenas de textos, vídeos, conferencias sobre los efectos de estas radiaciones sobre la biología y sin embargo aún nadie me ha mostrado nada coherente con el consenso científico y la biología fundamental. 

Las personas de esos colectivos, el “consenso científico” lo asocian al autoritarismo. Sin embargo, tomado con sano escepticismo, el consenso científico es lo que nos permite agarrarnos a una realidad cada vez más volátil, más dependiente de los relatos, pensamientos mágicos y bulos. Véase por ejemplo el cambio climático, si no fuese porque las organizaciones ecologistas se han basado y agarrado al consenso científico, estaríamos aún peor. La evidencia científica debe ser publicada en revistas científicas y revisadas por pares, y para que haya consenso tiene que ser reproducida por grupos independientes. Y al contrario también hay ejemplos. No hay consenso científico en que la energía nuclear sea una alternativa a las energías fósiles, sin embargo, sí hay un potente lobby científico pro-nuclear. 

Y eso es lo que más desconcierta en Ecologistas en acción. Hoy día son el colectivo que mejor sabe leer la evidencia científica en aspectos ambientales y de crisis energética, así como muchos de sus miembros son los que mejores propuestas anticapitalistas tienen. Sin embargo, en aspectos como la “contaminación electromagnética” es justamente lo opuesto, no interpretan correctamente la evidencia. Evidentemente esto tiene que ver con su historia y su pluralidad. 

Ecologistas apoya la “Declaración científica internacional de Madrid”.  En ella se hacen afirmaciones muy serias: “La exposición a campos electromagnéticos artificiales…generan una situación indiscutible e insoslayable de impacto en la salud pública”; Pongamos otro ejemplo: “resoluciones firmadas por cientos de científicos y médicos independientes que están alertando de que estas tecnologías, “en niveles miles de veces por debajo de las directrices legales actuales”, “son extremadamente dañinas para toda clase de vida”. Ponen un enlace, pero ahí no encuentro ningún artículo científico. Después siguen: “Dos mil artículos científicos revisados por pares hablan de cáncer, estrés celular, radicales libres dañinos, daños genéticos, cambios estructurales y funcionales del sistema reproductivo, déficit de aprendizaje y memoria, trastornos neurológicos…” ¿hablan? Por supuesto que hay muchísimos estudios al respecto, pero ¿esos dos mil artículos concluyen que esas radiaciones son “extremadamente dañinas para toda clase de vida”? 

¿Existe toda una conspiración para ocultar esa clamorosa evidencia por parte de científicos e instituciones?

En Rebelion.org se publicó esta entrevista a Blanca Salinas Álvarez, miembra de Ecologistas en acción. Este párrafo de la entrevista es muy representativo:

Las investigaciones apuntan a que los químicos y las ondas interactúan. Muchos de los químicos que todos tenemos en sangre (la media es de 40 químicos, sólo el 2% de ellos estudiados antes de su introducción en el mercado) son xenoestrógenos, disruptores endocrinos que imitan a los estrógenos, hormona femenina por excelencia. Se acumulan en la grasa y las mujeres tenemos un 20% más de materia grasa, luego somos bioacumuladoras. Estas sustancias alteran todos los equilibrios hormonales femeninos y afectan también al sistema nervioso, inmunológico y celular. Estudios científicos apuntan a que las ondas electromagnéticas agravan el problema, pues entre otras cosas, abren la barrera hematoencefálica que protege al cerebro (lo que posibilita que esos químicos accedan a él) y abren excesivamente los canales iónicos celulares dependientes de voltaje, especialmente los canales de calcio, generando un fuerte estrés oxidativo y graves daños celulares y metabólicos.

Estas afirmaciones plantean problemas de comunicación graves al no tener ningún sentido biológico. Si alguien dijera que los aviones vuelan porque a 11 mil metros hay menos gravedad, todo el mundo se daría cuenta que no tiene sentido, que la gravedad sigue siendo lo suficientemente alta a esa altura para hacer caer el avión. Y eso se sabe porque la física lo ha demostrado (no solo la experiencia). Sin embargo, cuando alguien sin formación en biología dice que los disruptores interaccionan con las ondas electromagnéticas y abren los canales iónicos dependientes de voltaje, especialmente los canales de calcio, generando estrés oxidativo… Se han puesto muchas palabras de biología raras seguidas sin ningún sentido. 

Y así podríamos poner muchísimos ejemplos de la pobrísima calidad epistemológica del argumentario sobre salud y 5G. Pero, de nuevo, el diálogo es inviable cuando para las cuestiones de cambio climático el consenso científico sirve, mientras que para las cuestiones de biología celular ni siquiera los libros de texto, el ABC de la biología más que demostrada vale, y se convierte entonces en arrogancia cientifista. 

Para los que estamos en contra de la implantación del 5G por motivos ambientales y socio-políticos (desarrollismo vs. decrecentismo), nada nos gustaría más, de verdad, que encontrar un buen artículo, con sus controles, que demuestre un efecto tan pernicioso sobre la salud. Es muy importante dejar claro que el que no se hayan demostrado sus efectos biológicos, no quiere decir que haya que afirmar categóricamente que no existan. De hecho, la OMS, a través de la IARC, catalogó en 2011 a las radiaciones no ionizantes de los móviles dentro del grupo 2B de los posibles riesgos de cáncer, grupo en el que están los agentes que es posible que sean cancerígenos. Es decir, se tiene algún indicio de peligro a las dosis que estamos recibiendo pero no es en absoluto convincente y, ni mucho menos, es probable que lo haya. La lista 2B de la IARC recoge actualmente a 313 agentes clasificados como «Posibles carcinógenos en humanos”. O sea, hay evidencia que no llega a ser concluyente de que la exposición puede causar cáncer en humanos. ¡Como los vegetales en escabeche!

La IARC no determina riesgos, solo trata de determinar si un agente es cancerígeno o no. Si mete un agente en una lista es por algo. En sucesivas revisiones puede quitarlo de la lista o subirlo de categoría. 

A partir de aquí, el sano escepticismo nos debe hacer exigir que se sigan tomando datos epidemiológicos y estudios biofísicos de las improbables interacciones entre ondas de baja frecuencia y los organismos. Por otro lado, luchar contra el determinismo biológico y por el cuidado en igualdad de condiciones de todas las personas afectadas por cualquier dolencia sin base biológica (probada). Esos cuidados se deben hacer de manera integral y desde diversas disciplinas sin menoscabar ninguno de sus derechos y por supuesto sin estigmatización. 

Por Alfredo Caro Maldonado | 22/07/2020 

Alfredo Caro Maldonado @cienciamundana, es doctor en biología celular

Un técnico comprueba uno o de los grandes espejos situados en los extremos del detector LIGO./MATT HEINTZE/CALTECH/MIT/LIGO LAB

Los fenómenos microscópicos afectan a los aislados espejos del gigantesco detector de ondas gravitacionales LIGO.

 

Y sin embargo se mueven. La famosa frase de Galileo se podría aplicar a los espejos del gigantesco instrumento LIGO, que hizo historia cuando detectó ondas gravitacionales por primera vez. Ahora, sus científicos han comprobado que el ámbito de la física cuántica no se reduce a lo muy pequeño, lo invisible e imperceptible, lo que supuestamente no afecta a cualquier objeto no microscópico. El omnipresente y constante ruido cuántico inherente al Universo se muestra en su especial ambiente de trabajo y consigue mover objetos macroscópicos de 40 kilogramos de peso, como son los espejos que contiene LIGO. Este efecto, que han podido medir, se produce a temperatura ambiente.

"Se trata de algo notable, porque estas fluctuaciones ocurren en unas escalas de tamaño que son comparables a las dimensiones de las partículas elementales", comentan Valeria Sequino y Mateusz Bawaj en la revistaNature, donde se publica el trabajo de los científicos de LIGO. El ruido cuántico, normalmente imperceptible pero siempre presente, incluso en el llamado vacío en el que trabaja LIGO, puede llegar a mover estos grandes espejos una distancia pequeñísima, de 10 a 20 metros. "Un átomo de hidrógeno mide 10 a -10 metros, así que el desplazamiento de los espejos es a un átomo de hidrógeno lo que un átomo de hidrógeno es a nosotros, y lo medimos", explica LeeMcCuller, investigadorkavli in del Instituto Kavli de Astrofísica y miembro del equipo del Instituto Tecnológico de Massachussetts (MIT) en LIGO.

Los científicos pretendían con su trabajo aumentar la sensibilidad de la instalación de LIGO situada en Louisiana (EEUU) y formada por dos túneles de cuatro kilómetros de longitud en angulo recto con espejos en los extremos. "Lo especial de este experimento es que hemos visto efectos cuánticos en algo que es tan grande como un ser humano", señala Nergis Mavalvala. "En cada nanosegundo de nuestra existencia a nosotros también nos mueven estas fluctuaciones cuánticas pero nuestra energía térmica es demasiado grande para que afecten a nuestros movimientos tanto que se pueda medir. Con los espejos de LIGO hemos trabajado mucho para aislarlos de las fuerzas térmicas y de otro tipo, así que están tan quietos que los mueven las fluctuaciones cuánticas, estas extrañas palomitas que explotan continuamente en el Universo".

De hecho, el desplazamiento de los espejos es algo que se ajusta a las predicciones de la mecánica cuántica para objetos de este tamaño pero nunca antes se había podido medir, informa el MIT.

LIGO es un interferómetro excepcionalmente sensible que permite detectar las consecuencias de algunos de los acontecimientos más catastróficos en el Universo, como la fusión de dos agujeros negros, en forma de ondas gravitacionales. Ese fue su primer resultado, en 2015. Desde entonces ha observado varias fusiones más, tanto de agujeros negros como de estrellas de neutrones.

El detector funciona con luz laser y ya se sabe que la luz es tanto onda como partícula y que en las medidas de esta radiación se aplica el principio de incertidumbre de Heisenberg, por el cual no es posible medir la posición y el momento de un objeto de forma simultánea con precisión ilimitada. De ahí el intento de reducir lo más posible la incertidumbre en las medidas de LIGO para poder aumentar la sensibilidad y detectar más fenómenos.

Los científicos lo han conseguido al reducir el ruido cuántico con instrumentos nuevos y de paso han comprobado que la física cuántica no se aplica solo, a efectos prácticos, a lo muy pequeño. No está mal para un solo experimento, aunque luego haya habido que suspender el trabajo con el detector LIGO temporalmente por el coronavirus.

07/07/2020 07:17

 

Científicos del CERN descubrieron una partícula nunca observada antes

El Centro Europeo de Física de Partículas (CERN) anunció este miércoles el descubrimiento de una nueva partícula formada por cuatro quarks que, según los investigadores, ayudará a entender la forma en que éstos interactúan para formar los protones y neutrones que se encuentran en el núcleo de los átomos.

Ni la partícula ni la clase a la que pertenecería habían sido observadas con anterioridad, y son especialmente raros dado que los quarks, partículas elementales mínimas en la física subatómica, se suelen agrupar en parejas o tríos para formar hadrones -de los que los protones y neutrones son ejemplos-.

El CERN señaló en un comunicado que se pudo dar con el hallazgo gracias a observaciones en el LHCb, uno de los cuatro equipos de experimentación situados en diferentes zonas del Gran Colisionador de Hadrones. A su vez, indicó que el descubrimiento fue presentado en un reciente seminario del centro y también publicado en la base de datos científicos arXiv.

La organización también explicó que los teóricos predijeron durante décadas la existencia de hadrones de cuatro y cinco quarks, descritos en ocasiones como tetraquarks y pentaquarks. Hace algunos años, experimentos como el LHCb pudieron confirmar la existencia de algunos de estos hadrones “exóticos”.

Según el CERN, estas partículas con una rara combinación de quarks son “un laboratorio ideal para estudiar una de las cuatro fuerzas fundamentales de la naturaleza conocidas, aquélla que enlaza protones, neutrones y el núcleo atómico que componen la materia”.

Además, resaltó que el estudio de estas interacciones es esencial para determinar si procesos extraños como esta combinación de cuatro quarks muestran una “nueva física” o cumplen el modelo estándar de esta ciencia, uno de los principales propósitos de la investigación iniciada en sus aceleradores de partículas.

De esta manera, el centro aseguró que si las partículas formadas por cuatro quarks son ya de por sí extrañas, la descubierta ahora lo es aún más al ser todos del mismo tipo, el llamado quark C (de “charm”, “encanto”), el cual es considerado una modalidad “pesada”.

 “Hasta ahora los experimentos sólo habían descubierto tetraquarks con dos quarks pesados como máximo, y nunca con más de dos del mismo tipo”, detalló el portavoz de LHCb, Giovanni Passaleva, en el comunicado.

El descubrimiento se consiguió analizando datos de colisiones de partículas en los últimos períodos de actividad del Gran Colisionador de Hadrones, de 2009 a 2013 y de 2015 a 2018. El Colisionador actualmente se encuentra cerrado por trabajos de renovación y mejora, y su reapertura se prevé para mayo de 2021.

Los investigadores aclararon que todavía no es posible determinar si la nueva partícula detectada es un verdadero tetraquark o es en realidad una pareja de partículas formadas por dos quarks. Sin embargo, cualquiera de los dos casos les ayudaría a probar modelos de interacción cuántica.

Descubren en el MIT sistema más eficiente para imitar procesos cerebrales

Un equipo del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) avanzó hacia un sistema alternativo para simular redes neuronales, que usa dispositivos físicos analógicos que pueden imitar de manera mucho más eficiente los procesos cerebrales.

Equipos de todo el mundo están construyendo sistemas de inteligencia artificial cada vez más avanzados, diseñados de alguna manera para imitar el cableado del cerebro, con el propósito de llevar a cabo tareas como la visión por computadora y el procesamiento del lenguaje natural.

La nueva investigación del MIT trata de superar el obstáculo de que el uso de circuitos de semiconductores de última generación para simular redes neuronales requiere grandes cantidades de memoria y un alto consumo de energía.

Los hallazgos en tecnología basada en iones, que se presentan en Nature Communications, puede permitir simulaciones energéticamente eficientes del proceso de aprendizaje del cerebro, para sistemas de inteligencia artificial de redes neuronales.

Las redes neuronales intentan simular la forma en que se lleva a cabo el aprendizaje en el cerebro, que se basa en el fortalecimiento o debilitamiento gradual de las conexiones entre las neuronas, conocidas como sinapsis. El componente central de la red física es el interruptor resistivo, cuya conductancia electrónica se puede controlar eléctricamente, lo que emula ese proceso.

En las redes neuronales que utilizan la tecnología convencional de microchips de silicio, la simulación de estas sinapsis es un proceso muy intensivo en energía.

El nuevo sistema "aborda el desafío energético y el relacionado con la repetibilidad", afirmó en un comunicado Bilge Yildiz, autor del estudio y profesor de ciencias e ingeniería nuclear y de ciencia e ingeniería de materiales.

El interruptor resistivo en este trabajo es un dispositivo electroquímico hecho de trióxido de tungsteno y funciona de manera similar a la carga y descarga de baterías.

"Es similar al dopaje de los semiconductores", indicó Ju Li, coautor del estudio y profesor de ciencias e ingeniería nuclear y de ciencia e ingeniería de materiales.

Página 1 de 9