© Foto : Pixabay/geralt

Cosmólogos de la Universidad de California en Riverside utilizaron una serie de herramientas y una nueva técnica para calcular cuánta materia hay en el universo.

 

Para calcularla, los científicos primero contaron la materia en una sola galaxia observando cómo órbita las galaxias vecinas, y luego escalaron la cantidad para todo el universo. 

El equipo descubrió que la materia constituye el 31% del universo, el resto es energía oscura, una "forma desconocida de energía" que los científicos aún no entienden.

Según los autores del estudio, de ese 31%, el 80% lo constituye la materia oscura, una sustancia que solo se detecta a través de sus interacciones gravitacionales con otra materia. La cantidad de materia conocida —el gas, el polvo, las estrellas, las galaxias y los planetas— constituye solo el 20%.

Determinar exactamente cuánta materia hay en el universo no es una tarea fácil, explicaron los cosmólogos, al indicar que depende tanto de las observaciones como de las simulaciones.

"Hemos tenido éxito en hacer una de las medidas más precisas jamás hechas usando la técnica de cúmulos de galaxias", afirmó la coautora Gillian Wilson.

Este fue el primer uso de la técnica de la órbita de las galaxias, que implica determinar la cantidad de materia en una sola galaxia mirando cómo orbita otras galaxias. 

Como parte de su medición, el equipo comparó sus resultados con otras predicciones y simulaciones para obtener una cifra que "parecía perfecta".

"Un mayor porcentaje de materia daría como resultado más cúmulos", explicó el autor principal, Mohamed Abdullah.

"Pero es difícil medir la masa de cualquier cúmulo de galaxias con precisión porque la mayor parte de la materia es oscura y no podemos verla con telescopios", agregó.

La materia oscura es una sustancia relativamente desconocida que se cree que es el pegamento gravitacional que mantiene las galaxias juntas. Los cálculos muestran que muchas galaxias se separarían en lugar de rotar si no se mantuvieran unidas por una gran cantidad de materia oscura. Nunca ha sido observada directamente y solo puede ser vista a través de su interacción gravitacional con otras formas de materia. 

Para superar esta dificultad, los astrónomos desarrollaron GalWeight, una herramienta cosmológica para medir la masa de un cúmulo de galaxias usando las órbitas de sus galaxias miembros.

Con ayuda de esta herramienta, los investigadores crearon un catálogo de cúmulos de galaxias. Finalmente, compararon el número de cúmulos en su nuevo catálogo con simulaciones para determinar la cantidad total de materia en el universo. 

"Una gran ventaja de usar nuestra técnica de órbita de galaxias GalWeight fue que nuestro equipo pudo determinar una masa para cada cúmulo individualmente en lugar de depender de métodos estadísticos más indirectos", reveló el tercer coautor, Anatoli Klipin.

04:05 GMT 30.09.2020URL corto

Los hallazgos se han publicado en el Astrophysical Journal. 

Simulación de una fusión de agujero negro binario.Foto Afp

 

Descubren la colisión de dos hoyos negros que creó uno nuevo de tamaño jamás visto // Tardó 7 mil millones de años en revelarse a la ciencia

 

Washington. Los agujeros negros no dejan de causar extrañeza, incluso a los astrónomos. Acaban de detectar la señal de una antiquísima colisión violenta de dos de ellos que creó uno nuevo de tamaño jamás visto.

“Es la explosión más violenta desde el Big Bang que haya observado la humanidad”, señaló Alan Weinstein, del Instituto Tecnológico de California y miembro del equipo que efectuó el descubrimiento.

Demoró 7 mil millones de años en revelarse a la ciencia: un agujero negro masivo de un nuevo tipo, fruto de la fusión de dos agujeros negros, fue observado directamente por primera vez gracias a las ondas gravitacionales, anunciaron ayer dos estudios.

Este hallazgo constituye la primera prueba directa de la existencia de agujeros negros de masa intermedia (entre 100 y 100 mil veces más masivos que el Sol) y podría explicar uno de los enigmas de la cosmología, esto es, la formación de estos objetos supermasivos presentes en varias galaxias, incluida la Vía Láctea.

¡Es una puerta que se abre sobre un nuevo paisaje cósmico!, se felicitó en rueda de prensa Stavros Katsanevas, director de Virgo, uno de los dos detectores de ondas gravitacionales que captaron las señales de este nuevo agujero negro.

Se trata de regiones del espacio tan densas que ni siquiera dejan escapar la luz. Los observados hasta ahora eran de dos tamaños en general. Unos son “pequeños”, llamados agujeros negros estelares, formados cuando se colapsa una estrella y su tamaño es alrededor del de una ciudad pequeña. Los otros son los supermasivos, millones o miles de millones de veces más masivos que el Sol, en torno de los cuales giran galaxias enteras.

Según estimaciones de los astrónomos, no tenía sentido que los hubiera de dimensiones intermedias porque las estrellas que crecían demasiado antes de colapsar se consumen sin dejar agujeros negros.

Según los científicos, el colapso de una estrella no podía crear un agujero negro estelar mucho mayor que 70 veces la masa de nuestro Sol, explicó Nelson Christensen, del Centro Nacional de Investigación Científica de Francia.

Sin embargo, en mayo de 2019 dos detectores captaron una señal que resultó ser la energía de dos agujeros negros estelares –cada uno de ellos demasiado grande para ser un estelar– que chocaban entre sí. Uno tenía 66 veces la masa de nuestro Sol y el otro 85 veces.

Resultado de ello fue el primer agujero negro intermedio que se haya descubierto con 142 veces la masa del Sol.

En la colisión se perdió una enorme cantidad de energía bajo la forma de una onda gravitatoria, que viaja por el espacio a la velocidad de la luz. Esa es la onda que captaron el año pasado los físicos en Estados Unidos y Europa por medio de detectores llamados LIGO y Virgo. Tras descifrar la señal y verificar el trabajo, los científicos publicaron los resultados este miércoles en las revistas Physical Review Letters y Astrophysical Journal Letters.

Debido a que los detectores permiten captar las ondas gravitatorias como señales de audio, los científicos pudieron escuchar la colisión, que por ser tan violenta y dramática, duró apenas una décima de segundo.

“Suena como un golpe sordo, no como gran cosa en un parlante”, concluyó Weinstein.

(Con información de Afp)

Uno de los artefactos se podría inyectar con una aguja hipodérmica. Poseen cuatro patas y se alimentan mediante células solares. Foto Afp

París. Microscópicos e hiperresistentes. Así son los robots capaces de desplazarse a cuatro patas desarrollados por un equipo de investigadores, según un estudio publicado en la revista Nature.

Estos robots, cuyo tamaño equivale al grosor de un cabello, "son invisibles para el ojo humano. Poseen cuatro patas y se alimentan mediante células solares implantadas. Podemos hacer mover sus piernas enviando una luz láser sobre estas células fotovoltaicas, lo que les permite caminar", explicó Marc Miskin, de la Universidad de Cornell, en Estados Unidos.

Cada robot está constituido de un simple circuito fabricado a partir de células fotovoltaicas de silicio (el cuerpo) y de cuatro accionadores electroquímicos (las patas).

Según el estudio, estos mecanismos son robustos porque pueden sobrevivir en entornos muy ácidos y a variaciones de temperaturas de más de 70 grados Celsius.

Un millón de ejemplares

Se produjeron más de un millón de estos robots, que "podrían inyectarse mediante agujas hipodérmicas, ofreciendo la posibilidad de explorar entornos biológicos", según el estudio, o bien ser útiles, por ejemplo, para la reparación de materiales a escala microscópica.

"Cincuenta años de reducción de electrónica nos condujeron a tecnologías extremadamente minúsculas: se pueden construir captores, ordenadores, memoria, todo en espacios muy reducidos, pero si uno quiere también robots, necesita accionadores, piezas que se muevan", sin necesidad de una fuente de energía demasiado pesada ni voluminosa, señaló Miskin.

Por ahora, están lejos de ser perfectos: son lentos e incontrolables.

Sin embargo, asociados a componentes microelectrónicos podrían convertirse en microrrobots autónomos, según los autores.

Pero "para llegar a la fase de aplicaciones, todavía queda mucho trabajo por realizar", concluyó Miskin.

Una bomba nuclear estadounidense tipo 'Fat Man', que se utilizó en el bombardeo de Nagasaki

En agosto de 1945 la Alemania nazi ya había sido derrotada, pero EEUU necesitaba mandar un mensaje de supremacía al mundo, y así lo hizo.

 

Fue Harry Truman, presidente norteamericano, el encargado de dar la orden de utilizar armas de destrucción masiva contra Hiroshima y Nagasaki, llevando así a cabo un proyecto anhelado durante varios años por los Gobiernos de EEUU y Gran Bretaña.

En 1940, antes del ataque japonés a Pearl Harbor, la investigación científica para la guerra unió a EEUU y Gran Bretaña, y muchos de sus logros militares provienen de esa alianza, ya que al amparo de la misma se inició la investigación para desarrollar la bomba atómica.

Por cuanto que en ese momento Gran Bretaña estaba expuesta a ataques aéreos constantes y estaba amenazada por una posible invasión nazi, el primer ministro Churchill y el presidente Roosevelt acordaron que era prudente llevar a cabo el proyecto nuclear en EEUU.

La inteligencia soviética sabía que desde 1939 los científicos de Inglaterra, Estados Unidos, Alemania, Francia y otros países habían comenzado a tratar de cerca el problema de la fisión del núcleo atómico y trataban de obtener una nueva fuente de energía atómica.

Los informes sobre la intensificación del desarrollo de una nueva temible arma fue transmitida a la URSS en septiembre de 1941 por un miembro del famoso grupo de agentes prosoviéticos Cambridge Five, John Cairncross, quien logró obtener un informe secreto para el primer ministro británico Winston Churchill sobre los planes de crear armas atómicas de destrucción masiva, junto con EEUU.

 

Estudios secretos y víctimas silenciadas

 

La biblioteca de Truman cuenta en sus archivos digitales con un documento titulado Evaluación sobre bombardeos estratégicos de los Estados Unidos: los efectos de las bombas atómicas en Hiroshima y Nagasaki, aunque no se detallan muchos aspectos, en especial el referido a los efectos de la radiación en los sobrevivientes.

Luego de la rendición japonesa, EEUU implantó una política del silencio sobre cualquier cosa relacionada con los bombardeos o los efectos de la radiación. La única investigación autorizada era realizada por la comisión sobre las víctimas de la bomba atómica —Atomic Bomb Casualty Commission (ABCC)—. Si bien dicha comisión realizó exámenes médicos, no suministró atención médica porque su misión tenía un mandato de no realizar curaciones o tratamiento, afirma Atomicheritage.

Según dicha organización el tratamiento en sí se convirtió en un problema político porque, a la vista del público, tratar y curar a los hibakusha (como se les llama a las víctimas de los bombardeos atómicos norteamericanos) podría haber constituido una expiación estadounidense por los bombardeos atómicos, es decir un reconocimiento del crimen masivo.

En una publicación del diario oficial de la Academia Nacional de Ciencias de EEUU, se relata sobre los estudios epidemiológicos y genéticos de los sobrevivientes y de sus hijos por parte de la ABCC y su sucesora, la fundación de investigación de efectos de la radiación (RERF). Pero las víctimas afirman que la información fue distorsionada y ocultada por parte de la ABCC y que nunca recibieron tratamiento, y solo fueron fotografiados y luego enviados a casa.

Peor aún, las víctimas estaban restringidas por su propia autocensura. Muchas se ocultaron durante años, sentían vergüenza por sus deformaciones, sus heridas, sus enfermedades y, sobre todo, un deseo de olvidar el pasado.

 

El ignominioso escuadrón japonés 731

 

La humanidad tampoco debe olvidar algunas acciones del Ejército imperial japonés, en especial las referidas a sus proyectos de creación de armas biológicas de destrucción masiva, para lo cual utilizaron seres vivos: humanos y animales.

La película Men Behind the Sun, controversial por sus crueles escenas, relata que presos chinos, coreanos y soviéticos eran sujeto de experimentos inhumanos a cargo del Escuadrón 731 del Ejército imperial japonés. 

Tales hechos serían difíciles de creer si hoy no conociéramos los registros del proceso de Jabárovsk llevado a cabo por los soviéticos en 1949 y por los documentos desclasificados por los norteamericanos.

El Mengele nipón, Ishii Shiro, a la cabeza del Escuadrón 731, tenía como misión desarrollar armas biológicas para su Gobierno, en la región de Harbin al norte de China, ocupada por los japoneses. Así lo relató durante el juicio en Jabárovsk, Yoshio Shinozuka, miembro del escuadrón, quien afirmó que habían criado pulgas infectadas de tifus en ratas, ántrax, peste y cólera para usar contra el Ejército soviético.

La Unión Soviética logró enjuiciar por crímenes de guerra a 12 militares japoneses del Escuadrón 731, pero no pudo enjuiciar a Ishii Shiro, porque simplemente se había esfumado.

Durante muchos años se negó la actividad de dicho escuadrón, pero EEUU fue desclasificando cientos de documentos que dan cuenta de los "experimentos de guerra biológica". El proceso de Jabárovsk permitió a los soviéticos conocer detalles dolorosos, inmorales y de altísima peligrosidad.

Uno de los enjuiciados fue K. Kawashima, jefe del departamento de producción en el destacamento 731, quien reconoció que "el departamento de producción estaba muy bien equipado para el cultivo de bacterias, lo que nos permitió producir mensualmente en forma pura hasta 300 kilogramos de bacterias de peste, o hasta 500-600 kilogramos de bacterias de ántrax, o hasta 800-900 kilogramos de bacterias tifoideas, paratifoideas o disenterías o hasta 1.000 kilogramos de bacterias del cólera".

A pesar de los intentos, los soviéticos no pudieron nunca capturar ni enjuiciar al cabecilla del escuadrón, Ishii Shiro. ¿Por qué? El hecho es que, la información sobre las armas biológicas que el Imperio japonés había acumulado durante los experimentos, fue utilizada posteriormente como herramienta de negociación con EEUU.

La potencia norteamericana decidió otorgar libertad e inmunidad a Ishii Shiro y a otros miembros del nefasto Escuadrón 731, a cambio de la información que poseían. Toda una canallada histórica e inmoral.

 

La relación entre EEUU y Japón

 

EEUU a lo largo de estas décadas ha sabido manejar y construir con Japón una relación compleja pero muy favorable a sus intereses. Entre los acuerdos y tratados firmados se puede destacar el Tratado de cooperación mutua y seguridad entre Japón y EEUU que otorgó a EEUU el uso de áreas e instalaciones japonesas por parte de sus fuerzas terrestre, aéreas y naval.

Las bases en Japón son relevantes para la estrategia estadounidense. El portaaviones USS Kitty Hawk con sede en Yokosuka participó en los conflictos en Afganistán e Irak. Los aviones de combate estacionados en Misawa y Kadena también se desplegaron en Irak a partir de 2003. Las bases en Okinawa en particular son cruciales para sus acciones en el océano Índico y Oriente Medio y durante la guerra de Vietnam jugaron un rol estratégico y logístico importante.

En mayo de 2016 cuando el presidente norteamericano Barack Obama visitó Hiroshima afirmó que los hechos en Hiroshima y Nagasaki "demostraron que la humanidad poseía los medios para destruirse a sí misma", es decir, atribuyó a toda la humanidad la posesión de esos medios de destrucción masiva, lo cual es un embuste.

Evidentemente, la presencia militar norteamericana en territorio japonés es una piedra angular para los intereses de EEUU en Asia y han sabido construirla de manera sostenida y firme a pesar de toda la historia precedente.

La amenaza del uso de armas de destrucción masiva se ha incrementado
Mientras tanto, hoy, en el mundo hay unas 22.000 armas nucleares y se han llevado a cabo más de 2.000 ensayos nucleares.

Los países han firmado varios tratados multilaterales para detener la carrera armamentista nuclear, entre ellos, el Tratado sobre la No Proliferación de las Armas Nucleares (TNP) y en 2017 se avanzó hacia el Tratado sobre la Prohibición de las Armas Nucleares, donde cada Estado firmante se compromete a nunca y bajo ninguna circunstancia, desarrollar, ensayar, producir, adquirir, poseer o almacenar armas nucleares y a no usar o amenazar con usar armas nucleares.

Este tratado representa el único compromiso vinculante de desarme en un tratado multilateral por parte de los Estados poseedores de armas nucleares. Los países signatarios por ahora suman 82, pero sólo 40 lo han ratificado y para entrar en vigor necesita de 50.

Este año 2020 debía celebrarse la Conferencia Examen del Tratado de No Proliferación TNP, pero debido a la pandemia del COVID-19 lamentablemente debió posponerse hasta 2021.

Cuba por su parte nos recuerda y alerta que "las 1.750 ojivas nucleares desplegadas son más que suficientes para destruir la civilización varias veces. De ellas, más del 46% está en manos de EEUU".

La Segunda Guerra Mundial ha dejado muchas lecciones y eventos cruentos que no debemos olvidar ni permitir que las jóvenes generaciones desconozcan. Es importante refrescar la memoria para que no se repita.

2 agosto 2020 | 3

(Tomando de Sputnik)

Publicado enInternacional
Electrosensibilidad, 5G y el determinismo biológico como caballo de Troya

Existe todo un movimiento organizado que reivindica una moratoria en la implantación del 5G, la reducción de las emisiones de estas radiaciones y un mayor estudio de sus efectos sobre la salud. Los argumentos de los promotores de su desmantelamiento son diversos: ambientales, energéticos, decrecentistas, por los problemas que generará en la investigación astronómica, o por motivos de salud. En este último, sus detractores van desde los que afirman que es causante de la electrosensibilidad, una enfermedad “ambiental emergente”, que sufren miles de personas y cuya etiología no ha sido descubierta, a ser responsable del incremento de enfermedades como el cáncer; pasando por teorías como que es causante de la pandemia de la COVID19. 

La divulgación científica de masas afronta este asunto como otro objetivo blando, tipo homeopatía, chemtrails, etc. Y lo hace con arrogancia, autoritarismo y cientifismo. Siendo el cientifismo el motor del negacionismo científico. Además, desde los 80, la medicina se encuentra en un proceso de “biomedicalización”, que consiste en una transformación tecnocientífica de los conceptos de salud y enfermedad (Clarke, 2003). La biomedicalización tiene un brazo tecnocientífico, donde lo sanitario se mercantiliza, donde la tecnología domina lo epistemológico. La medicina, una “ciencia social” (Rudolf Virchow), que de manera holística (término denostado) debería afrontar el bienestar humano, se ha convertido en un taller de coches. Un coche funciona o no, y cuando se estropea se diagnostica el problema y se intenta arreglar. 

Otro elemento fundamental de la biomedicalización es que ha extendido en las sociedades una ideología reduccionista, el determinismo biológico. Aquel dogma por el que todo fenómeno en los organismos se puede reducir a una fenómeno biológico. Desde un resfriado a una depresión tiene una explicación biológica de que algo en el coche no va bien. Sin embargo, aunque el material que compone el coche es acero y plástico, pero esos materiales, sus engranajes, no explican el funcionamiento del coche. De igual manera, las neuronas y sus conexiones son la base material de la consciencia, pero no la explican. Así, si algo cambia en esa base material repercutirá en el comportamiento, las emociones, etc. pero eso no significa que los cambios en las emociones estén causadas por alteraciones comprensibles en la materia. Atención, no estamos defendiendo la existencia del alma como entidad separada de la materia, sino el idealismo por el que la ideología reduccionista dominante pretende que las propiedades emergentes como la consciencia se reduzcan a mecanismos biológicos.

El tercer elemento es el solucionismo. Tenemos la explicación biológica (mecanicista), tenemos la tecnología (tecnociencia) – y si no, es cuestión de tiempo y recursos producirla – y por tanto tenemos la solución, tecnológica. Este fenómeno, que apenas tiene unas pocas décadas, acelerado por desarrollos tecnocientíficos como la genómica, tiene profundas consecuencias sociales y médicas.

Pongamos como ejemplo la depresión, cajón de sastre de criterios muy laxos, que casi siempre tiene unas causas estructurales (económicas, emocionales, históricas) y, por tanto, habría que afrontarlas de manera sistémica. Sin embargo, la ideología biologicista ha hecho que ya no sea un fenómeno que trasciende al individuo que necesita por un lado de cuidados, sostén y psicoterapia, abordaje individual, y por otro de soluciones estructurales (laborales, económicas, sociales), sino un fenómeno biológico que puede ser corregido mediante tecnología. Tú no estás jodido porque en este mundo lo raro es no estarlo, sino por tus desequilibrios en la serotonina. La consecuencia de este fenómeno es la medicalización de todos los fenómenos categorizados como “enfermedad”. Por eso, a menudo se habla de que se están generando nuevas enfermedades (enfermos). Otros ejemplos son el trastorno de déficit de atención e hiperactividad, o el autismo. Es obvio que no puede ser que en solo unos pocos años nos hayamos encontrado con una epidemia de autismo, sino que se están catalogando como ese síndrome una variedad enorme de sufrimientos, para así abordarlos de manera determinista. 

Porque la biomedicalización y la ideología biologicista no solo lleva al tratamiento biológico de todo lo considerado enfermedad, sino a la parcelación y segmentación de fenómenos psicológicos, y a menudo culturales, para conseguir “el diagnóstico”. Surge el paradigma de la “enfermedad mental”, que lleva asociado por supuesto el negocio de la psicofarmacologia expansiva.

En esta década, con el abaratamiento de la secuenciación masiva, este biologicismo con los fenómenos psicológicos (con o sin sufrimiento), ha llevado a un fuerte resurgir de una neo-eugenesia, financiada con dinero público, con la que estos “científicos” asocian patrones de expresión génica con la susceptibilidad a la pobreza, a la posibilidad de ser víctima de abuso infantil, o a la homosexualidad. Y por tanto, susceptible de corrección de todas estas desviaciones de la norma.

Por otro lado, y con la crisis de la Covid-19 se está viendo acentuado, existen muchísimas personas que sufren a las que la biomedicina es incapaz de diagnosticar, o sea, de encasillar. Para ello, continuamente se generan nuevas categorías “médicas” sin etiología biológica, cajones de sastre para personas sufrientes, mientras se encuentra el “marcador”. Pero claro, para la biomedicina, si no tienes un relato biológico, ahí se incluirían muchísimas “enfermedades raras”, eres una persona enferma de tercera división, cuando no directamente psicosomático, y por tanto loca.

Aquí podemos introducir otro elemento. La arrogancia científica y médica a la que llaman “medicina basada en la evidencia”. De esa manera se arrogan la autoridad para decir qué es una enfermedad, o una “histeria”, que tiene que ser tratada como enfermedad mental no catalogada, con fármacos anuladores.

Entonces, las personas sufrientes, que no encajan en el dogma del todo es biológico, ¿qué tienen que hacer para ser cuidadas y atendidas para mejorar su estado? Buscar y hacer lobby para que se busque la fuente biológica de su mal. ¡Qué remedio! Porque si no, son simplemente mujeres vagas, quejicas, histéricas, que quieren una paguita por no hacer nada. El clavo ardiendo es la prueba de lo material, lo biológico, que hará que los señores, médicos y científicos, pero también jueces y seguridad social, entonces sí, se fijen en su sufrimiento. Si no, ni ayuda médica, ni ayuda social.

¿Con qué problema nos encontramos? ¿Cómo resolvemos este entuerto sin paternalismos, condescendencia ni pensamiento mágico o postulados anticientíficos?

Pues es un temazo, como dicen. En una sociedad donde lo que no tiene base material no existe, y donde hay que explicarlo todo de manera mecanicista, no hay cabida para fenómenos que la ciencia al uso no puede explicar. Parto del escepticismo, o sea, de que la ciencia no ha desvelado todos los misterios de la naturaleza, y que a lo mejor no lo podrá hacer.

Pero estamos convencidos de que existe una vía de en medio, una alternativa al dualismo. No existen evidencias en la física o la biología que expliquen que la 5G, esa longitud de onda de la TDT, una onda de radio, sea causante de todos esos efectos biológicos que desde grupos como Plataforma STOP 5G, Ecologistas en acción o la asociación Electro Químico Sensibles por el Derecho a la Salud se dicen. En esta última he buscado alguna referencia científica (revisada por pares) pero no tienen ninguna en su página. Me han enviado decenas de textos, vídeos, conferencias sobre los efectos de estas radiaciones sobre la biología y sin embargo aún nadie me ha mostrado nada coherente con el consenso científico y la biología fundamental. 

Las personas de esos colectivos, el “consenso científico” lo asocian al autoritarismo. Sin embargo, tomado con sano escepticismo, el consenso científico es lo que nos permite agarrarnos a una realidad cada vez más volátil, más dependiente de los relatos, pensamientos mágicos y bulos. Véase por ejemplo el cambio climático, si no fuese porque las organizaciones ecologistas se han basado y agarrado al consenso científico, estaríamos aún peor. La evidencia científica debe ser publicada en revistas científicas y revisadas por pares, y para que haya consenso tiene que ser reproducida por grupos independientes. Y al contrario también hay ejemplos. No hay consenso científico en que la energía nuclear sea una alternativa a las energías fósiles, sin embargo, sí hay un potente lobby científico pro-nuclear. 

Y eso es lo que más desconcierta en Ecologistas en acción. Hoy día son el colectivo que mejor sabe leer la evidencia científica en aspectos ambientales y de crisis energética, así como muchos de sus miembros son los que mejores propuestas anticapitalistas tienen. Sin embargo, en aspectos como la “contaminación electromagnética” es justamente lo opuesto, no interpretan correctamente la evidencia. Evidentemente esto tiene que ver con su historia y su pluralidad. 

Ecologistas apoya la “Declaración científica internacional de Madrid”.  En ella se hacen afirmaciones muy serias: “La exposición a campos electromagnéticos artificiales…generan una situación indiscutible e insoslayable de impacto en la salud pública”; Pongamos otro ejemplo: “resoluciones firmadas por cientos de científicos y médicos independientes que están alertando de que estas tecnologías, “en niveles miles de veces por debajo de las directrices legales actuales”, “son extremadamente dañinas para toda clase de vida”. Ponen un enlace, pero ahí no encuentro ningún artículo científico. Después siguen: “Dos mil artículos científicos revisados por pares hablan de cáncer, estrés celular, radicales libres dañinos, daños genéticos, cambios estructurales y funcionales del sistema reproductivo, déficit de aprendizaje y memoria, trastornos neurológicos…” ¿hablan? Por supuesto que hay muchísimos estudios al respecto, pero ¿esos dos mil artículos concluyen que esas radiaciones son “extremadamente dañinas para toda clase de vida”? 

¿Existe toda una conspiración para ocultar esa clamorosa evidencia por parte de científicos e instituciones?

En Rebelion.org se publicó esta entrevista a Blanca Salinas Álvarez, miembra de Ecologistas en acción. Este párrafo de la entrevista es muy representativo:

Las investigaciones apuntan a que los químicos y las ondas interactúan. Muchos de los químicos que todos tenemos en sangre (la media es de 40 químicos, sólo el 2% de ellos estudiados antes de su introducción en el mercado) son xenoestrógenos, disruptores endocrinos que imitan a los estrógenos, hormona femenina por excelencia. Se acumulan en la grasa y las mujeres tenemos un 20% más de materia grasa, luego somos bioacumuladoras. Estas sustancias alteran todos los equilibrios hormonales femeninos y afectan también al sistema nervioso, inmunológico y celular. Estudios científicos apuntan a que las ondas electromagnéticas agravan el problema, pues entre otras cosas, abren la barrera hematoencefálica que protege al cerebro (lo que posibilita que esos químicos accedan a él) y abren excesivamente los canales iónicos celulares dependientes de voltaje, especialmente los canales de calcio, generando un fuerte estrés oxidativo y graves daños celulares y metabólicos.

Estas afirmaciones plantean problemas de comunicación graves al no tener ningún sentido biológico. Si alguien dijera que los aviones vuelan porque a 11 mil metros hay menos gravedad, todo el mundo se daría cuenta que no tiene sentido, que la gravedad sigue siendo lo suficientemente alta a esa altura para hacer caer el avión. Y eso se sabe porque la física lo ha demostrado (no solo la experiencia). Sin embargo, cuando alguien sin formación en biología dice que los disruptores interaccionan con las ondas electromagnéticas y abren los canales iónicos dependientes de voltaje, especialmente los canales de calcio, generando estrés oxidativo… Se han puesto muchas palabras de biología raras seguidas sin ningún sentido. 

Y así podríamos poner muchísimos ejemplos de la pobrísima calidad epistemológica del argumentario sobre salud y 5G. Pero, de nuevo, el diálogo es inviable cuando para las cuestiones de cambio climático el consenso científico sirve, mientras que para las cuestiones de biología celular ni siquiera los libros de texto, el ABC de la biología más que demostrada vale, y se convierte entonces en arrogancia cientifista. 

Para los que estamos en contra de la implantación del 5G por motivos ambientales y socio-políticos (desarrollismo vs. decrecentismo), nada nos gustaría más, de verdad, que encontrar un buen artículo, con sus controles, que demuestre un efecto tan pernicioso sobre la salud. Es muy importante dejar claro que el que no se hayan demostrado sus efectos biológicos, no quiere decir que haya que afirmar categóricamente que no existan. De hecho, la OMS, a través de la IARC, catalogó en 2011 a las radiaciones no ionizantes de los móviles dentro del grupo 2B de los posibles riesgos de cáncer, grupo en el que están los agentes que es posible que sean cancerígenos. Es decir, se tiene algún indicio de peligro a las dosis que estamos recibiendo pero no es en absoluto convincente y, ni mucho menos, es probable que lo haya. La lista 2B de la IARC recoge actualmente a 313 agentes clasificados como «Posibles carcinógenos en humanos”. O sea, hay evidencia que no llega a ser concluyente de que la exposición puede causar cáncer en humanos. ¡Como los vegetales en escabeche!

La IARC no determina riesgos, solo trata de determinar si un agente es cancerígeno o no. Si mete un agente en una lista es por algo. En sucesivas revisiones puede quitarlo de la lista o subirlo de categoría. 

A partir de aquí, el sano escepticismo nos debe hacer exigir que se sigan tomando datos epidemiológicos y estudios biofísicos de las improbables interacciones entre ondas de baja frecuencia y los organismos. Por otro lado, luchar contra el determinismo biológico y por el cuidado en igualdad de condiciones de todas las personas afectadas por cualquier dolencia sin base biológica (probada). Esos cuidados se deben hacer de manera integral y desde diversas disciplinas sin menoscabar ninguno de sus derechos y por supuesto sin estigmatización. 

Por Alfredo Caro Maldonado | 22/07/2020 

Alfredo Caro Maldonado @cienciamundana, es doctor en biología celular

Un técnico comprueba uno o de los grandes espejos situados en los extremos del detector LIGO./MATT HEINTZE/CALTECH/MIT/LIGO LAB

Los fenómenos microscópicos afectan a los aislados espejos del gigantesco detector de ondas gravitacionales LIGO.

 

Y sin embargo se mueven. La famosa frase de Galileo se podría aplicar a los espejos del gigantesco instrumento LIGO, que hizo historia cuando detectó ondas gravitacionales por primera vez. Ahora, sus científicos han comprobado que el ámbito de la física cuántica no se reduce a lo muy pequeño, lo invisible e imperceptible, lo que supuestamente no afecta a cualquier objeto no microscópico. El omnipresente y constante ruido cuántico inherente al Universo se muestra en su especial ambiente de trabajo y consigue mover objetos macroscópicos de 40 kilogramos de peso, como son los espejos que contiene LIGO. Este efecto, que han podido medir, se produce a temperatura ambiente.

"Se trata de algo notable, porque estas fluctuaciones ocurren en unas escalas de tamaño que son comparables a las dimensiones de las partículas elementales", comentan Valeria Sequino y Mateusz Bawaj en la revistaNature, donde se publica el trabajo de los científicos de LIGO. El ruido cuántico, normalmente imperceptible pero siempre presente, incluso en el llamado vacío en el que trabaja LIGO, puede llegar a mover estos grandes espejos una distancia pequeñísima, de 10 a 20 metros. "Un átomo de hidrógeno mide 10 a -10 metros, así que el desplazamiento de los espejos es a un átomo de hidrógeno lo que un átomo de hidrógeno es a nosotros, y lo medimos", explica LeeMcCuller, investigadorkavli in del Instituto Kavli de Astrofísica y miembro del equipo del Instituto Tecnológico de Massachussetts (MIT) en LIGO.

Los científicos pretendían con su trabajo aumentar la sensibilidad de la instalación de LIGO situada en Louisiana (EEUU) y formada por dos túneles de cuatro kilómetros de longitud en angulo recto con espejos en los extremos. "Lo especial de este experimento es que hemos visto efectos cuánticos en algo que es tan grande como un ser humano", señala Nergis Mavalvala. "En cada nanosegundo de nuestra existencia a nosotros también nos mueven estas fluctuaciones cuánticas pero nuestra energía térmica es demasiado grande para que afecten a nuestros movimientos tanto que se pueda medir. Con los espejos de LIGO hemos trabajado mucho para aislarlos de las fuerzas térmicas y de otro tipo, así que están tan quietos que los mueven las fluctuaciones cuánticas, estas extrañas palomitas que explotan continuamente en el Universo".

De hecho, el desplazamiento de los espejos es algo que se ajusta a las predicciones de la mecánica cuántica para objetos de este tamaño pero nunca antes se había podido medir, informa el MIT.

LIGO es un interferómetro excepcionalmente sensible que permite detectar las consecuencias de algunos de los acontecimientos más catastróficos en el Universo, como la fusión de dos agujeros negros, en forma de ondas gravitacionales. Ese fue su primer resultado, en 2015. Desde entonces ha observado varias fusiones más, tanto de agujeros negros como de estrellas de neutrones.

El detector funciona con luz laser y ya se sabe que la luz es tanto onda como partícula y que en las medidas de esta radiación se aplica el principio de incertidumbre de Heisenberg, por el cual no es posible medir la posición y el momento de un objeto de forma simultánea con precisión ilimitada. De ahí el intento de reducir lo más posible la incertidumbre en las medidas de LIGO para poder aumentar la sensibilidad y detectar más fenómenos.

Los científicos lo han conseguido al reducir el ruido cuántico con instrumentos nuevos y de paso han comprobado que la física cuántica no se aplica solo, a efectos prácticos, a lo muy pequeño. No está mal para un solo experimento, aunque luego haya habido que suspender el trabajo con el detector LIGO temporalmente por el coronavirus.

07/07/2020 07:17

 

Científicos del CERN descubrieron una partícula nunca observada antes

El Centro Europeo de Física de Partículas (CERN) anunció este miércoles el descubrimiento de una nueva partícula formada por cuatro quarks que, según los investigadores, ayudará a entender la forma en que éstos interactúan para formar los protones y neutrones que se encuentran en el núcleo de los átomos.

Ni la partícula ni la clase a la que pertenecería habían sido observadas con anterioridad, y son especialmente raros dado que los quarks, partículas elementales mínimas en la física subatómica, se suelen agrupar en parejas o tríos para formar hadrones -de los que los protones y neutrones son ejemplos-.

El CERN señaló en un comunicado que se pudo dar con el hallazgo gracias a observaciones en el LHCb, uno de los cuatro equipos de experimentación situados en diferentes zonas del Gran Colisionador de Hadrones. A su vez, indicó que el descubrimiento fue presentado en un reciente seminario del centro y también publicado en la base de datos científicos arXiv.

La organización también explicó que los teóricos predijeron durante décadas la existencia de hadrones de cuatro y cinco quarks, descritos en ocasiones como tetraquarks y pentaquarks. Hace algunos años, experimentos como el LHCb pudieron confirmar la existencia de algunos de estos hadrones “exóticos”.

Según el CERN, estas partículas con una rara combinación de quarks son “un laboratorio ideal para estudiar una de las cuatro fuerzas fundamentales de la naturaleza conocidas, aquélla que enlaza protones, neutrones y el núcleo atómico que componen la materia”.

Además, resaltó que el estudio de estas interacciones es esencial para determinar si procesos extraños como esta combinación de cuatro quarks muestran una “nueva física” o cumplen el modelo estándar de esta ciencia, uno de los principales propósitos de la investigación iniciada en sus aceleradores de partículas.

De esta manera, el centro aseguró que si las partículas formadas por cuatro quarks son ya de por sí extrañas, la descubierta ahora lo es aún más al ser todos del mismo tipo, el llamado quark C (de “charm”, “encanto”), el cual es considerado una modalidad “pesada”.

 “Hasta ahora los experimentos sólo habían descubierto tetraquarks con dos quarks pesados como máximo, y nunca con más de dos del mismo tipo”, detalló el portavoz de LHCb, Giovanni Passaleva, en el comunicado.

El descubrimiento se consiguió analizando datos de colisiones de partículas en los últimos períodos de actividad del Gran Colisionador de Hadrones, de 2009 a 2013 y de 2015 a 2018. El Colisionador actualmente se encuentra cerrado por trabajos de renovación y mejora, y su reapertura se prevé para mayo de 2021.

Los investigadores aclararon que todavía no es posible determinar si la nueva partícula detectada es un verdadero tetraquark o es en realidad una pareja de partículas formadas por dos quarks. Sin embargo, cualquiera de los dos casos les ayudaría a probar modelos de interacción cuántica.

Descubren en el MIT sistema más eficiente para imitar procesos cerebrales

Un equipo del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) avanzó hacia un sistema alternativo para simular redes neuronales, que usa dispositivos físicos analógicos que pueden imitar de manera mucho más eficiente los procesos cerebrales.

Equipos de todo el mundo están construyendo sistemas de inteligencia artificial cada vez más avanzados, diseñados de alguna manera para imitar el cableado del cerebro, con el propósito de llevar a cabo tareas como la visión por computadora y el procesamiento del lenguaje natural.

La nueva investigación del MIT trata de superar el obstáculo de que el uso de circuitos de semiconductores de última generación para simular redes neuronales requiere grandes cantidades de memoria y un alto consumo de energía.

Los hallazgos en tecnología basada en iones, que se presentan en Nature Communications, puede permitir simulaciones energéticamente eficientes del proceso de aprendizaje del cerebro, para sistemas de inteligencia artificial de redes neuronales.

Las redes neuronales intentan simular la forma en que se lleva a cabo el aprendizaje en el cerebro, que se basa en el fortalecimiento o debilitamiento gradual de las conexiones entre las neuronas, conocidas como sinapsis. El componente central de la red física es el interruptor resistivo, cuya conductancia electrónica se puede controlar eléctricamente, lo que emula ese proceso.

En las redes neuronales que utilizan la tecnología convencional de microchips de silicio, la simulación de estas sinapsis es un proceso muy intensivo en energía.

El nuevo sistema "aborda el desafío energético y el relacionado con la repetibilidad", afirmó en un comunicado Bilge Yildiz, autor del estudio y profesor de ciencias e ingeniería nuclear y de ciencia e ingeniería de materiales.

El interruptor resistivo en este trabajo es un dispositivo electroquímico hecho de trióxido de tungsteno y funciona de manera similar a la carga y descarga de baterías.

"Es similar al dopaje de los semiconductores", indicó Ju Li, coautor del estudio y profesor de ciencias e ingeniería nuclear y de ciencia e ingeniería de materiales.

Imagen del cielo completo visto en rayos X por el telescopio espacial eRosita./MPE/IKI

La primera imagen de un nuevo telescopio espacial ruso alemán duplica el número de fuentes emisoras conocidas hasta ahora

 

La primera imagen completa del cielo en rayos X que ha obtenido un nuevo telescopio espacial de Rusia y Alemania es espectacular, pero los datos a partir de los que se ha generado son mucho más importantes. En ella figuran más de un millón de objetos calientes y energéticos, fenómenos violentos como los lejanos agujeros negros supermasivos en el centro de las galaxias. El objetivo principal de la misión, llamada eRosita, es estudiar la misteriosa energía oscura.

El nuevo mapa del Universo, que cartografía las emisiones que no vemos en las observaciones en luz visible o en radio, muestra casi el doble de fuentes de rayos X que las identificadas durante los 60 años de existencia de este tipo de astronomía, explican los astrónomos del telescopio eRosita, lanzado en julio del año pasado. La imagen, una de varias más limitadas, es una presentación de millones y millones de datos. Por ejemplo, las unidades de luz, los fotones captados, se han coloreado en función de su energía de menos a más (del rojo al azul). Además hay que tener en cuenta, como en toda observación astronómica, que se está mirando hacia atrás en el tiempo, observando también radiación emitida cuando el Universo era más joven. En este aspecto se ha llegado cuatro veces más lejos.

"Esta imagen de todo el firmamento cambia por completo la forma en que vemos el universo energético; observamos una gran cantidad de detalles, la belleza de las imágenes es realmente impresionante", afirma Peter Predehl , investigador principal de eRosita en el Instituto Max Planck de Física Extraterrestre (MPE). Pero por delante, los científicos tienen años y años de estudio de todo lo que han captado en solo seis meses, más lo que captarán en los próximos años, dado que el último análisis parecido lo hizo el telescopio Rosat, hace 30 años, y entonces se remontó cuatro veces menos en tiempo y distancia.

Cómo se hizo el barrido del cielo en 360 grados para obtener finalmente, y tras mucho trabajo, esta imagen, merece una explicación. El telescopio eRosita va a bordo de un satélite que se mantiene en el segundo punto de Lagrange, un punto de equilibrio en el sistema Sol-Tierra situado a 1,5 millones de kilómetros de nuestro planeta. El satélite SRG es ruso y los instrumentos de eRosita alemanes.

El telescopio cuenta con siete cámaras y durante seis meses ha rotado de manera continua captando de forma uniforme todo lo que ve desde ese lugar de privilegio para la observación, dentro del Sistema Solar. Para generar la imagen, el cielo se ha proyectado en una elipse, en la que el corazón de la Vía Lactea está en el centro y la galaxia se extiende en horizontal. La Vía Láctea se ve sobre todo en azul porque al haber mucho polvo y gas entre medias en el plano galáctico solo se captan las fuentes más fuertes de rayos X. Encima se distingue en colores rojizos la llamada burbuja local de gas caliente, que están atravesando el Sol y sus planetas. El gran punto blanco es Escorpio X-1, una estrella binaria que es el la fuente de rayos X más brillante.

En cuanto a lo que aparece fuera de la galaxia, la mayoría de las fuentes detectadas son núcleos activos de galaxias muy distantes, que contienen agujeros negros supermasivos, informa MPE. Estos se mezclan con cúmulos de galaxias, que se ven como manchas brillantes por el gas caliente confinado por halos de materia oscura. También hay estrellas solitarias y binarias, agujeros negros y restos de explosiones de supernova, así como fenómenos considerados menos frecuentes y exóticos, como la fusión de dos estrellas de neutrones. "El telescopio a menudo capta inesperadas explosiones de rayos X y tenemos que alertar a los telescopios terrestres inmediatamente para intentar comprender qué los produce", explica Mara Salvato, astrónoma del equipo.

Con esta información el proyecto quiere abordar problemas básicos de la cosmología actual, para entender la evolución del Universo. Cartografiar millones de galaxias activas para comprender el efecto de la gravedad en la formación de los 100.000 cúmulos existentes estimados es un objetivo, también relacionado con intentar entender la forma de actuar de la energía oscura, que tiene que contrarrestar la gravedad, en la aceleración de la expansión del Universo.

Para los astrofísicos rusos, el camino ha sido muy largo y dificultoso desde que desapareció la Unión Soviética. En el satélite van otros telescopios rusos complementarios de eRosita y SRG es la única misión ambiciosa de astrofísica que Rusia tiene activa en la actualidad. Hasta ahora, por lo menos, está siendo todo un éxito.

23/06/2020 07:32

Por MALEN RUIZ DE ELVIRA

Astronautas crean en el espacio por primera vez en la historia el quinto estado de la materia

Se trata de los llamados condensados de Bose-Einstein, que no existen en la naturaleza y son prácticamente imposibles de crear en la Tierra.

 

A bordo de la Estación Espacial Internacional (EEI) se logró crear, por primera vez, los llamados condensados de Bose-Einstein (BEC), también conocidos como el quinto estado de la materia. Un estudio a ese respecto fue publicado este jueves en la revista Nature.

Para lograrlo, los astronautas utilizaron el Cold Atom Lab (CAL), un congelador capaz de enfriar átomos en el vacío a temperaturas extremas, apenas una diez mil millonésima de grado por encima del cero absoluto, por lo que tiene la fama de constituirse en uno de los lugares más fríos del universo.

Los condensados de Bose-Einstein aparecen cuando la temperatura de un conjunto de átomos llega casi al cero absoluto, con lo que luego esas nubes gaseosas de átomos actúan de manera colectiva y no individual. Las predijeron por primera vez Albert Einstein y el matemático y físico indio Satyendra Nath Bose, hace 95 años, pero hasta 1995 este extraño quinto estado de la materia no fue observado en un laboratorio.

El problema principal es que en la Tierra la gravedad los arrastra hacia el suelo, haciéndolos desaparecer en fracciones de segundo, mientras que en el espacio pueden permanecer más tiempo. Así, en la microgravedad del espacio los átomos se ralentizan y sus longitudes de onda se alinean, lo que permite estudiar los condensados de Bose-Einstein.

El experimento con el CAL es solo un primer paso, pero podría contribuir a que algún día esos condensados sean la base de herramientas ultrasensibles para detectar señales débiles de los lugares más recónditos del universo, al igual que fenomenos como las ondas gravitacionales o los agujeros negros.

El autor principal del nuevo estudio, David Aveline, físico del Laboratorio de Propulsión a Chorro de la NASA, comentó a la revista MIT Technology Review, perteneciente al Instituto de Tecnología de Massachusetts (EE.UU.), que desde un punto de vista más práctico el trabajo de su equipo podría ayudar a mejorar sensores inerciales, desde acelerómetrosy sismómetros hasta giroscopios.

Publicado: 12 jun 2020 09:48 GMT

Página 1 de 9