Viernes, 05 Junio 2015 07:40

"El saber ya no tiene dueño"

"El saber ya no tiene dueño"

Almeida Filho analiza las dificultades de la universidad para adaptarse a los cambios socioculturales y, con una fuerte crítica al sistema educativo de Brasil, describe la experiencia de la Universidad Federal del Sur de Bahía, donde es rector.

 

El médico y académico brasileño Naomar de Almeida Filho, rector de la joven Universidad Federal del Sur de Bahía (UFSB), dice que el sistema de educación pública, tal como funciona actualmente en su país, no contribuye a la inclusión social, sino que reproduce y acrecienta las desigualdades. "Es un modelo conservador, reaccionario", señala. Almeida, quien fue rector de la Universidad Federal de Bahía (UFB), visitó Argentina invitado por la Universidad Nacional de San Martín (Unsam) y explicó allí el innovador plan de estudios implementado en la institución que dirige, fundada en 2013 con el fin de buscar alternativas a la "perversión social" que hace que las clases populares no puedan acceder a la universidad pública, pese a ser su principal fuente de financiamiento.


–¿Cuáles cree que son las características salientes del contexto sociopolítico y epistemológico en el que hoy están sumergidas las universidades?


–El contexto general es de muchos cambios sociales y culturales, muy intensos y rápidos. Hay una concentración de tecnología en las relaciones personales e institucionales también. Hay una supresión de los límites y una compresión del espacio/tiempo, es decir, muchas cosas suceden al mismo tiempo y la tecnología nos pone en contacto casi de inmediato con toda esa situación de cambio. Hay toda una concentración de esfuerzos en la dirección de un pensamiento más complejo, pero la universidad no acompaña esos cambios con velocidad, es muy conservadora en su existencia como institución.


–¿La dificultad para acoplarse al cambio es una particularidad de la universidad latinoamericana o es un problema más general?


–Es general. Creo que ese es el secreto de la supervivencia de la universidad, que hace mil años existe más o menos igual. Pero en Latinoamérica hay más dificultades para cambiar las universidades y convertirlas en centros de innovación. Un ejemplo de eso es que la estructura de las clases es la misma hace cien años. Los docentes siguen administrando las clases como si fueran dueños del saber, y el saber ahora no tiene dueño. Cualquier estudiante puede hacer una consulta en Internet y verificar si lo que está diciendo el docente es válido o no. Y la otra cosa es que siguen modelos de memorización de la información, y ya no es más necesario acumular información. La información está disponible, los medios de acceso son rápidos, fáciles.

–Usted habla de la convergencia de dos tendencias contradictorias: la profesionalización en la universidad y la desprofesionalización en la sociedad.


–Claro. Cada vez más se necesita en la vida social de gente capaz de ser flexible en todo, incluso en sus competencias profesionales. El rol de la producción, de la creación, de la innovación en la sociedad contemporánea está abierto a una mutación permanente y la universidad tiene una función social que es la de ser el centro de la innovación. La profesionalización es justamente lo opuesto a eso, es la fijación de roles, es hacer lo que se hace como siempre se ha hecho. Esta contradicción no puede resolverse directamente por un cambio de norma, por ejemplo. Es necesario un cambio de estructura y la cultura universitaria es muy señora de sí misma, lo que impide el cambio.


–Brasil y Argentina son países muy grandes, con focos urbanos que de algún modo hegemonizan la actividad académica y, al menos en Argentina, es limitada la posibilidad de obtener un título sin desplazarse hacia los centros urbanos. ¿Esto ocurre también en Brasil?


–Sí. Además de la exclusión social, porque Brasil es un país muy desigual socialmente, en términos étnico raciales también, hay una exclusión territorial muy fuerte que hace que algunos sujetos de la población que tienen aptitudes, vocaciones, motivaciones, talentos, no tengan la oportunidad de manifestar eso de una manera socialmente valorada por el hecho de que son pobres, negros, indígenas y viven lejos de los centros. Por eso, yo presenté como ejemplo de una posible institución universitaria del siglo XXI, territorializada, la Universidad Federal del Sur de Bahía, como una proposición de colegios universitarios en pequeños pueblos, en aldeas indígenas, en asentamientos del Movimiento de los Trabajadores sin Tierra o en quilombos (asentamientos afrobrasileños).


–¿Por qué sostiene que el modelo educativo brasileño reproduce la desigualdad social?


–En Brasil la gente que tiene acceso a poder político y económico envía a sus hijos a escuelas privadas muy buenas para poder aprobar los exámenes de ingreso en las universidades públicas, que son gratuitas. Y los hijos de ellos se forman en esas instituciones y tienen mejores empleos, mejores ingresos, más capital político y siguen siendo parte de esa minoría social. Pero hay un ciclo que es paralelo y opuesto a ése: la mayoría, que no tiene recursos económicos ni poder político, el pueblo, los trabajadores, los campesinos, pagan impuestos en una proporción mucho más grande de sus ingresos que los ricos o la clase media, y el Estado no tiene capacidad de ofrecer una educación pública de calidad suficiente para que sus hijos sean competitivos para entrar en las universidades públicas. Entonces, los que concluyen la enseñanza secundaria pública son obligados a pagar la universidad privada, de menor calidad. Eso es una perversión social. Genera más desigualdad, es un modelo conservador, reaccionario. De aquí la idea de tener una universidad en una región rural en el interior de Bahía (la UFSB) donde las distancias de los centros urbanos son enormes. Por ejemplo, uno de nuestros campus está a casi mil kilómetros de la capital de la región, Salvador de Bahía. Hacer que un joven de un pequeño municipio cerca de ese sitio llegue a la universidad y que las plazas no sean ocupadas por estudiantes de fuera de la región fue un desafío para el que tuvimos que crear algunas opciones interesantes.


–¿Como cuáles?


–Como la promoción del ingreso a través de la entrada no en carreras sino en una formación universitaria general. El estudiante tiene primero información sobre lo que significa ser un profesional y hace luego su elección. Es distinto al modelo convencional de universidad, donde el estudiante es forzado a hacer la elección de su carrera antes de entrar y muchas veces termina descubriendo que no es lo quiere y ya no puede cambiar. Para cambiar tiene que salir de la universidad, agregar más años y pasar por más estrés. Nuestro proyecto propone una licenciatura interdisciplinaria: el estudiante entra en grandes áreas, por ejemplo las artes, las humanidades, las ciencias, la salud, la educación, y puede cambiar. Es un proceso que tiende a disminuir el múltiple choque cultural que produce el desembarco del joven en la universidad.


–¿Qué posibilidades hay de expandir ese sistema?


–En Brasil en 2008 empezó una reforma que promocionó una reestructuración curricular en muchas universidades. De las 65 universidades federales, 18 implementaron modelos que son similares a éste. El 5 por ciento de los cupos son en cursos de esta naturaleza. Entonces, esto ya empezó en muchos sitios de Brasil. Yo estoy proponiendo que la expansión de este modelo no se limite al interior del país y a zonas rurales. Ustedes tienen acá en Argentina una concentración de inteligencia que puede agregar mucho a esta idea de la universidad como espacio para la formación en la cultura, en la ciencia, en las artes y eso es la esencia de esta propuesta: que la entrada en la universidad sea la entrada en una cultura universitaria y que dentro de ella la profesionalización sea una consecuencia, pero no un principio.


Informe: Delfina Torres Cabreros

Publicado enCultura
Lanza hoy el Pentágono el artefacto espacial X-37B en su cuarta misión secreta

La aeronave espacial X-37B saldrá hoy nuevamente al espacio en su cuarta misión secreta. El artefacto, parte de un resguardado programa espacial conducido por la Fuerza Aérea de los Estados Unidos, se dice está preparado para permanecer por dos años en la órbita espacial. El vuelo más largo del X-37B duró 675 días tras los cuales la nave aterrizó en octubre pasado.


Aunque los detalles sobre este cuarto vuelo siguen siendo un misterio, la Fuerza Aérea de EE.UU. ha reconocido que se llevaría a cabo un experimento que involucrará a un propulsor eléctrico, escribe 'Daily Mail'.


"Estamos probando un sistema de propulsión experimental a bordo del X-37B en la misión 4″, afirmó a Space.com el capitán Chris Hoyler, portavoz de la Fuerza Aérea de EE.UU. También se estudiará la durabilidad de varios materiales avanzados en el ambiente espacial, agregó el portavoz.


La ventaja de utilizar la propulsión eléctrica es que su combustible, el xenón, pesa mucho menos que la hidrazina tradicional. Esta tecnología podría ayudar en el desarrollo de tecnologías para el control de los satélites con mayor precisión.


Sin embargo, de acuerdo con el medio británico, los expertos afirman que el perfeccionamiento de un propulsor avanzado constituye solo una pequeña parte de la verdadera misión del vehículo.


El misterioso vehículo de pruebas —básicamente un simulador de la tecnología— está diseñado para orbitar la Tierra y luego aterrizar de la manera en que lo hacían los antiguos transbordadores de la NASA. Es operado de manera robótica, sin nadie a bordo, y es reutilizable.


Para algunos expertos, este dron espacial se utiliza para operaciones de espionaje. Según Steven Aftergood, académico de la Federación de Científicos Nortamericanos "El gobierno de Estados Unidos tiene un enorme apetito por información sensible. A pesar de lo poderoso que son nuestros satélites de inteligencia, ellos tienen sus limitaciones- más notablemente, las limitaciones impuestas por los parámetros orbitales. Es concebible que un avión espia pudiera intoducir nueva versatilidad al reconocimiento global"


El despegue del artefacto espacial del Pentágono está programado para las 11:05 a.m. de hoy miércoles.


(Con información del Daily Mail y AP / Versión Cubadebate)



El X-37B, un misterio del Pentágono


• Construido por Boeing, es similar a un transbordador espacial de la NASA en miniatura. Pesa cinco toneladas y tiene 8.8 metros de largo y 2,9 metros de altura. La envergadura de sus alas es de 4,6 metros.


• Al momento del lanzamiento pesa 4990 kg. Es propulsado al espacio por un cohete desechable Atlas V, pero su aterrizaje es como el de los transbordadores de la NASA o un avión convencional.


• El primer vuelo del programa de la Fuerza Aérea se llevó a cabo en abril del 2010.


• La Fuerza Aérea estadounidense cuenta con dos drones espaciales de este tipo.

Bacterias del cuerpo, identificadores forenses

Las bacterias intestinales y las colonias de microbios que viven en el cuerpo o la piel humana pueden servir de identificador único, de forma bastante similar a la huella digital, dijeron investigadores.


Un estudio conducido por la Universidad de Harvard es el primero que investiga cuán identificables pueden ser los individuos con base en sus bacterias, las cuales pueden variar sustancialmente con la edad, la dieta, la ubicación geográfica y la salud general de una persona.


La vinculación de una muestra de ADN humano con una base de datos de ADN es el fundamento de la genética forense, que ya tiene varias décadas, dijo Eric Franzosa, autor líder del estudio e investigador del Departamento de Bioestadística de Harvard.


Hemos demostrado que es posible hacer el mismo tipo de vinculación utilizando secuencias de ADN de los microbios que habitan el cuerpo humano. Para esto no es necesario acceder al ADN humano.


Muestras de heces, fiables


Los científicos hallaron que las muestras de heces son particularmente fiables. Hasta 86 por ciento de las personas pueden ser identificadas por medio de sus bacterias intestinales, incluso después de un año.


Las muestras de piel son menos confiables. Cerca de un tercio de las personas investigadas podrían ser identificadas al cabo de un año, según el estudio divulgado en la publicación especializada en Proceedings of the National Academy of Sciences.
Pero aunque las muestras pueden no coincidir, hay muy pocos casos de falsos positivos. La mayoría de las veces se hace la vinculación o no, pero raramente se identifica a la persona incorrecta.


El estudio se basó en 120 individuos, elegidos de un grupo de 242 que donaron heces, saliva y muestras de piel al Proyecto microbioma humano, (Human Microbiome Project), que mantiene una base de datos pública para los investigadores.

Sábado, 25 Abril 2015 07:08

El ojo del Universo

El ojo del Universo

En la astronomía es considerado el invento más revolucionario desde el telescopio de Galileo de 1609. El Hubble fue diseñado para operar 20 años, pero ya lleva un cuarto de siglo enviando fotos que cambiaron la manera de entender el Universo y sus orígenes.

Para los seguidores de la saga de Stars Wars y curiosos en general, esta semana se recuerda el 25º aniversario de un hito para la Humanidad. El avance más importante de la astronomía desde que Galileo tuvo su genial invención en el lejano 1609, el Hubble es prácticamente una máquina del tiempo que revolucionó la astronomía y lleva a los científicos a intentar comprender los inicios del Universo. Del tamaño de un autobús, de 11 toneladas de peso, el primer telescopio espacial fue lanzado el 24 de abril de 1990 por el transbordador Discovery y lleva el nombre de un célebre astrónomo estadounidense, Edwin Powell Hubble (1889-1953). Tuvo dificultades al principio, pero por la vía de un correctivo comenzó a enviar información valiosa de galaxias lejanas. A la fecha tomó más de un millón de imágenes espectaculares de distintos cuerpos celestes. En su momento, lanzarlo al espacio costó unos 1500 millones de dólares.


El Telescopio Espacial Hubble (TEH) se dedica a la exploración de las profundidades del espacio. Comenzó a transmitir imágenes impactantes de supernovas, de las cataclísmicas explosiones que marcan la muerte de una estrella y de otros cuerpos celestes. El TEH orbita la Tierra a 570 kilómetros de altitud –no mucho más arriba que la Estación Espacial Internacional (ISS), que está a cerca de 400 kilómetros– y da la vuelta al globo en 97 minutos a una velocidad de 28.000 kilómetros por hora.
"Con el Hubble, la Humanidad mira el Universo y ve su lugar en él", explicó la astrónoma Jennifer Wiseman, quien monitorea el telescopio desde el Centro Goddard de la NASA en Greenbelt, Maryland, nordeste de Estados Unidos. "Este telescopio nos mostró que el cosmos cambió en el curso del tiempo; que las estrellas producen todos los elementos necesarios para la vida y para la formación de los planetas", añadió la científica.


Una de sus fotos más emblemáticas fue la de las gigantescas columnas de gas y de polvo interestelar a 6500 años luz de la Tierra, en la Nebulosa del Aguila, apodadas "los pilares de la creación". El Hubble reveló además agujeros negros en el corazón de galaxias cuya existencia hasta entonces la ciencia solamente podía suponer. También tomó más de un millón de imágenes de cuerpos celestes, algunas en los confines del cosmos, lo cual permitió a los astrónomos calcular con mayor precisión la edad del Universo: cerca de 13.800 millones de años.


Gracias a todas estas imágenes, de una nitidez enormemente mayor a las obtenidas por los más poderosos telescopios terrestres, los astrofísicos pudieron confirmar en 1998 que la expansión del Universo se está acelerando, descubrimiento que bien valió el Premio Nobel de Física 2011 a dos estadounidenses, Saul Perlmutter y Adam Riess, y al australiano Brian Schmidt. Estos cosmólogos descubrieron que la aceleración es el resultado de una misteriosa fuerza llamada "energía oscura", que constituiría cerca del 70 por ciento del Universo. El resto del cosmos está formado por 5 por ciento de materia visible y 25 por ciento de materia oscura invisible, cuya presencia se manifiesta por sus efectos gravitacionales sobre los cuerpos celestes.
Entre otros descubrimientos del Hubble figura la detección de la primera molécula orgánica en la atmósfera de un planeta que orbita en torno de una estrella lejana de la Vía Láctea. Además, el telescopio permitió avanzar en el conocimiento del Sistema Solar y concluir que la formación de planetas es relativamente común. "El Hubble desempeñó un papel muy importante al infundir en los habitantes de nuestro planeta un sentido de la maravilla por este Universo en el que vivimos", subrayó la astrónoma Wiseman.


El TEH mide 13,2 metros de largo por 4,2 metros de diámetro y es fruto de una colaboración entre la agencia espacial estadounidense (NASA) y la Agencia Espacial Europea (ESA). El telescopio transmite cerca de 120 gigabytes de datos científicos por semana, que equivalen a una pila de libros de 1097 metros de altura. La gigantesca y siempre creciente colección de imágenes y datos se almacena en discos magneto-ópticos. Asimismo, los dos espejos del TEH fueron pulidos de manera que su curvatura, casi perfecta, no se desvíe más de 2,5 centímetros. El diámetro del espejo principal es de 2,4 metros y pesa 828 kilogramos. El secundario tiene 30 centímetros de diámetro y pesa 12,3 kilos.


El Hubble es además extremadamente estable. Posee dos magnetómetros que determinan su orientación con respecto al campo magnético terrestre y tres sistemas que contienen cada uno dos giroscopios, que detectan los movimientos de rotación. De esta manera, el telescopio puede enfocar un objetivo con una precisión que le permite, por ejemplo, alcanzar con un rayo láser un blanco del tamaño de un centavo a 250 kilómetros de distancia. También puede observar objetos astronómicos con gran detalle. El TEH sería capaz de "ver" luciérnagas en vuelo a 10.000 kilómetros de él, es decir, casi la distancia entre la capital mexicana y Tokio a lo largo del Océano Pacífico.


Tuvo sus reveses en los primeros tiempos, para lo cual se enviaron astronautas con la misión de "ajustar tuercas". Tres años después de su despliegue, ya estaba completamente operativo. El problema fue que la concavidad de su espejo principal tenía una falla que forzó el envío de una nave espacial para instalar un mecanismo corrector, en un operativo muy delicado que se efectuó en 1993.


El Hubble está equipado actualmente con cinco instrumentos que fueron modernizados o agregados posteriormente, mientras otros fueron retirados en las cinco misiones de mantenimiento que hicieron los astronautas en 1993, 1997, 1999, 2002 y 2009. Se trata de cámaras y espectrómetros que operan con luz ultravioleta, luz visible o infrarroja cercana. Su electricidad se alimenta por paneles solares de 7,6 metros, cada uno de los cuales produce 2800 watts: el consumo equivalente al de un departamento de cuatro habitaciones.


Con un costo inicial al momento de su lanzamiento de 1500 millones de dólares, el TEH es una verdadera superestrella de la astronomía. Más adelante debería coexistir con su sucesor, el telescopio espacial infrarrojo James Webb, que será lanzado en 2018 y será cien veces más potente. Desde la NASA, el astrónomo Matt Greenhouse afirma que "el Webb podría revolucionar otra vez la astronomía". Ni Carl Sagan lo hubiera imaginado.

Miércoles, 15 Abril 2015 06:19

El cerebro de la rata se parece a Internet

El cerebro de la rata se parece a Internet

¿Reproduce Internet la estructura funcional del cerebro humano que lo generó? Es una pregunta intrigante y pertinente porque, al menos en la rata de laboratorio, el mapa de las conexiones entre neuronas resulta ser una combinación de las famosas muñecas rusas que se introducen una dentro de otra (las matrioskas) y la estructura de la red de redes, Internet. Eso han concluido científicos de la Universidad de California del Sur tras una ardua labor de integrar cuatro décadas de datos disponibles sobre las conexiones neuronales relacionadas con el conocimiento en la corteza cerebral de los roedores.

El cerebro de las ratas de laboratorio se parece lo suficiente al mucho más complejo cerebro de los humanos (también mamíferos) como para proporcionar datos interesantes y se realizan experimentos imposibles en humanos, por lo que resulta más fácil de estudiar.

"La corteza cerebral es como un mini Internet", explica Larry Swanson, autor principal del trabajo. "Internet tiene innumerables redes locales que se conectan con redes regionales mayores y finalmente con los nodos que forman su red troncal. El cerebro funciona de forma parecida".


Esquemáticamente, dos redes locales forman el núcleo de la corteza cerebral de una rata: una controla la visión y el aprendizaje, entre otros aspectos, y otra está relacionada con el funcionamiento del organismo, como los músculos y los órganos. A éstas dos redes las envuelven, como una concha o una matrioska, otras dos, una relacionada con el olfato y otra en la que se recoge y procesa la información de las otras tres.

Los científicos estudiaron 16.000 informes publicados sobre miles de conexiones entre axones confirmadas en laboratorio en el cerebro de la rata y hallaron que 73 regiones de la corteza cerebral se pueden agrupar en estos cuatro módulos. Los módulos están interconectados de forma asimétrica, lo que indica, según Swanson, que existe una base genética para algunos flujos de información en el cerebro.

Además de los cuatro módulos, los investigadores hallaron nodos, centros muy interconectados cruciales para el tráfico neuronal que relaciona las redes locales. Trabajos anteriores indican que estas regiones, cuando sufren daños, son causa de enfermedades neurodegenerativas y epilepsia, señala la citada universidad. El estudio, que se publica en la revista Proceedings, ha sido revisado por el prestigioso neurocientífico Fred Gage. La base de datos resultante se puede consultar de forma gratuita.
Este trabajo se engloba en la llamada conectómica, la especialidad de los que hacen conectomas, mapas de las conexiones entre las neuronas del cerebro. Es una nueva forma de de contemplar el cerebro que va más allá de lo visible para entrar en la función, al elaborar un mapa de conexiones relacionada con el conocimiento. El conocimiento emerge supuestamente de la actividad neuronal en esta complicada red, modulada por la aportación de información externa recogida por los sistemas sensoriales, que dirige el comportamiento voluntario mediante el control del sistema motor. Mover un solo dedo al teclear para acceder a una página de Internet en un dispositivo electrónico, por ejemplo, es el resultado de todo este proceso.

"Los resultados son un punto de partida para compilar el conectoma del sistema nervioso de los mamíferos que puede llegar a revelar nuevas correlaciones entre los estudios de genomas completos y los de conectomas, lo que llevaría a nuevos conocimientos sobre la arquitectura celular subyacente al conocimiento", afirman los investigadores.

"Tener un mapa de conexiones del cerebro nos permitirá relacionar en ambos sentidos los estudios en animales y en humanos. Podemos tomar las hipótesis derivadas de estudios del cerebro humano con técnicas no invasivas y verificarlas experimentalmente en animales, y los descubrimientos derivados de los estudios en animales probablemente tengan analogías con los humanos", señala Swanson. En la misma universidad existe un centro de neuroimagen y bioinformática que dispone de la mayor colección de tomografías y resonancias cerebrales humanas del mundo, lo que permitirá avanzar en esa línea de investigación.

Prototipo de vacuna estimula células que destruyen las cancerígenas

El primer paso hacia una vacuna contra el cáncer diseñada para atacar los tumores de pacientes individuales se ha dado en un experimento precursor, dirigido a desarrollar un enfoque totalmente nuevo en el tratamiento de este mal.


La terapia convencional contra el cáncer se apoya en la cirugía, la quimioterapia o la radioterapia, pero el nuevo método apunta a estimular las células T del organismo, que destruyen las cancerígenas.


Médicos en Estados Unidos han publicado los primeros resultados de un prototipo de vacuna diseñado para estimular las células T del sistema inmune con el fin de que reconozcan y destruyan las células del tumor de un paciente. Tres enfermos de cáncer recibieron el tratamiento experimental y todos evolucionan bien, señalaron los investigadores.


La vacuna se produce estudiando las proteínas presentes en las células del tumor de cada paciente, que difieren de un individuo a otro. Las vacunas personalizadas se infundieron en tres pacientes con melanoma (cáncer de piel) avanzado para analizar el número y diversidad de las células T destructoras producidas por su sistema inmune.


Los científicos encontraron que cada paciente producía gran cantidad de células T para destruir las células del melanoma, al parecer sin efectos laterales. Un paciente aún está en remisión completa, en tanto los otros dos se encuentran estables, aunque es muy temprano para descubrir si hubo mejora en los síntomas atribuible a las vacunas.


Los tres pacientes están bien, estables en su enfermedad. El melanoma suele crecer y extenderse, y no lo ha hecho en estos pacientes, pero no sabemos si lo hará, advirtió Gerald Linette, oncólogo de la Universidad de Washington en San Luis, quien dirigió la prueba.


Los antígenos del tumor que insertamos en las vacunas provocaron una amplia respuesta en las células T del sistema inmune que destruyen los tumores. Nuestros resultados son preliminares, pero creemos que las vacunas tienen potencial terapéutico, con base en la amplitud y notable diversidad de la respuesta de las células T, añadió el doctor Linette.


Es la primera vez que científicos han secuenciado el ADN completo del tumor de un paciente y lo han usado para identificar siete proteínas de las células cancerígenas que son únicas de cada paciente, lo que se ha empleado para diseñar vacunas personalizadas dirigidas a las células de los tumores de cada uno.


Los investigadores esperan comenzar la fase uno de pruebas clínicas en el curso de 12 meses. Los científicos expresaron la esperanza de que también se puedan desarrollar vacunas personalizadas contra otros tipos de tumores, como los de cáncer de pulmón, vejiga y colorrectal, que tienen altas tasas de mutación.



Traducción: Jorge Anaya

Buscan construir un sincrotrón, que emite luz más brillante que el Sol

Científicos de cinco universidades y centros de investigación en México promueven la construcción de un microscopio de luz sincrotrón, que emite luz millones de veces más brillante que la del Sol. Esta tecnología impulsaría el desarrollo de la medicina, la agricultura, la botánica, la paleontología, la industria y el arte en México.


La construcción del sincrotrón es uno de los seis grandes proyectos científicos que serán presentados el 10 de abril, ante el Consejo Consultivo de Ciencia de la Presidencia de la República, informó la doctora del departamento de Ingenierías Química, Electrónica y Biomédica de la Universidad de Guanajuato (UG) Guadalupe de la Rosa Álvarez.


Es un proyecto muy grande; el propósito es que a mediano plazo México tenga un sincrotrón, que es un acelerador de electrones que genera luz para estudiar materiales a nivel atómico, explicó la investigadora.


Las universidades de Guanajuato, la Nacional Autónoma de México (UNAM), la de Papaloapan (UNPA), la Autónoma de Chiapas (UNACH), el Tecnológico de Celaya y el Centro de Investigaciones en Materiales Avanzados, como integrantes de la Red Temática de Usuarios del Sincrotrón, impulsan el desarrollo de esta tecnología, detalló.


Informó que la red está formada por 120 investigadores y estudiantes que dotan de las especificaciones técnicas a los ingenieros que elaboran el proyecto ejecutivo.


Serían instalaciones muy grandes, ya que es un microscopio de poder impresionante, con el que podremos ver detalles muy finos de la materia que no se pueden ver con otra técnica, dijo Guadalupe de la Rosa.


En el mundo existen 40 sincrotrones; Sudáfrica está en proceso de construir uno y en Brasil fabricarán su segundo acelerador de electrones, únicos en América Latina, reveló.


Nosotros no tenemos uno; estamos formando el recurso humano, pero no sería suficiente, para construirlo debemos echar mano de la comunidad científica internacional, ellos están pendientes para ayudarnos, dijo la doctora.


Con la construcción del sincrotrón México daría un enorme salto en ciencia y detonaría el crecimiento económico de casi todos los sectores productivos, aseguró.


Despegará la ciencia en México


Si la ciencia en México avanza a 10 kilómetros por hora con un sincrotrón vamos avanzar a 100 kilómetros por hora, esa sería la gran diferencia, ejemplificó la catedrática.


Con la tecnología para analizar materiales a escala atómica se puede estudiar como neutralizar las nanotoxinas que dañan plantas y cultivos, sin afectar el entorno y al medio ambiente, señaló De la Rosa Álvarez.


Los científicos de México tienen que viajar al extranjero para realizar trabajos en el sincrotrón, situación que atrasa el avance de las investigaciones, lamentó.


Con este instrumento la industria automotriz elaboró mejores catalizadores y se pudo descubrir una vacuna para el virus de la influenza, recordó.


Por ejemplo, se puede estudiar fósiles en el ámbar, porque los hay de millones de años y no se deben cortar; pues con el sincrotón se puede estudiar los fósiles sin necesidad de dañar la resina, apuntó.


Recordó que gracias a esta tecnología se descubrió que Los girasoles de Van Gogh se estaban deteriorando, porque se detectó que una parte de los pigmentos tienen cromo que estaba cambiando su estado químico.


Una firma importante de chocolates sacó un nuevo producto fino, pero a los pocos días se creaba una capa blanca, algo pasaba, no sabían qué, y con el sincrotrón descubrieron que el chocolate se cristalizaba con el aire y se cambió la fórmula, evitando la cristalización, detalló.


Con la luz del sincrotrón se puede ver todo en la materia, es como si tuvieras un cuarto muy oscuro y pones la luz de una vela para leer, te va a costar trabajo, pero si pones una lámpara potente ves todos los detalles del lugar, simplificó.

Sophie Van Eck: "Las estrellas son las verdaderas alquimistas cósmicas"

Esta científica de la Universidad Libre de Bruselas ha logrado junto a su equipo medir por primera vez en la historia la temperatura del centro de una estrella.


BRUSELAS.- En 1926, el astrofísico Sir Arthur Eddington afirmó en su obra La constitución interna de las estrellas que "el interior del sol y de las estrellas es menos accesible que cualquier otra región del Universo. ¿Qué instrumental podría atravesar las capas externas de las estrellas y analizar las condiciones de su interior?".


Casi 90 años después, esta pregunta está empezando a tener respuesta en el trabajo de un equipo de seis astrofísicos liderados por la belga Sophie Van Eck (Bruselas, 1971). Los científicos, de la Universidad Libre de Bruselas, en Bélgica, y la de Montpellier, en Francia, han logrado por primera vez en la historia medir la temperatura del centro de una estrella. El estudio se publicó el 8 de enero en Nature.

Van Eck, científica de la Universidad Libre de Bruselas e investigadora asociada del Fondo Nacional de Investigación Científica de Bélgica (el CSIC belga), es una de las astrofísicas más destacadas del mundo. Ha sido reconocida, entre otras cosas, por el descubrimiento en 2001 de las primeras estrellas-plomo, estrellas gigantes muy ricas en este material.

Es la primera vez que se mide la temperatura en el interior de las estrellas. ¿Cuál ha sido el principal desafío para ello?
Es la primera vez que se hace a través de mediciones directas. El principal desafío es que no se puede acceder físicamente al interior de una estrella, de modo que hay que hacerlo midiendo ciertos fenómenos que se producen en ellas y a partir de ahí realizar cálculos para obtener resultados concretos y fiables. En este caso, hemos medido unos 100 millones de grados centígrados.

Porque, ¿de qué está hecha una estrella?


Principalmente de hidrógeno, una pequeña parte de helio, y trazas de elementos pesados. El plomo es uno de esos elementos pesados que fabrican las estrellas, pero no todas fabrican plomo, sólo las gigantes, y sólo lo hacen cerca del final de su vida. Además de plomo, también fabrican otros elementos que se usan hoy para numerosas aplicaciones tecnológicas, como el niobio (en los imanes potentes) o el cerio (en los catalizadores).

Usted descubrió en 2001 las primeras estrellas-plomo. ¿Son las que se han investigado en este trabajo?
Nosotros nos hemos centrado en las estrellas de tipo S. Las estrellas-plomo, conocidas como estrellas CH, son estrellas gigantes compuestas de hidrógeno y helio y muy ricas en elementos más pesados, sobre todo, plomo. Las estrellas S no son tan ricas en plomo u otros elementos pesados como éstas aunque, eso sí, son también gigantes. El Sol mismo también tiene plomo, por ejemplo, aunque en muy poca cantidad y proviene, en realidad, de generaciones previas de estrellas. De hecho, el Sol se convertirá en una de estas estrellas gigantes en unos 4.000 millones de años. Para entonces su radio se habrá incrementado entre 400 y 500 veces.

¿Cuántas estrellas han analizado en esta investigación?


En nuestra muestra hay 23 en total, 17 son de tipo S y otras seis de tipo M, estrellas gigantes pero sin apenas elementos pesados. Éstas las hemos empleado como referencia.

 

¿Cómo se ha podido medir la temperatura en el interior de esas estrellas?


En las regiones cercanas al núcleo, una estrella sintetiza elementos muy pesados, como decimos, y desde esas zonas son eyectados hacia la superficie de la estrella. Dicho proceso emite luz, y medir esa luz al final es como usar un termómetro puesto que a través de esas mediciones podemos calcular a qué temperaturas han de producirse procesos que tienen lugar en el núcleo de los átomos de ciertos elementos, procesos como que se combinen dos núcleos (es decir, una fusión nuclear) o cuando un núcleo captura un neutrón.


¿De qué manera se han observado estas estrellas?


Esto es fundamental. Junto a lo que he descrito antes, hemos necesitado una enorme cantidad de datos de mucha calidad sobre las estrellas estudiadas, que hemos obtenido mediante el espectrógrafo HERMES, instalado en el telescopio Mercator de la Universidad de Lovaina y ubicado en el Observatorio del Roque de los Muchachos, en La Palma, Canarias. Con todos los datos recabados, hemos elaborado modelos informáticos de proyecciones sobre la evolución de los elementos en el interior de la estrella y así calculamos su temperatura.

 

¿Se puede calcular también su edad a través de este método?


No hemos medido exactamente la edad de la estrella, lo que hemos hecho ha sido medir el tiempo empleado por estas estrellas S en una fase muy específica de su evolución, es decir, el período en el que producen y llevan a su superficie elementos pesados. Pero sólo se trata de un período. Para obtener la edad, debería añadírsele las duraciones de todas las fases evolutivas de la estrella. Hay grandes incertezas sobre la duración de esas otras fases. Para realizar esos cálculos en la mayoría de los casos hay que basarse en predicciones de modelos teóricos. De todos modos, el cálculo en sí que hemos realizado no es novedoso, pero sí el método que hemos empleado para ello.

¿Cómo lo han hecho y qué resultado han obtenido?


Es más o menos lo mismo que se hace con la técnica del carbono 14, pero con una diferencia: mientras que ese método sirve para calcular directamente la edad completa de un objeto, en nuestro caso usamos tratamos de medir el tiempo que un elemento ha tardado desde que fue fabricado en el interior de la estrella hasta que ha llegado a la superficie. La conclusión que este proceso dura entre uno y tres millones de años. En nuestro trabajo hemos medido con la ayuda de cosmocronómetros, por lo que somos de algún modo más independientes en la medición que empleando modelos teóricos para predecir su edad, como hasta ahora.

¿En qué se parece este proceso a la técnica del carbono 14?


En que nuestras mediciones se basan también en la medición de isótopos, esto es, átomos de un mismo elemento químico pero cuyos con núcleos tienen una cantidad diferente de neutrones. Como hemos dicho, en el interior de la estrella los elementos químicos sufren procesos que alteran su núcleo, como la fusión nuclear o cuando un núcleo captura un neutrón. Es decir, que se producen elementos radiactivos que permiten realizar una datación. Se trata entonces de medir la proporción de ciertos isótopos respecto a otros en la superficie. Estos isótopos, por cierto, una vez transportados hasta las zonas externas de las estrellas son arrojados al espacio cuando la vida de la estrella toca a su fin, y se reintegran en el medio interestelar y en las grandes nubes que lo componen, de las cuales nacerán nuevas estrellas en el futuro. Nuestro Sol pasó por esta situación hace 4.500 millones de años.


¿Así es el final de una estrella, que es o puede ser a su vez el principio de otras?


El final de la estrella es cuando pierde masa y eso depende de muchos factores. Pero sí sabemos que hacia el final de su vida el núcleo de la estrella va fabricando esos elementos pesados y los eyecta a la superficie. Allí forman una nebulosa planetaria, formada de conchas de estrellas, que son ionizadas por la luz de la propia estrella. Esa nebulosa son planetas ni tienen nada que ver con ellos. En cuanto al núcleo de la estrella, éste nunca es eyectado pero llega un momento en que deja de ser una fuente de energía y se apaga.

Para las estrellas analizadas en su investigación han calculado 100 millones de grados. ¿Qué implicaciones tiene este dato?
Otros estudios previos, basados en el análisis de ciertos elementos en meteoritos, apuntaban a una temperatura más elevada, más de 300 millones de grados, para el proceso de construcción de elementos pesados en el núcleo de las estrellas S, proceso llamado nucleosíntesis. Dichos estudios apuntaron a que era el neón el elemento que estaría en el origen de los neutrones requeridos para construir los elementos pesados en la estrella. En nuestro trabajo, basado no ya en los meteoritos sino en el análisis de las estrellas, hemos mostrado, sin embargo, que la temperatura es mucho más baja de 250 millones de grados y también que es el carbono el que está en el origen de los neutrones necesarios para se produzcan esos elementos pesados en las estrellas.

 

Entonces, ¿el plomo y otros elementos pesados provienen de las estrellas?


Sí. Las estrellas son unas verdaderas alquimistas cósmicas. El Big Bang generó sólo hidrógeno, helio y trazas de elementos más pesados, como el litio. Todos los demás elementos fueron fabricados después en el interior de las estrellas gigantes, durante lentas fases de su evolución, o en supernovas. De hecho, algunos planetas, como los planetas gigantes gaseosos, tienen en gran medida la misma composición que las estrellas; Júpiter, de hecho, tiene básicamente la misma composición que el Sol. Sin embargo, no son tan suficientemente masivos como para alcanzar las altas temperaturas con las que quemar hidrógeno hasta convertirlo en helio, que es lo que hacen las estrellas. Esos planetas son estrellas fallidas.

 

Entonces, ¿qué fue primero, los planetas o las estrellas?


Es una cuestión difícil. Una cosa es segura: las estrellas tuvieron que formarse en el incipiente universo compuestas prácticamente sólo de hidrógeno y helio, son las llamadas estrellas de primera generación, para después poder producir los elementos pesados que ahora se encuentran en el universo, como el plomo. Si la primera generación de estrellas tenía ya planetas orbitando a su alrededor es algo que aún ignoramos.

¿Y qué hay del sol, qué tipo de estrella es?


El Sol podría ser una estrella de tercera o cuarta generación.

 

¿Qué sucede después con esa nebulosa planetaria de elementos muy pesados que se forma cuando la estrella se extingue?
Esas capas de material eyectado por la estrella pueden ir más allá y acabar formando una especie de nube de, digamos, chatarra espacial que podría reconvertirse en una nueva estrella, mucho más rica que las anteriores en esos nuevos elementos que la componen ahora.


¿Hasta qué punto las estrellas son la clave para comprender el universo?


Son la clave porque las galaxias están hechas de estrellas, la composición de los elementos pesados del universo son fabricados por las estrellas... La comprensión de la física de la atmósfera de las estrellas y el conocimiento de las distancias y de la masa de las estrellas son fundamentales para predecir su evolución y determinar precisamente su composición química. Por lo tanto, podemos saber cómo las estrellas, reales factorías para producir átomos, que enriquecen el universo con elementos pesados. Su estudio nos ofrece información crucial, incluyendo una mejor comprensión de la evolución química de las galaxias formadas por miles de millones de estrellas, y particularmente ésas que componen nuestra propia galaxia desde el Big Bang.

¿En qué centra ahora sus investigaciones?


Estoy centrada en investigar las abundancias de diferentes tipos de estrellas, el estudio tomográfico de estrellas gigantes, de las atmósferas estelares. Y también estoy involucrada en el proyecto europeo GAIA-ESO Survey.

 

¿Cuál es el objetivo de este último proyecto?


Está encaminado a analizar el movimiento de las estrellas, lo que llamamos la velocidad radial, así como la abundancia estelar en la galaxia. La misión del satélite GAIA calculará distancias y velocidades radiales de 1.000 millones de estrellas. Este proyecto pretende caracterizar mejor pequeña muestra de estrellas, unas 100.000 estrellas, pero tratando de detectar abundancias precisas de varios elementos químicos. De esta manera, tendremos una visión más completa de la evolución de las estrellas y de su proceso de nucleosíntesis así como de su movimiento en la galaxia.

Confirma el Hubble la teoría de la relatividad de Albert Einstein

Una asombrosa confirmación de la teoría de la relatividad de Albert Einstein ha sido aportada por el telescopio espacial Hubble, luego de que astrónomos capturaron las primeras imágenes de luz de una estrella que estalló, distorsionadas por un conglomerado de galaxias.


El científico más famoso del mundo predijo este efecto hace más de un siglo y ahora, después de 50 años de escudriñar los cielos, por fin ha sido detectado.


Las fotografías muestran la firma reveladora de cuatro puntos de luz, originados por la explosión de una sola supernova, dispuestos en forma de cruz de Einstein en torno a un lejano conglomerado de galaxias. Los cuatro puntos son resultado de una masa oculta de materia oscura dentro de la galaxia, que dobla la luz de la supernova, la cual está a muchos años luz de distancia, pero cae directamente detrás de ella cuando es avistada por el Hubble.


Cada uno de los cuatro puntos de luz toma una ruta diferente en el espacio, y sus tiempos de travesía son afectados por la cantidad de materia faltante –la invisible materia oscura que forma la mayor parte del universo– que tienen que atravesar en el trayecto, explicó Patrick Kelly, de la Universidad de California en Berkeley, quien formó parte del equipo internacional respaldado por las agencias espaciales de Estados Unidos y Europa, Nasa y AEE.


El efecto es análogo al de varios trenes que partieran de la misma estación al mismo tiempo, pero siguiendo rutas diferentes, algunas más lentas que otras, hacia el mismo destino final, explicó Steve Rodney, de la Universidad Johns Hopkins, uno de los autores del estudio, publicado en la revista Science.


La teoría general de la relatividad de Einstein predice que densas concentraciones de materia en el universo ejercerán un tirón gravitacional tan fuerte sobre la luz que pase por ella, que la luz se doblará, tal como una lente en unos anteojos.
A 9 mil 300 millones de años luz


Aunque la primera lente gravitacional se descubrió en 1979, y otras han sido confirmadas posteriormente en objetos como galaxias y cuásares, es la primera vez que se ha encontrado una por la intensa luz emitida por una explosión estelar, en este caso de una supernova, que ocurrió a 9 mil 300 millones de años luz de distancia.


Astrónomos que trabajan en las imágenes recabadas por el Hubble vieron primero cuatro puntos de luz dispuestos en cruz alrededor de un conglomerado de galaxias a 5 mil millones de años luz el 11 de noviembre del año pasado, y desde entonces analizan las imágenes con otros telescopios basados en tierra. Las cuatro imágenes de la supernova captadas por el Hubble con diferencia de unas semanas entre sí. "Realmente di una vuelta de campana cuando detecté las cuatro imágenes rodeando la galaxia... fue una completa sorpresa", comentó el doctor Kelly.


Básicamente, vimos la supernova cuatro veces y medimos los intervalos de tiempo entre su llegada en las cuatro diferentes imágenes, lo cual esperamos que nos permita aprender algo de la supernova y de la estrella de la cual estalló, así como de las lentes gravitacionales, señaló.

Traducción: Jorge Anaya

Hallan en Cuba nueva cepa del VIH; desarrolla sida en menos de tres años

Un equipo de científicos belgas y cubanos detectó en la isla una nueva cepa del virus de inmunodeficiencia humana (VIH) que desarrolla el sida con mayor rapidez que el resto de los subtipos identificados hasta ahora, informó este miércoles una experta local.


La nueva cepa de VIH fue descubierta por científicos del Instituto de Medicina Tropical (IPK) de La Habana y de dos universidades de Bélgica, luego de que los médicos de ese centro cubano observaran que algunos pacientes con VIH evolucionaban más rápidamente a sida que otros, señaló la televisión local, citando a expertos de ambos países.
Este estudio muestra por primera vez la asociación de una variante de VIH que circula en Cuba, que se llama CRF19, con la rápida progresión a sida, declaró a la televisión Vivian Kourí, la viróloga del IPK, que participó en la investigación.


Kourí precisó que la nueva variante de VIH, que puede desarrollar sida en menos de tres años –lo habitual es que esto suceda entre ocho y 10 años–, es la tercera en frecuencia en su país y afecta entre 17 y 20 por ciento de los infectados con ese virus.


La televisión subrayó que la rápida progresión a sida de la nueva cepa incrementa el riesgo de que los pacientes enfermen incluso antes de saber que están infectados.


No obstante, Kourí explicó que ninguno de los infectados con la cepa CRF19 ha presentado una resistencia mayor al tratamiento con medicamentos retrovirales y que tienen "la misma posibilidad de que esa terapia sea efectiva.


En Cuba, con una población de 11.1 millones de habitantes, se han diagnosticado como seropositivos casi 22 mil personas desde que se reportó el primer caso de sida 1986, y más de 18 mil aún viven, según la televisión local.


En tanto, en París, una sustancia contra el sida desarrollada por un equipo estadunidense resultó eficaz varios meses en monos y abre la perspectiva de un tratamiento de efecto prolongado contra el VIH, anunció este miércoles la revista Nature.


Hemos desarrollado un inhibidor muy poderoso y de espectro muy amplio que actúa sobre el VIH-1, es decir, el principal virus del sida presente en el mundo, explicó Michel Farzan, uno de los investigadores que dirigieron los experimentos.
La sustancia desarrollada es el fruto de varios años de investigación realizada principalmente por el Intituto de Investigación Scripps, centro sin ánimo de lucro con sede en Florida y financiado por el instituto público de investigación estadunidense especializado en enfermedades infecciosas (NIAID).


Este compuesto, denominado eCD4-Ig, ofrece una muy, muy fuerte protección contra el VIH, explicó Farzan, basándose en un experimento realizado con monos y descrito en la revista británica Nature.


La experimentación realizada con macacos mostró que la sustancia, inyectada una sola vez, es capaz de proteger por lo menos ocho meses del equivalente del sida para los simios.


Para garantizar el efecto prolongado, el eCD4-Ig fue asociado a un virus adeno-asociado, inofensivo, pero capaz de introducirse en las células y hacerles fabricar indefinidamente la proteína protectora capaz de crear un efecto antisida de larga duración.


Tras ser tratados con ese coctel, los macacos fueron sometidos a dosis de la versión simia del virus del sida (SHIV-AD8). Ninguno de los animales desarrolló la infección, contrariamente a los monos no tratados con eCD4-Ig y utilizados como testigo.


Protección de por lo menos 34 semanas


Los resultados publicados el miércoles en Nature muestran una protección eficaz al menos 34 semanas, aún en presencia de dosis de SHIV cuatro veces superiores a las que fueron suficientes para infectar a los macacos testigos.
La experimentación será presentada en la gran conferencia anual sobre retrovirus e infecciones oportunistas, programada en Seattle (Estados Unidos), del 23 al 26 de febrero.


Demostraremos que estos macacos siguen estando protegidos contra dosis de 8 a 16 veces superiores a la infecciosa, más de un año después de su tratamiento, precisó Farzan.


Por supuesto, necesitamos hacer nuevos estudios tanto en los macacos como en los humanos, antes de comenzar ensayos a gran escala, insistió Farzan.


Desde 1981, unos 78 millones de personas se han infectado con el VIH, que destruye las células del aparato inmunológico y deja el cuerpo expuesto a tuberculosis, neumonía y otras enfermedades.
Los medicamentos antirretrovirales desarrollados a mediados de los años 90 pueden tratar la infección, pero no logran curarla ni prevenirla.
El tratamiento es de por vida y tiene efectos secundarios. Para muchos sistemas de salud, el costo de las terapias se ha vuelto muy importante y pesa de manera considerable en los presupuestos.