Prototipo de vacuna estimula células que destruyen las cancerígenas

El primer paso hacia una vacuna contra el cáncer diseñada para atacar los tumores de pacientes individuales se ha dado en un experimento precursor, dirigido a desarrollar un enfoque totalmente nuevo en el tratamiento de este mal.


La terapia convencional contra el cáncer se apoya en la cirugía, la quimioterapia o la radioterapia, pero el nuevo método apunta a estimular las células T del organismo, que destruyen las cancerígenas.


Médicos en Estados Unidos han publicado los primeros resultados de un prototipo de vacuna diseñado para estimular las células T del sistema inmune con el fin de que reconozcan y destruyan las células del tumor de un paciente. Tres enfermos de cáncer recibieron el tratamiento experimental y todos evolucionan bien, señalaron los investigadores.


La vacuna se produce estudiando las proteínas presentes en las células del tumor de cada paciente, que difieren de un individuo a otro. Las vacunas personalizadas se infundieron en tres pacientes con melanoma (cáncer de piel) avanzado para analizar el número y diversidad de las células T destructoras producidas por su sistema inmune.


Los científicos encontraron que cada paciente producía gran cantidad de células T para destruir las células del melanoma, al parecer sin efectos laterales. Un paciente aún está en remisión completa, en tanto los otros dos se encuentran estables, aunque es muy temprano para descubrir si hubo mejora en los síntomas atribuible a las vacunas.


Los tres pacientes están bien, estables en su enfermedad. El melanoma suele crecer y extenderse, y no lo ha hecho en estos pacientes, pero no sabemos si lo hará, advirtió Gerald Linette, oncólogo de la Universidad de Washington en San Luis, quien dirigió la prueba.


Los antígenos del tumor que insertamos en las vacunas provocaron una amplia respuesta en las células T del sistema inmune que destruyen los tumores. Nuestros resultados son preliminares, pero creemos que las vacunas tienen potencial terapéutico, con base en la amplitud y notable diversidad de la respuesta de las células T, añadió el doctor Linette.


Es la primera vez que científicos han secuenciado el ADN completo del tumor de un paciente y lo han usado para identificar siete proteínas de las células cancerígenas que son únicas de cada paciente, lo que se ha empleado para diseñar vacunas personalizadas dirigidas a las células de los tumores de cada uno.


Los investigadores esperan comenzar la fase uno de pruebas clínicas en el curso de 12 meses. Los científicos expresaron la esperanza de que también se puedan desarrollar vacunas personalizadas contra otros tipos de tumores, como los de cáncer de pulmón, vejiga y colorrectal, que tienen altas tasas de mutación.



Traducción: Jorge Anaya

Buscan construir un sincrotrón, que emite luz más brillante que el Sol

Científicos de cinco universidades y centros de investigación en México promueven la construcción de un microscopio de luz sincrotrón, que emite luz millones de veces más brillante que la del Sol. Esta tecnología impulsaría el desarrollo de la medicina, la agricultura, la botánica, la paleontología, la industria y el arte en México.


La construcción del sincrotrón es uno de los seis grandes proyectos científicos que serán presentados el 10 de abril, ante el Consejo Consultivo de Ciencia de la Presidencia de la República, informó la doctora del departamento de Ingenierías Química, Electrónica y Biomédica de la Universidad de Guanajuato (UG) Guadalupe de la Rosa Álvarez.


Es un proyecto muy grande; el propósito es que a mediano plazo México tenga un sincrotrón, que es un acelerador de electrones que genera luz para estudiar materiales a nivel atómico, explicó la investigadora.


Las universidades de Guanajuato, la Nacional Autónoma de México (UNAM), la de Papaloapan (UNPA), la Autónoma de Chiapas (UNACH), el Tecnológico de Celaya y el Centro de Investigaciones en Materiales Avanzados, como integrantes de la Red Temática de Usuarios del Sincrotrón, impulsan el desarrollo de esta tecnología, detalló.


Informó que la red está formada por 120 investigadores y estudiantes que dotan de las especificaciones técnicas a los ingenieros que elaboran el proyecto ejecutivo.


Serían instalaciones muy grandes, ya que es un microscopio de poder impresionante, con el que podremos ver detalles muy finos de la materia que no se pueden ver con otra técnica, dijo Guadalupe de la Rosa.


En el mundo existen 40 sincrotrones; Sudáfrica está en proceso de construir uno y en Brasil fabricarán su segundo acelerador de electrones, únicos en América Latina, reveló.


Nosotros no tenemos uno; estamos formando el recurso humano, pero no sería suficiente, para construirlo debemos echar mano de la comunidad científica internacional, ellos están pendientes para ayudarnos, dijo la doctora.


Con la construcción del sincrotrón México daría un enorme salto en ciencia y detonaría el crecimiento económico de casi todos los sectores productivos, aseguró.


Despegará la ciencia en México


Si la ciencia en México avanza a 10 kilómetros por hora con un sincrotrón vamos avanzar a 100 kilómetros por hora, esa sería la gran diferencia, ejemplificó la catedrática.


Con la tecnología para analizar materiales a escala atómica se puede estudiar como neutralizar las nanotoxinas que dañan plantas y cultivos, sin afectar el entorno y al medio ambiente, señaló De la Rosa Álvarez.


Los científicos de México tienen que viajar al extranjero para realizar trabajos en el sincrotrón, situación que atrasa el avance de las investigaciones, lamentó.


Con este instrumento la industria automotriz elaboró mejores catalizadores y se pudo descubrir una vacuna para el virus de la influenza, recordó.


Por ejemplo, se puede estudiar fósiles en el ámbar, porque los hay de millones de años y no se deben cortar; pues con el sincrotón se puede estudiar los fósiles sin necesidad de dañar la resina, apuntó.


Recordó que gracias a esta tecnología se descubrió que Los girasoles de Van Gogh se estaban deteriorando, porque se detectó que una parte de los pigmentos tienen cromo que estaba cambiando su estado químico.


Una firma importante de chocolates sacó un nuevo producto fino, pero a los pocos días se creaba una capa blanca, algo pasaba, no sabían qué, y con el sincrotrón descubrieron que el chocolate se cristalizaba con el aire y se cambió la fórmula, evitando la cristalización, detalló.


Con la luz del sincrotrón se puede ver todo en la materia, es como si tuvieras un cuarto muy oscuro y pones la luz de una vela para leer, te va a costar trabajo, pero si pones una lámpara potente ves todos los detalles del lugar, simplificó.

Sophie Van Eck: "Las estrellas son las verdaderas alquimistas cósmicas"

Esta científica de la Universidad Libre de Bruselas ha logrado junto a su equipo medir por primera vez en la historia la temperatura del centro de una estrella.


BRUSELAS.- En 1926, el astrofísico Sir Arthur Eddington afirmó en su obra La constitución interna de las estrellas que "el interior del sol y de las estrellas es menos accesible que cualquier otra región del Universo. ¿Qué instrumental podría atravesar las capas externas de las estrellas y analizar las condiciones de su interior?".


Casi 90 años después, esta pregunta está empezando a tener respuesta en el trabajo de un equipo de seis astrofísicos liderados por la belga Sophie Van Eck (Bruselas, 1971). Los científicos, de la Universidad Libre de Bruselas, en Bélgica, y la de Montpellier, en Francia, han logrado por primera vez en la historia medir la temperatura del centro de una estrella. El estudio se publicó el 8 de enero en Nature.

Van Eck, científica de la Universidad Libre de Bruselas e investigadora asociada del Fondo Nacional de Investigación Científica de Bélgica (el CSIC belga), es una de las astrofísicas más destacadas del mundo. Ha sido reconocida, entre otras cosas, por el descubrimiento en 2001 de las primeras estrellas-plomo, estrellas gigantes muy ricas en este material.

Es la primera vez que se mide la temperatura en el interior de las estrellas. ¿Cuál ha sido el principal desafío para ello?
Es la primera vez que se hace a través de mediciones directas. El principal desafío es que no se puede acceder físicamente al interior de una estrella, de modo que hay que hacerlo midiendo ciertos fenómenos que se producen en ellas y a partir de ahí realizar cálculos para obtener resultados concretos y fiables. En este caso, hemos medido unos 100 millones de grados centígrados.

Porque, ¿de qué está hecha una estrella?


Principalmente de hidrógeno, una pequeña parte de helio, y trazas de elementos pesados. El plomo es uno de esos elementos pesados que fabrican las estrellas, pero no todas fabrican plomo, sólo las gigantes, y sólo lo hacen cerca del final de su vida. Además de plomo, también fabrican otros elementos que se usan hoy para numerosas aplicaciones tecnológicas, como el niobio (en los imanes potentes) o el cerio (en los catalizadores).

Usted descubrió en 2001 las primeras estrellas-plomo. ¿Son las que se han investigado en este trabajo?
Nosotros nos hemos centrado en las estrellas de tipo S. Las estrellas-plomo, conocidas como estrellas CH, son estrellas gigantes compuestas de hidrógeno y helio y muy ricas en elementos más pesados, sobre todo, plomo. Las estrellas S no son tan ricas en plomo u otros elementos pesados como éstas aunque, eso sí, son también gigantes. El Sol mismo también tiene plomo, por ejemplo, aunque en muy poca cantidad y proviene, en realidad, de generaciones previas de estrellas. De hecho, el Sol se convertirá en una de estas estrellas gigantes en unos 4.000 millones de años. Para entonces su radio se habrá incrementado entre 400 y 500 veces.

¿Cuántas estrellas han analizado en esta investigación?


En nuestra muestra hay 23 en total, 17 son de tipo S y otras seis de tipo M, estrellas gigantes pero sin apenas elementos pesados. Éstas las hemos empleado como referencia.

 

¿Cómo se ha podido medir la temperatura en el interior de esas estrellas?


En las regiones cercanas al núcleo, una estrella sintetiza elementos muy pesados, como decimos, y desde esas zonas son eyectados hacia la superficie de la estrella. Dicho proceso emite luz, y medir esa luz al final es como usar un termómetro puesto que a través de esas mediciones podemos calcular a qué temperaturas han de producirse procesos que tienen lugar en el núcleo de los átomos de ciertos elementos, procesos como que se combinen dos núcleos (es decir, una fusión nuclear) o cuando un núcleo captura un neutrón.


¿De qué manera se han observado estas estrellas?


Esto es fundamental. Junto a lo que he descrito antes, hemos necesitado una enorme cantidad de datos de mucha calidad sobre las estrellas estudiadas, que hemos obtenido mediante el espectrógrafo HERMES, instalado en el telescopio Mercator de la Universidad de Lovaina y ubicado en el Observatorio del Roque de los Muchachos, en La Palma, Canarias. Con todos los datos recabados, hemos elaborado modelos informáticos de proyecciones sobre la evolución de los elementos en el interior de la estrella y así calculamos su temperatura.

 

¿Se puede calcular también su edad a través de este método?


No hemos medido exactamente la edad de la estrella, lo que hemos hecho ha sido medir el tiempo empleado por estas estrellas S en una fase muy específica de su evolución, es decir, el período en el que producen y llevan a su superficie elementos pesados. Pero sólo se trata de un período. Para obtener la edad, debería añadírsele las duraciones de todas las fases evolutivas de la estrella. Hay grandes incertezas sobre la duración de esas otras fases. Para realizar esos cálculos en la mayoría de los casos hay que basarse en predicciones de modelos teóricos. De todos modos, el cálculo en sí que hemos realizado no es novedoso, pero sí el método que hemos empleado para ello.

¿Cómo lo han hecho y qué resultado han obtenido?


Es más o menos lo mismo que se hace con la técnica del carbono 14, pero con una diferencia: mientras que ese método sirve para calcular directamente la edad completa de un objeto, en nuestro caso usamos tratamos de medir el tiempo que un elemento ha tardado desde que fue fabricado en el interior de la estrella hasta que ha llegado a la superficie. La conclusión que este proceso dura entre uno y tres millones de años. En nuestro trabajo hemos medido con la ayuda de cosmocronómetros, por lo que somos de algún modo más independientes en la medición que empleando modelos teóricos para predecir su edad, como hasta ahora.

¿En qué se parece este proceso a la técnica del carbono 14?


En que nuestras mediciones se basan también en la medición de isótopos, esto es, átomos de un mismo elemento químico pero cuyos con núcleos tienen una cantidad diferente de neutrones. Como hemos dicho, en el interior de la estrella los elementos químicos sufren procesos que alteran su núcleo, como la fusión nuclear o cuando un núcleo captura un neutrón. Es decir, que se producen elementos radiactivos que permiten realizar una datación. Se trata entonces de medir la proporción de ciertos isótopos respecto a otros en la superficie. Estos isótopos, por cierto, una vez transportados hasta las zonas externas de las estrellas son arrojados al espacio cuando la vida de la estrella toca a su fin, y se reintegran en el medio interestelar y en las grandes nubes que lo componen, de las cuales nacerán nuevas estrellas en el futuro. Nuestro Sol pasó por esta situación hace 4.500 millones de años.


¿Así es el final de una estrella, que es o puede ser a su vez el principio de otras?


El final de la estrella es cuando pierde masa y eso depende de muchos factores. Pero sí sabemos que hacia el final de su vida el núcleo de la estrella va fabricando esos elementos pesados y los eyecta a la superficie. Allí forman una nebulosa planetaria, formada de conchas de estrellas, que son ionizadas por la luz de la propia estrella. Esa nebulosa son planetas ni tienen nada que ver con ellos. En cuanto al núcleo de la estrella, éste nunca es eyectado pero llega un momento en que deja de ser una fuente de energía y se apaga.

Para las estrellas analizadas en su investigación han calculado 100 millones de grados. ¿Qué implicaciones tiene este dato?
Otros estudios previos, basados en el análisis de ciertos elementos en meteoritos, apuntaban a una temperatura más elevada, más de 300 millones de grados, para el proceso de construcción de elementos pesados en el núcleo de las estrellas S, proceso llamado nucleosíntesis. Dichos estudios apuntaron a que era el neón el elemento que estaría en el origen de los neutrones requeridos para construir los elementos pesados en la estrella. En nuestro trabajo, basado no ya en los meteoritos sino en el análisis de las estrellas, hemos mostrado, sin embargo, que la temperatura es mucho más baja de 250 millones de grados y también que es el carbono el que está en el origen de los neutrones necesarios para se produzcan esos elementos pesados en las estrellas.

 

Entonces, ¿el plomo y otros elementos pesados provienen de las estrellas?


Sí. Las estrellas son unas verdaderas alquimistas cósmicas. El Big Bang generó sólo hidrógeno, helio y trazas de elementos más pesados, como el litio. Todos los demás elementos fueron fabricados después en el interior de las estrellas gigantes, durante lentas fases de su evolución, o en supernovas. De hecho, algunos planetas, como los planetas gigantes gaseosos, tienen en gran medida la misma composición que las estrellas; Júpiter, de hecho, tiene básicamente la misma composición que el Sol. Sin embargo, no son tan suficientemente masivos como para alcanzar las altas temperaturas con las que quemar hidrógeno hasta convertirlo en helio, que es lo que hacen las estrellas. Esos planetas son estrellas fallidas.

 

Entonces, ¿qué fue primero, los planetas o las estrellas?


Es una cuestión difícil. Una cosa es segura: las estrellas tuvieron que formarse en el incipiente universo compuestas prácticamente sólo de hidrógeno y helio, son las llamadas estrellas de primera generación, para después poder producir los elementos pesados que ahora se encuentran en el universo, como el plomo. Si la primera generación de estrellas tenía ya planetas orbitando a su alrededor es algo que aún ignoramos.

¿Y qué hay del sol, qué tipo de estrella es?


El Sol podría ser una estrella de tercera o cuarta generación.

 

¿Qué sucede después con esa nebulosa planetaria de elementos muy pesados que se forma cuando la estrella se extingue?
Esas capas de material eyectado por la estrella pueden ir más allá y acabar formando una especie de nube de, digamos, chatarra espacial que podría reconvertirse en una nueva estrella, mucho más rica que las anteriores en esos nuevos elementos que la componen ahora.


¿Hasta qué punto las estrellas son la clave para comprender el universo?


Son la clave porque las galaxias están hechas de estrellas, la composición de los elementos pesados del universo son fabricados por las estrellas... La comprensión de la física de la atmósfera de las estrellas y el conocimiento de las distancias y de la masa de las estrellas son fundamentales para predecir su evolución y determinar precisamente su composición química. Por lo tanto, podemos saber cómo las estrellas, reales factorías para producir átomos, que enriquecen el universo con elementos pesados. Su estudio nos ofrece información crucial, incluyendo una mejor comprensión de la evolución química de las galaxias formadas por miles de millones de estrellas, y particularmente ésas que componen nuestra propia galaxia desde el Big Bang.

¿En qué centra ahora sus investigaciones?


Estoy centrada en investigar las abundancias de diferentes tipos de estrellas, el estudio tomográfico de estrellas gigantes, de las atmósferas estelares. Y también estoy involucrada en el proyecto europeo GAIA-ESO Survey.

 

¿Cuál es el objetivo de este último proyecto?


Está encaminado a analizar el movimiento de las estrellas, lo que llamamos la velocidad radial, así como la abundancia estelar en la galaxia. La misión del satélite GAIA calculará distancias y velocidades radiales de 1.000 millones de estrellas. Este proyecto pretende caracterizar mejor pequeña muestra de estrellas, unas 100.000 estrellas, pero tratando de detectar abundancias precisas de varios elementos químicos. De esta manera, tendremos una visión más completa de la evolución de las estrellas y de su proceso de nucleosíntesis así como de su movimiento en la galaxia.

Confirma el Hubble la teoría de la relatividad de Albert Einstein

Una asombrosa confirmación de la teoría de la relatividad de Albert Einstein ha sido aportada por el telescopio espacial Hubble, luego de que astrónomos capturaron las primeras imágenes de luz de una estrella que estalló, distorsionadas por un conglomerado de galaxias.


El científico más famoso del mundo predijo este efecto hace más de un siglo y ahora, después de 50 años de escudriñar los cielos, por fin ha sido detectado.


Las fotografías muestran la firma reveladora de cuatro puntos de luz, originados por la explosión de una sola supernova, dispuestos en forma de cruz de Einstein en torno a un lejano conglomerado de galaxias. Los cuatro puntos son resultado de una masa oculta de materia oscura dentro de la galaxia, que dobla la luz de la supernova, la cual está a muchos años luz de distancia, pero cae directamente detrás de ella cuando es avistada por el Hubble.


Cada uno de los cuatro puntos de luz toma una ruta diferente en el espacio, y sus tiempos de travesía son afectados por la cantidad de materia faltante –la invisible materia oscura que forma la mayor parte del universo– que tienen que atravesar en el trayecto, explicó Patrick Kelly, de la Universidad de California en Berkeley, quien formó parte del equipo internacional respaldado por las agencias espaciales de Estados Unidos y Europa, Nasa y AEE.


El efecto es análogo al de varios trenes que partieran de la misma estación al mismo tiempo, pero siguiendo rutas diferentes, algunas más lentas que otras, hacia el mismo destino final, explicó Steve Rodney, de la Universidad Johns Hopkins, uno de los autores del estudio, publicado en la revista Science.


La teoría general de la relatividad de Einstein predice que densas concentraciones de materia en el universo ejercerán un tirón gravitacional tan fuerte sobre la luz que pase por ella, que la luz se doblará, tal como una lente en unos anteojos.
A 9 mil 300 millones de años luz


Aunque la primera lente gravitacional se descubrió en 1979, y otras han sido confirmadas posteriormente en objetos como galaxias y cuásares, es la primera vez que se ha encontrado una por la intensa luz emitida por una explosión estelar, en este caso de una supernova, que ocurrió a 9 mil 300 millones de años luz de distancia.


Astrónomos que trabajan en las imágenes recabadas por el Hubble vieron primero cuatro puntos de luz dispuestos en cruz alrededor de un conglomerado de galaxias a 5 mil millones de años luz el 11 de noviembre del año pasado, y desde entonces analizan las imágenes con otros telescopios basados en tierra. Las cuatro imágenes de la supernova captadas por el Hubble con diferencia de unas semanas entre sí. "Realmente di una vuelta de campana cuando detecté las cuatro imágenes rodeando la galaxia... fue una completa sorpresa", comentó el doctor Kelly.


Básicamente, vimos la supernova cuatro veces y medimos los intervalos de tiempo entre su llegada en las cuatro diferentes imágenes, lo cual esperamos que nos permita aprender algo de la supernova y de la estrella de la cual estalló, así como de las lentes gravitacionales, señaló.

Traducción: Jorge Anaya

Hallan en Cuba nueva cepa del VIH; desarrolla sida en menos de tres años

Un equipo de científicos belgas y cubanos detectó en la isla una nueva cepa del virus de inmunodeficiencia humana (VIH) que desarrolla el sida con mayor rapidez que el resto de los subtipos identificados hasta ahora, informó este miércoles una experta local.


La nueva cepa de VIH fue descubierta por científicos del Instituto de Medicina Tropical (IPK) de La Habana y de dos universidades de Bélgica, luego de que los médicos de ese centro cubano observaran que algunos pacientes con VIH evolucionaban más rápidamente a sida que otros, señaló la televisión local, citando a expertos de ambos países.
Este estudio muestra por primera vez la asociación de una variante de VIH que circula en Cuba, que se llama CRF19, con la rápida progresión a sida, declaró a la televisión Vivian Kourí, la viróloga del IPK, que participó en la investigación.


Kourí precisó que la nueva variante de VIH, que puede desarrollar sida en menos de tres años –lo habitual es que esto suceda entre ocho y 10 años–, es la tercera en frecuencia en su país y afecta entre 17 y 20 por ciento de los infectados con ese virus.


La televisión subrayó que la rápida progresión a sida de la nueva cepa incrementa el riesgo de que los pacientes enfermen incluso antes de saber que están infectados.


No obstante, Kourí explicó que ninguno de los infectados con la cepa CRF19 ha presentado una resistencia mayor al tratamiento con medicamentos retrovirales y que tienen "la misma posibilidad de que esa terapia sea efectiva.


En Cuba, con una población de 11.1 millones de habitantes, se han diagnosticado como seropositivos casi 22 mil personas desde que se reportó el primer caso de sida 1986, y más de 18 mil aún viven, según la televisión local.


En tanto, en París, una sustancia contra el sida desarrollada por un equipo estadunidense resultó eficaz varios meses en monos y abre la perspectiva de un tratamiento de efecto prolongado contra el VIH, anunció este miércoles la revista Nature.


Hemos desarrollado un inhibidor muy poderoso y de espectro muy amplio que actúa sobre el VIH-1, es decir, el principal virus del sida presente en el mundo, explicó Michel Farzan, uno de los investigadores que dirigieron los experimentos.
La sustancia desarrollada es el fruto de varios años de investigación realizada principalmente por el Intituto de Investigación Scripps, centro sin ánimo de lucro con sede en Florida y financiado por el instituto público de investigación estadunidense especializado en enfermedades infecciosas (NIAID).


Este compuesto, denominado eCD4-Ig, ofrece una muy, muy fuerte protección contra el VIH, explicó Farzan, basándose en un experimento realizado con monos y descrito en la revista británica Nature.


La experimentación realizada con macacos mostró que la sustancia, inyectada una sola vez, es capaz de proteger por lo menos ocho meses del equivalente del sida para los simios.


Para garantizar el efecto prolongado, el eCD4-Ig fue asociado a un virus adeno-asociado, inofensivo, pero capaz de introducirse en las células y hacerles fabricar indefinidamente la proteína protectora capaz de crear un efecto antisida de larga duración.


Tras ser tratados con ese coctel, los macacos fueron sometidos a dosis de la versión simia del virus del sida (SHIV-AD8). Ninguno de los animales desarrolló la infección, contrariamente a los monos no tratados con eCD4-Ig y utilizados como testigo.


Protección de por lo menos 34 semanas


Los resultados publicados el miércoles en Nature muestran una protección eficaz al menos 34 semanas, aún en presencia de dosis de SHIV cuatro veces superiores a las que fueron suficientes para infectar a los macacos testigos.
La experimentación será presentada en la gran conferencia anual sobre retrovirus e infecciones oportunistas, programada en Seattle (Estados Unidos), del 23 al 26 de febrero.


Demostraremos que estos macacos siguen estando protegidos contra dosis de 8 a 16 veces superiores a la infecciosa, más de un año después de su tratamiento, precisó Farzan.


Por supuesto, necesitamos hacer nuevos estudios tanto en los macacos como en los humanos, antes de comenzar ensayos a gran escala, insistió Farzan.


Desde 1981, unos 78 millones de personas se han infectado con el VIH, que destruye las células del aparato inmunológico y deja el cuerpo expuesto a tuberculosis, neumonía y otras enfermedades.
Los medicamentos antirretrovirales desarrollados a mediados de los años 90 pueden tratar la infección, pero no logran curarla ni prevenirla.
El tratamiento es de por vida y tiene efectos secundarios. Para muchos sistemas de salud, el costo de las terapias se ha vuelto muy importante y pesa de manera considerable en los presupuestos.

Lunes, 09 Febrero 2015 05:59

El proyecto que cambiará la medicina

El proyecto que cambiará la medicina

Los datos servirán para descifrar el enigma de las mutaciones que causan males como el cáncer. Y permitirá ajustar los tratamientos a cada paciente o actuar de manera preventiva. Es la "medicina de precisión", que promete revolucionar la lucha contra las enfermedades.

 

El genoma de un millón de voluntarios en Estados Unidos será una mina de datos para descifrar el enigma de las mutaciones que causan enfermedades como el cáncer, y ajustar los tratamientos a cada paciente o actuar de forma preventiva. La secuenciación del genoma de esos voluntarios forma parte de la iniciativa del presidente de Estados Unidos, Barack Obama, para impulsar la denominada medicina de precisión, con la que se pretende dar el tratamiento más adecuado en el momento correcto, a la que destinó 215 millones de dólares en presupuesto.


Tras los logros obtenidos con el Proyecto Genoma Humano (PGH) desarrollado en los años '90 para determinar la secuencia de pares de bases químicas que componen el ADN e identificar los genes que componen el genoma humano, la comunidad científica está preparada para dar un paso más.


Para el profesor Adolfo Ferrando, del Instituto de Patología Pediátrica y Genética del Cáncer de la Universidad de Columbia, esta iniciativa es "el último capítulo" de la transformación de la medicina en los últimos años, con la incorporación de la información detallada y específica de cómo funcionan las enfermedades.


En el campo del cáncer, Ferrando explicó que la información de marcadores genéticos de mutaciones específicas tiene un impacto sobre las decisiones de cómo se trata a los pacientes, si necesitan mayor o menor intensidad de tratamiento y, en algunos casos, incluso sobre medicamentos específicos que les pueden beneficiar.


La novedad de esta iniciativa –explicó– es que analizará el genoma global –no únicamente de alteraciones específicas de los genes– y recogerá gran cantidad de datos de individuos sanos, "no sólo sobre las enfermedades que puedan padecer, sino también de las actividades que modulan las actividades de los genes, el comportamiento, la dieta, el estilo de vida". La base de datos, que mantendrá la privacidad de los pacientes pero estará a disposición de la comunidad científica internacional, permitirá a los investigadores "tener una visión más integral sobre cuál es el peso de las variantes genéticas en el desarrollo de la enfermedad", agregó Ferrando.


Sobre qué esperan encontrar, el investigador cree que habrá algunos hallazgos puntuales de "alto impacto" inmediato, pero sobre todo "va a ser un instrumento esencial para la investigación durante mucho tiempo", con el que esperan desentrañar enfermedades cardiovasculares y neurodegenerativas, entre otras.


Todavía no hay una fecha sobre cuándo se completará la base de datos, pero según su colega Raúl Rabadán, físico teórico que trabaja en genómica en el Centro de Biología Computacional de la Universidad de Columbia, "los planes son realizables". Según Rabadán, con la tecnología actual aproximadamente se tarda unas tres semanas en secuenciar y analizar el genoma de una persona. El físico recordó que si costó 100 millones de dólares secuenciar el primer genoma humano, ahora ronda los 3000 dólares.


El reto para la comunidad científica, coincidieron en señalar ambos expertos, va a ser desarrollar métodos específicos para navegar en este "océano de datos" a fin de trasladar sus hallazgos a la clínica, en forma de "marcadores predictivos" de la enfermedad o terapias que sean capaces de actuar sobre estos mecanismos genéticos.


Los Institutos Nacionales de Salud (NIH) de Estados Unidos reunirán a un grupo de expertos multidisciplinar para sentar las bases de la iniciativa y convocará a un taller en marzo próximo para analizar si se pueden aprovechar los datos de las investigaciones ya realizadas en el país sobre medicina de precisión.


Los científicos consideraron que ésta puede ser una oportunidad de atraer el foco a la investigación y al desarrollo tecnológico, que puede contribuir a revolucionar la medicina y acelerar el desarrollo industrial asociado a la investigación biomédica.


La medicina de precisión "es una realidad que ya está pasando en muchas instituciones", enfatizó Rabadán. Con más de 13 años en la investigación, el físico cree que la cura del cáncer, "por ahora, no parece un problema fácil de resolver", pero destaca los "grandes avances" que hubo, por ejemplo, en la leucemia pediátrica que, "hace 40 años, era una sentencia de muerte y ahora más del 90 por ciento de los niños sobrevive". "No se puede prever el futuro, pero lo que sí se puede es trabajar todo lo posible para mejorar las cosas", aseguró Rabadán.

Viernes, 06 Febrero 2015 16:41

Suéltame pasado

Suéltame pasado

Google dejó de mirar al pasado y ha puesto su mira en el futuro, orientándose hacia campos como la robótica y la biotecnología. Ya no quiere organizar la información del mundo ni volverla accesible; el conocimiento, según la empresa, pasó a ser cosa del pasado.

 

Misión, visión y valores de la empresa: es lo primero que aconsejan tener claro a cualquiera que quiera lanzarse al mundo de los negocios. Suena tan tonto como un programa de 12 pasos. Pero funciona igual de bien.
 Hace 14 años Google definió su misión: "Organizar la información del mundo y volverla universalmente útil y accesible", que, conjugada con el lema informal de la compañía –"No seas malvado"–, era una dupla insuperable.
Google es una de las compañías más ricas y poderosas del mundo, pero quizás como ninguna otra su grado de maldad o bondad está en perpetua discusión. Hay una legión de entusiastas a quienes decididamente les importa un rábano si Google es buena, mala o neutra, si respeta o no la privacidad de sus usuarios, cómo maneja la publicidad en su página o los criterios de ranqueo de los resultados de su buscador. Simplemente entonan el coro pospolítico "Si no te gusta, no lo uses", "Google es una empresa" (el énfasis es de ellos), o el conmovedor "¿Pero quién me va a querer espiar a mí?".

 

Otro grupo, decididamente menor, se preocupa por lo que hace Google con sus datos, por el poder que acumula la empresa y por el efecto que tiene en la sociedad toda. Google, mientras tanto, se mueve frecuentemente en una zona gris, en la que los buenos anuncios (la encriptación de las búsquedas) son inmediatamente ensombrecidos por otros que revelan intenciones menos loables (mayor accesibilidad a los términos de búsqueda que llevan a una página si se pone publicidad que si no), por sólo nombrar dos de los muchos ejemplos de avances y retrocesos en temas de seguridad y transparencia. Lo que es indudable es que lo que Google hace de bueno, por pequeño que sea, tiene una difusión y repercusión inmensas (el anuncio en agosto del año pasado, de que las páginas encriptadas ranquearían más alto en el buscador, por ejemplo), mientras que lo menos bueno, incluso aunque implique el silencioso abandono de aquella "misión" de hace 14 años, pasa desapercibido.


Sobre finales de 2014, Larry Page había admitido que la misión de Google estaba desactualizada y que probablemente necesitaran cambiarla. Entrevistado por el Financial Times, Page dijo: "Estamos un poco en territorio desconocido y tratando de darnos cuenta de cómo usar todos estos recursos y tener un impacto mucho más positivo en el mundo". Lo que resulta claro es que Google, definitivamente, dejó de mirar al pasado y ha puesto su mira en el futuro, orientándose hacia campos como la robótica y la biotecnología. Ya no quiere organizar la información del mundo ni volverla accesible; el conocimiento, según la empresa, pasó a ser cosa del pasado. Y sin importar cuán espectacular haya sido el fracaso de proyectos como el Google Glass y otros por el estilo, parece bastante claro que la idea de mejora de la humanidad que tiene Google es el camino del cyborg.


Sin embargo, ese abandono de la misión original dista de ser evidente para el usuario común, que se va dando cuenta poco a poco de los cambios. Por ejemplo, en 2011, de pronto desapareció la aplicación Timeline, que permitía filtrar los resultados del motor de búsqueda por fecha de publicación. En 2013, Hummingbird, el nuevo algoritmo de Google, apuntaba a mejorar los resultados de las búsquedas ya no por palabra clave, sino mediante preguntas, privilegiando las páginas con información nueva o reciente y orientadas más a la conversación que a la escritura.


Ahora, Andrew Baio y Jessamyn West han hecho un buen resumen de ese silencioso abandono del pasado por parte de Google en sendos artículos para Medium.com. En "Never Trust a Corporation to do a Library's Job" ("Nunca le confíes a una corporación el trabajo de una biblioteca"), Baio detalla el fin o la decadencia de proyectos como Google Groups, Google Books y Google News Archive (destacando, de paso, el trabajo de Internet Archive, esa página gloriosa que a menudo viene a salvarnos con su Wayback Machine), mientras que Jessamyn West escribe la –a menudo hilarante– historia de cómo Google dejó de amar a los bibliotecólogos y archivistas.


Y es que Google abandonó hace rato al ratón de biblioteca por el ratón de laboratorio, al mismo ritmo que la información iba quedando cada vez más y más enterrada.

Con motivo del Año de la Luz, promueven mayor estudio del Sol

Este 2015 fue decretado por la Asamblea General de la Organización de Naciones Unidas (ONU) el Año Internacional de la Luz. En este contexto, Luis Felipe Rodríguez Jorge, investigador del Centro de Radioastronomía y Astrofísica de la Universidad Nacional Autónoma de México (UNAM) y miembro de la Academia Mexicana de Ciencias (AMC), destacó la importancia del Sol, principal fuente de energía que sustenta la vida en la Tierra.


El astro mantiene al planeta a una temperatura que lo hace habitable. En el espacio las temperaturas son extremadamente bajas lejos de las estrellas y las moléculas, por ejemplo de agua, existen sólo en forma de hielo. Sin embargo, en la cercanía de de esos cuerpos celestes se alcanzan temperaturas lo suficientemente elevadas para que el recurso exista en forma líquida, clave para la vida, tal como se conoce.


A diferencia de las estrellas, que producen energía termonuclear en su interior, los planetas y sus satélites naturales son cuerpos inertes, que de no ser por la cercanía con una estrella estarían extremadamente fríos. La Luna absorbe 93 por ciento de la luz que emite el Sol, de la cual refleja 7 por ciento, suficiente para que desde la Tierra se le pueda ver iluminada en las noches, explicó el especialista universitario.


En información difundida por la AMC se dio a conocer que en el espacio existen grandes regiones o nubes que contienen gas frío, por la fuerza de su gravedad, fragmentos de estas nubes se contraen hasta formar un núcleo que se convertirá en una estrella, alrededor de la cual se formará un disco en rotación del que posteriormente surgirán los planetas y los cuerpos menores del nuevo sistema solar.


Se podría decir que la mayor parte de la materia del universo visible está atrapada en forma de estrellas; éstas tienen brillo propio, porque en su centro las presiones y temperaturas son lo suficientemente elevadas para que los átomos colisionen entre sí, lo que da lugar al proceso de fusión termonuclear, en el cual se liberan grandes cantidades de energía que viajan hasta la superficie y de ahí escapan al espacio, principalmente en forma de luz.


La masa de una estrella determina su temperatura


Dependiendo de su masa, que puede ir desde una décima hasta 100 veces la del Sol, las estrellas tienen distintas temperaturas en su superficie: de 2 mil 500 hasta 50 mil grados centígrados; entre más masiva sea, su superficie es más caliente. El Sol –a 149 millones 600 mil kilómetros de la Tierra– es una estrella de masa intermedia y la temperatura de la superficie es de alrededor de 6 mil grados centígrados.


Rodríguez Jorge explicó que la luz visible es una de las formas de la radiación electromagnética, cuando la longitud de onda de esta radiación está entre 0.4 micras (una micra es la millonésima parte de un metro), que corresponde al color violeta, y 0.8 micras, que pertenece al color rojo, puede ser detectada por el ojo humano.


Sin embargo, hay radiación electromagnética con longitudes de onda mayores y menores a las de la luz. El espectro electromagnético se divide en seis grandes ventanas que van de las longitudes de onda más grandes a las más pequeñas: radio, infrarrojo, visible, ultravioleta, rayos X y rayos gama, las cuales sólo se detectan con el uso de tecnologías.


Estudiar el espectro de una estrella permite conocer su temperatura, sus movimientos y su composición química. Así, a principios del siglo XX y a partir de las características espectrales, se desarrolló una clasificación en letras, que luego se entendió correspondían a las temperaturas estelares. Estas letras son O, B, A, F, G, K y M. Esto es, las estrellas O son las más calientes y las M, las más frías. El Sol es una tipo G, finalizó.

Crean una máquina para "teletransportar" objetos vía internet

Un grupo de ingenieros alemanes ha construido una máquina capaz de teletransportar objetos a través de Internet. Lo que parecía un sueño inalcanzable ya parece una realidad más que tangible.


Aunque el invento llamado 'Scotty' todavía es imperfecto y destruye algunos objetos, han conseguido procesar y transportar los datos de los objetos a través de Internet, y esperan que se convierta en un verdadero prototipo de teletransportación, al igual que podíamos ver en la serie de ciencia ficción Star Trek, según informó el diario 'The Telegraph'.


El dispositivo se encarga de escanear los objetos a teletransportar con una cámara, previamente cortándolos en capas con el objetivo de mejorar el procesamiento de sus datos. Después la información tratada se cifra y se envía a una impresora 3D conectada a un ordenador en cualquier rincón del mundo, que reproduce su modelo reconstruido.


Este parece ser un gran avance en la ciencia contemporánea, aunque por el momento la máquina todavía presenta algunas deficiencias, dado que destruye las cosas y solamente teletransporta los objetos pequeños y de color negro.


Sin embargo los ingenieros aseguran que ha sido un buen comienzo, y en breve podrán mejorar las prestaciones del invento.


(Con información de The Telegraph)

¿Qué dice la ecuación Navier–Stokes?

Hasta la fecha nadie ha logrado aportar una solución robusta a la ecuación Navier–Stokes. Mejores ideas, enfoques y aproximaciones son necesarias. Entre tanto, se trata de un reto formidable, conocido como uno de los "Problemas del Milenio".

 

En el año 2000, el prestigioso Instituto Clay —Clay Mathematics Institute— logró reunir el consenso de toda la comunidad de matemáticos alrededor del mundo acerca de los problemas fundamentales —digamos "últimos"— de las matemáticas. Fundado en 1998 como un instituto privado, presentó en junio del 2000, en el Collège de France (París), el conjunto de los problemas matemáticos más importantes sin resolver y de los cuales depende la comprensión fundamental del universo y la realidad.

 


Los Problemas del Milenio reunidos fueron siete. Sin embargo, muy pronto uno de ellos fue resuelto por el genio matemático ruso G. Perelman. El instituto estatuyó un premio de un millón de dólares a quienes logren resolver los problemas mencionados. En una serie discontinua de distintos artículos presentaré el significado de cada uno de los problemas mencionados.

 


Uno de ellos es la ecuación de Navier–Stokes (N–S). Esta ecuación es una variación de la segunda ley de Newton referida al movimiento de los fluidos. Por ejemplo, el clima, las corrientes oceánicas, las corrientes de aire y muchos otros fenómenos que interesan y afectan a numerosas ciencias, disciplinas y la ingeniería, por ejemplo. En consecuencia, la ecuación de Navier–Stokes se ocupa de sistemas o estructuras disipativas.

 

Las dinámicas de los fluidos son difíciles de entender y de explicar. Los fluidos son determinantes en las estructuras y procesos del planeta y del universo. Y, sin embargo, hasta la fecha no se sabe si existen soluciones a esas dinámicas y la comprensión es aún primitiva. En otras palabras: la comprensión fundamental en toda la historia de la humanidad ha sido acerca de estados. Carecemos, aún, de una teoría fundamental de procesos. La ecuación Navier–Stokes apunta en esta última dirección.

 

Los términos de la ecuación son, de un lado, una región de un fluido; y de otra parte, las fuerzas que actúan sobre esa región: específicamente, la presión, la tensión y las fuerzas internas de los cuerpos. Sobre esta base debe ser posible comprender cómo se mueven los fluidos. La dificultad estriba en que los fluidos tienen procesos y estructuras que no pueden plantearse en términos lineales o cuasilineales. Técnicamente dicho, la ecuación —o las ecuaciones— de N–S son diferenciales parciales no–lineales. Tenemos ante nosotros, literalmente, un problema complejo.


Así las cosas, aquello que se encuentra en la base o en el horizonte de la ecuación de N–S son fenómenos y sistemas caracterizados por no–linealidad, turbulencia, inestabilidad, velocidades relativas. Y, muy exactamente, los fluidos son fenómenos incompresibles.

 

El ingeniero y físico francés, Claude–Louis Henri Navier (1785–1836), logró en 1822 un sistema de ecuaciones en derivadas parciales para el flujo de un fluido viscoso (elasticidad y mecánica de fluidos). Por su parte, George Gabriel Stokes (1819–1903), matemático y físico irlandés, comienza a publicar en 1842 diversos artículo científicos —papers— sobre el movimiento uniforme de fluidos incompresibles, que contribuyeron, por primera vez, a comprender fenómenos como las nubes, las olas del agua o los flujos de los ríos. Vale mencionar que, paralela e independientemente, E. Haeckel propone el concepto de ecología en 1866.


Así las cosas, la ecuación Navier–Stokes hace referencia, genéricamente, al flujo de fluidos en un espacio R3 —y que significa un espacio de tres dimensiones: el mundo a nuestro alrededor—. Habitualmente se emplea el plural —hablándose entonces de las ecuaciones Navier–Stokes—, gracias al hecho de que la ecuación está planteada en términos de un vector.


Pues bien, lo que hace la ecuación es plantear un problema. Sin embargo, no es en absoluto evidente cómo la ecuación N–S puede resolverse.


Se han planteado diversas alternativas y todas ellas en términos de lo que en matemáticas se denomina "una solución débil" (weak solution). Una solución en matemáticas se dice que es "débil" cuando no existen derivadas parciales y, sin embargo, puede pensarse que satisfacen la ecuación en un sentido muy definido. Asimismo, una solución se dice que es débil cuando de un problema determinado se ha hecho una formulación muy general.


De esta forma, las ecuaciones N–S han sido empleadas con éxito para referirse a las dinámicas de fluidos en términos de velocidades. Tal es el caso, por ejemplo, de sus beneficios en la industria aeronáutica y aeroespacial; pero lo mismo acontece en el caso de la industria automovilística, en donde los beneficios de las ecuaciones N–S son altas y fundamentales.


Sin embargo, en la comunidad científica, en general, el Santo Grial, por así decirlo, de las ecuaciones Navier–Stokes consiste en el estudio y la comprensión del clima. Y con éste, entonces aspectos tales como el calentamiento global y el debate en contra de los negacionistas de los daños infringidos al medioambiente por parte del sistema de libre mercado.


El medioambiente y el clima son fenómenos de altísima complejidad, cuya estructura, comportamientos y dinámicas apenas están siendo comprendidos. Como quiera que sea, intelectualmente, el aspecto maravilloso estriba en el hecho de que el caos fue descubierto gracias a una ciencia "menor": la meteorología y los trabajos de E. Lorenz. Pasaron muchos años antes de que el tema se convirtiera en una teoría y en una ciencia mayor. Pues bien, las ecuaciones Navier–Stokes tienen su primero y más crucial enfrentamiento con el estudio del clima y el medio ambiente: fenómenos y estructuras esencialmente disipativos.


Nadie ha logrado hasta la fecha aportar una solución robusta a la ecuación Navier–Stokes. Mejores ideas, enfoques y aproximaciones son necesarias. Entre tanto, estamos ante un reto formidable, conocido como uno de los Problemas del Milenio. Uno de los más cruciales retos en la comprensión del mundo y del universo en el que vivimos.