Desarrollan método sencillo que usa luz para atacar el cáncer

 

Se busca activar a las células T, llamadas asesinas, hacia las enfermas, señala Minsoo Kim, de la Universidad de Rochester

La técnica es muy flexible y no tóxica, asegura el experto

 

Madrid.

 

La ciencia que busca aprovechar el sistema inmunológico para combatir el cáncer es complicada, pero un laboratorio del Centro Médico de la Universidad de Rochester (UR), en esa ciudad estadunidense, descubrió una manera simple y práctica de utilizar la luz y la óptica para tratar de dirigir las células inmunes asesinas hacia los tumores.

En un estudio publicado en la edición digital de la revista Nature Communications, el autor principal, Minsoo Kim, profesor de microbiología e inmunología en la UR e investigador del Instituto de Cáncer de Wilmot, describe su método como similar a enviar luz a una misión de espionaje para rastrear las células cancerosas.

La inmunoterapia es distinta de la radiación o la quimioterapia. En lugar de matar directamente las células cancerosas, le dice al sistema inmunológico que actúe de cierta manera estimulando las células T para atacar la enfermedad.

Existen o están en desarrollo varios tipos de inmunoterapia, incluyendo píldoras llamadas inhibidores de punto de control y la terapia de células T con CAR, que implica la eliminación de las células inmunes del paciente y alterarlas genéticamente para que busquen y destruyan las cancerosas.

 

Posibles reacciones

 

Sin embargo, el problema es que la inmunoterapia puede provocar que el sistema inmunológico reaccione exageradamente o de manera insuficiente, lamenta Kim. Además, las células cancerosas son evasivas y pueden esconderse de las T asesinas. Los tumores agresivos suprimen las defensas del organismo en las áreas que rodean la malignidad (microambiente), manteniendo las T fuera.

Si el sistema inmunológico reacciona poco, la única manera de modificarlo es bombeando más células T en el cuerpo, pero esto a menudo desencadena una tormenta de toxicidades que pueden apagar los órganos de un paciente.

El laboratorio de Kim se centró en cómo superar el ambiente inmunosupresor que crea el cáncer, en dos proyectos separados.

Un estudio biológico se centró en entender y desarrollar moléculas sensibles a la luz que podrían guiar eficientemente a las células T hacia los tumores. Así, descubrió que una molécula llamada canalrhodopsinas (CatCh), activa en las algas y sensible a la luz, podría introducirse en el sistema inmunológico por medio de un virus y activarse para controlar la respuesta de las células T al cáncer.

Matan Rapoport, gerente de licencias de UR Ventures, oficina de transferencia de tecnología de la universidad, ha solicitado la protección de patentes sobre este tema.

El otro trabajo se centró en inventar un chip Led para probarlo en ratones y que eventualmente podría implantarse en seres humanos. Para este proyecto, el laboratorio de Kim colaboró con científicos de óptica y fotónica de la UR. El equipo evaluó sus métodos en roedores con melanoma en las orejas. Los animales llevaban una pequeña batería que enviaba una señal inalámbrica al chip, lo que permitía a los investigadores encender de forma remota la luz sobre el tumor y las áreas circundantes, dando a las células T un impulso para su función de matar el cáncer.

El control óptico fue suficiente para permitir que el sistema inmunológico casi borrara el melanoma sin efectos secundarios tóxicos, según las conclusiones del estudio. Kim señala que los trabajos futuros determinarán si la señal Led inalámbrica puede transmitir luz a un tumor profundo del cuerpo en lugar de en la superficie y todavía tener la capacidad de estimular las células T para que lo ataquen.

Actualmente, menos de 40 por ciento de los pacientes que reciben inmunoterapia obtienen buenos resultados, aunque los que sí responden a menudo son mucho mejores. Kim enfatiza que su descubrimiento está destinado a combinarse con la inmunoterapia para hacerla más segura, más eficaz y rastreable.

Con las mejoras, apunta Kim, el método óptico podría permitir a los médicos ver, en tiempo real, si la terapia contra el cáncer está alcanzando su objetivo. Actualmente, cuando un paciente recibe inmunoterapia, debe esperar varias semanas y luego someterse a escáneres de imágenes para averiguar si el tratamiento funcionó.

La belleza de nuestro enfoque es que es altamente flexible, no tóxico y se centra en la activación de las células T para que hagan su trabajo, concluye Kim.

 

 

Foto ilustrativa

 

Científicos internacionales creen que este material es el mejor reemplazo para el petróleo y el gas natural.

 

Pekín ha logrado extraer de manera estable muestras del llamado 'hielo combustible' en el fondo del Mar de China Meridional, reporta el periódico 'Shanghai Daily'. Según el diario, que cita al ministro de Tierra y Recursos Jiang Daming, se trata de un gran avance que podría llevar en el futuro a una revolución energética a escala mundial.

El punto de extracción de esta especie de hidrato de gas natural se encuentra a una profundidad de 1.266 metros y a unos 285 kilómetros al sureste de Hong Kong. Los especialistas chinos han retirado una media de 16.000 metros cúbicos de alta pureza al día del prometedor recurso a lo largo de siete jornadas consecutivas.

Según Daming, se trata del primer éxito de China en la extracción del hielo inflamable en el mar tras casi dos décadas de investigación y exploración. Pekín descubrió 'hielo combustible' en el Mar de China Meridional en 2007.

 

¿Que es el 'hielo combustible'?

 

Esta especie de hidrato de gas natural, explica el medio, se encuentra en las áreas del lecho marino o tundra donde se dan las altas presiones y las bajas temperaturas necesarias para su estabilidad. El material se asemeja a simple vista al hielo y arde con facilidad como el etanol sólido; de ahí su denominación.

Un metro cúbico de 'hielo combustible' equivale aproximadamente a 164 metros cúbicos de gas natural regular. Científicos internacionales consideran este material como el mejor reemplazo para el petróleo y el gas natural. Además, se cree que es más ecológico y que se encuentra en la Tierra en grandes reservas.

"Muchos países a lo largo de la Ruta de la Seda Marítima demandan la extracción del 'hielo combustible'", afirmó el director del proyecto de extracción Qiu Haijun. "Con tecnología avanzada podríamos ayudar a resolver el problema de los recursos energéticos y fomentar el desarrollo económico y los intercambios entre los países", aseguró.

 

 

Publicado enInternacional
Recrean plasma existente en el universo tras el Big Bang

Ni siquiera fue un parpadeo. Una millonésima de segundo después del Big Bang, un plasma altamente denso y caliente inundó todo. Se trataba de la forma en la que, de acuerdo con los científicos, se encontraba el universo en sus primeros instantes, y posteriormente se expandió. Se calcula que esta Gran Explosión sucedió hace aproximadamente 14 mil millones de años.

 

Desde hace miles de años, el ser humano se ha preguntado en torno a los orígenes del universo, sobre la naturaleza de la materia oscura, de la posibilidad de que existan más dimensiones o los porqués de que la antimateria haya desaparecido dejando un universo hecho de materia, entre otras interrogantes.

 

Los expertos –incluidos varios mexicanos– que colaboran en el experimento A Large Ion Collider Experiment (Alice), que forma parte del Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), obtuvieron recientemente un resultado relevante. Se trata de un descubrimiento en el que por primera vez se recrea un plasma de quarks y gluones, estado de la materia en el que, se dice, se encontraba el universo 10 microsegundos después del Big Bang. Esto gracias al choque de protones de muy alta energía.

 

Los resultados del experimento se reportan en el artículo Enhanced production of multi-strange hadrons in high multiplicity proton-proton collisions, publicado el 24 de abril en la revista Nature Physics.

 

Entre los participantes de Alice se encuentran los investigadores mexicanos Gerardo Herrera Corral, del Departamento de Física del Centro de Investigación y de Estudios Avanzados (Cinvestav); e Ildefonso León Monzón, de la Universidad Autónoma de Sinaloa (UAS), quien realiza una estancia en el Cinvestav, así como académicos y estudiantes de las universidades Nacional Autónoma de México y de la Benemérita Autónoma de Puebla.

 

El LHC es un acelerador ubicado a una profundidad de 175 metros bajo la frontera franco-suiza y consta de una circunferencia de 27 kilómetros. Es un proyecto del Centro Europeo de Investigación Nuclear con el que se hacen girar, a velocidades cercanas a la luz, partículas de protones que se hacen colisionar para recrear el Big Bang, y así comprender mejor el funcionamiento del universo.

 

En conferencia realizada ayer en las instalaciones del Cinvestav, Herrera Corral señaló que la relevancia de este descubrimiento radica en que, aun cuando ya se había logrado crear el plasma primigenio con iones de plomo, nunca antes se había hecho con protón-protón.

 

En el universo existen 12 partículas primordiales que componen y dan forma a todo lo que existe, seis tipos diferentes son quarks y seis tipos son leptones. Los nombres de los quarks son: arriba, abajo, extraño, encanto, verdad y belleza. De estos, los primeros tres son los más ligeros y los más comunes por dar forma a los protones y neutrones.

 

“Los quarks arriba y abajo siempre aparecen en arreglos de dos y de tres, fenómeno que aún no comprendemos del todo. Y el que no aparece tan fácilmente es el quark extraño. El hecho de que esta partícula aparezca en un Omega, composición de tres quarks extraños, lo convierte en un hadrón muy pesado. Así como Xi, que es una composición de dos quarks extraños y uno arriba. Lo que acaba de observar Alice en la colisión de protones contra protones es la producción de más Omega y más Xi de lo que se esperaba”.

 

En el choque protón-protón se alcanzan temperaturas de 5.5 billones de grados Celsius. Si se tuviera un centímetro cúbico de este plasma pesaría 40 mil millones de toneladas. Lo que hemos observado y nos parece espectacular y un tema de estudio muy interesante por las consecuencias que va a tener, es que este plasma se comporta como un líquido perfecto, destacó Herrera Corral.

 

León Monzón señaló que una de las conclusiones a las que se llegaron a partir de estos resultados es que al obtener partículas con quarks extraños por la colisión protón-protón será posible estudiar de manera más sencilla y con datos más precisos el plasma de quarks-gluones, que es la forma en que se encontraba el universo en sus primeros instantes.

 

En el proyecto Alice participan mil 500 investigadores de 37 países y 151 instituciones. León Monzón indicó que más de 30 estudiantes mexicanos han realizado sus tesis de doctorado y hay involucrados más de 20 científicos de universidades mexicanas. Los connacionales han aportado la creación de tres de los 19 detectores que constituyen Alice: los instrumentos V0, Acorde y AD.

Maqueta del telescopio que se espera sea inaugurado en noviembre de 2024

 

En pleno desierto de Atacama, Chile, un cerro aguarda la construcción del mayor telescopio óptico e infrarrojo del mundo. Con un cristal de 39 metros de diámetro, casi la mitad de un campo de futbol, el Telescopio Extremadamente Grande (ELT, por sus siglas en inglés) será el ojo más grande para observar el cielo desde la Tierra.

Con él se avanzará en la búsqueda de posibles planetas habitables o en la investigación de la materia oscura y de los agujeros negros.

El cerro Armazones está a unos 130 kilómetros al sur de Antofagasta. Hace dos años se voló el pico de la montaña para allanar el terreno que acogerá esta ambiciosa obra de ingeniería: una cúpula de 80 metros de alto capaz de sostener un enorme espejo que rotará para seguir el movimiento de las estrellas.

El próximo 26 de mayo se pondrá la primera piedra y se espera que en noviembre de 2024 el telescopio sea inaugurado, o como dicen los astrónomos, vea su primera luz.

 

ESO, el responsable

 

El responsable de este gran proyecto es el Observatorio Europeo Austral (ESO, por sus siglas en inglés), una de las principales instituciones astronómicas del mundo. Formado por 15 países europeos –entre ellos España– y Brasil, este consorcio se encarga de otros importantes telescopios instalados en Chile, como el interferómetro Alma o el Más Grande Telescopio.

El salto entre los telescopios que tenemos ahora y el ELT es casi tan grande como entre el ojo de Galileo y su telescopio hace 400 años, explicaba recientemente en Madrid el director general de ESO, Tim de Zeeuw.

El espejo del Telescopio Extremadamente Grande será cinco veces mayor que los actuales más avanzados –de entre ocho y 10 metros– y podrá captar 13 veces más luz que ellos, por lo que las imágenes serán mucho más nítidas.

Uno de sus objetivos será buscar planetas que puedan albergar vida fuera del sistema solar, como el sistema Trappist o Próxima b, descubiertos recientemente. Con su gran capacidad, el ELT mostrará imágenes más grandes e incluso podría permitir medir directamente las propiedades de las atmósferas de esos planetas.

Actualmente está en marcha una carrera por encontrar el primer exoplaneta habitable, algo que según De Zeeuw podría suceder en la próxima década. Es curioso que este telescopio pueda ayudarnos a encontrar evidencias de vida en otros planetas desde uno de los lugares más inhóspitos del mundo, el desierto de Atacama, apunta.

Ese pedazo de Chile es idóneo para instalar el ELT gracias a la corriente oceánica de Humboldt, que hace que la zona siempre esté libre de nubes, pues estas se quedan sobre el Pacífico o al otro lado de los Andes. Gracias a ello, en el desierto de Atacama 90 por ciento de las noches son despejadas y propicias para hacer observaciones.

En total, el ELT contará con cinco espejos. El más grande, el primario, de 39 metros, estará formado por casi 800 segmentos hexagonales de 1.4 metros de diámetro que deben ensamblarse a la perfección. ¿Por qué hacerlo de esa manera? Nadie sabe cómo fabricar un espejo de ese tamaño de una sola pieza. Pero incluso si se lograra, no sería posible transportarlo, expone De Zeeuw.

 

Ejercicio interesante

 

Este astrónomo holandés de voz suave ha sido el encargado de conseguir los mil 200 millones de dólares, necesarios para financiar el ELT en plena crisis económica. Lograrlo fue un ejercicio muy interesante que implicó llegar hasta el nivel político, reconoce De Zeeuw.

El origen del ELT se remonta a finales de los años 90, cuando en el Observatorio Europeo Austral alguien se preguntó si se podría construir un telescopio de 100 metros de diámetro. El costo de semejante aparato se disparaba hasta 3 mil o 4 mil millones de euros, así que se redujo la ambición hasta los 39 metros.

Pero el ELT no es el único proyecto de telescopio gigante. En Estados Unidos hay dos iniciativas que compiten para conseguir fondos públicos. Una es el Telescopio de Treinta Metros, impulsado por el Instituto de Tecnología de California, que pretende instalarse en Hawai. El otro es el Telescopio Gigante de Magallanes, desarrollado por la Institución Carnegie para la Ciencia y que también se construirá en Chile.

 

 

Dos esferoides humanos ensamblados, el ventral a la izquierda, el dorsal a la derecha. Las neuronas inhibidoras (verde) están migrando a la zona dorsal y formando circuitos allí.

 

La generación a partir de células madre de las arquitecturas típicas del córtex frontal abre un continente a la neurología

 

La parte más nueva de nuestro córtex (o corteza) cerebral, la que se ha desarrollado más a lo largo de la evolución de los homínidos, son los lóbulos frontales, justo detrás de la frente. Es allí donde residen nuestras más altas funciones mentales, como el entendimiento, el razonamiento y la creatividad artística. Y es allí donde se centra la investigación de los científicos de las universidades de Stanford, en California, y Harvard, junto a Boston. Los trozos de cerebro que han generado no son cualquier trozo de cerebro, sino justo el que nos hace humanos.

Esferoide significa “algo parecido a una esfera”, y tal vez convenga que nos vayamos acostumbrando a ese término. Lo vamos a leer a menudo en los próximos años y décadas. Una bolita de neuronas de un milímetro, que se puede por tanto ver a simple vista, y que revela al microscopio las mismas estructuras y tipos neuronales que descubrió Cajal, merece al menos un nombre, y esferoide no es tan feo como parece. Los objetivos de estas investigaciones son entender a fondo el desarrollo normal del córtex cerebral humano, y también descubrir los fundamentos de la enfermedad mental. Y los neurocientíficos ya han descubierto con sus esferoides un dato esencial sobre el origen del autismo y la esquizofrenia.

Percibir la importancia de los esferoides requiere un somero repaso de la neurología elemental. Uno de los principios básicos del diseño del córtex es la interacción entre neuronas activadoras e inhibidoras. En ese equilibrio complejo se basa el funcionamiento de nuestra mente y nuestro aprendizaje. Las neuronas activadoras disparan glutamato a sus vecinas, y las inhibidoras disparan un compuesto químico distinto, llamado GABA (ácido gamma-amino-butírico).

Esos dos tipos neuronales no nacen juntos. Las neuronas activadoras nacen en la parte dorsal del córtex frontal del feto, y las inhibidoras nacen en la parte ventral. Después, ya durante la segunda mitad del embarazo, las neuronas GABA emigran de la parte ventral a la dorsal y se integran con las neuronas activadoras para formar circuitos funcionales. Estos procesos de increíble complejidad y sutileza son los que han logrado recapitular los científicos de Stanford en la placa de cultivo.

Pese a toda la innovación que suponen, los esferoides se basan en una idea asombrosamente simple. Mucha gente ha sembrado antes células madre en placas de cultivo. Las células precursoras de las neuronas se adhieren enseguida a la superficie, maduran parcialmente e intentan formar una sociedad de dos dimensiones. Pero las neuronas reales viven en tres dimensiones, y sin eso no funcionan bien. Y ha bastado impregnar la superficie con un repelente de células para lograr que las neuronas naden libremente por el medio de cultivo, maduren y se asocien como esferoides, en grupos de a millón.

El neurólogo Sergiu Pasca, sus colegas de Stanford y sus competidores de Harvard, que presentan su investigación en Nature (1 y 2), separan luego los esferoides en dos grupos e inducen a uno a adoptar el estilo glutamato (activador) y a otro el estilo GABA (inhibidor). Los yuxtaponen y, en tres días, los dos esferoides se fusionan y las neuronas GABA de un esferoide empiezan a migrar al otro esferoide, un poco a saltos. Cuando llegan a su destino, empiezan a hacer brotar dendritas y a formar conexiones funcionales con las neuronas de glutamato. Forman circuitos con ellas y se mandan señales. Como en el feto durante la segunda mitad del embarazo.

El síndrome de Timothy es una enfermedad rara que afecta al corazón, los dedos y el cerebro. Los marcapasos han regalado a algunos pacientes bastantes años de vida, pero los que sobreviven tienen autismo, y a menudo epilepsia. Los científicos han podido acceder a muestras de piel de pacientes de Timothy, los han convertido en esferoides y han podido demostrar así, por primera vez, que son los defectos en la migración neuronal –de las células inhibidoras ventrales hacia latitudes dorsales—los que subyacen, y seguramente causan, el autismo y la epilepsia.

Los científicos de Stanford están aprendiendo a construir una mente humana. Será interesante ver a dónde llegan.

 

 

Científicos de todo el mundo reivindican la importancia de los hechos frente a la posverdad

Cientos de ciudades, entre ellas varias españolas, se unen a la gran Marcha por la Ciencia que se celebrará en Washington el próximo sábado


"Estamos sustituyendo el conocimiento por interpretaciones alternativas de la realidad y se está generando una especie de exaltación de la ignorancia", explica la investigadora Mara Dierssen



"Nos unimos por una ciencia que defienda el bien común y para que los líderes y los responsables políticos promulguen políticas basadas en la evidencia y en el interés público". Con estas palabras se anunciaba hace unas semanas la Marcha por la Ciencia, un evento que tendrá lugar el próximo sábado en la ciudad estadounidense de Washington y que ha surgido como una reacción ante los exabruptos anticientíficos del nuevo Gobierno de Donald Trump.


A través de esta marcha, los organizadores quieren reivindicar la importancia de una ciencia independiente como motor de la democracia y llaman a los científicos a movilizarse. "Frente a la alarmante tendencia hacia el descrédito del consenso científico, debemos preguntarnos: ¿podemos permitirnos mantenernos al margen del debate?", se dice en un comunicado.


Pero a pesar de ser un movimiento marcado por la irrupción de Trump, la sensación de los científicos de muchos países de que es necesario reivindicar la importancia de la ciencia a nivel global ha hecho que se hayan convocado movilizaciones similares en más de 500 ciudades de todo el mundo.


En España, las ciudades de Madrid y Sevilla organizarán sendas manifestaciones el próximo día 22 de abril, coincidiendo con el Día de la Tierra. Otras ciudades como Granada, Barcelona y Girona también realizarán varias actividades ese mismo día, como debates y talleres y una concentración en el Parc de Recerca Biomèdica de Barcelona.


Hablamos con investigadores españoles que trabajan en distintas ciudades para entender mejor por qué consideran necesaria la movilización y qué les ha impulsado a salir a la calle.


Javier Jiménez, portavoz de la Marcha por la Ciencia de Madrid


"La idea inicial era hacer una marcha satélite, en muestra de apoyo a la que se hacía en EEUU, pero en seguida quedó patente que las tendencias que han aflorado allí, también se pueden ver aquí, a lo que se le añaden los problemas específicos de la ciencia española", explica Jiménez.


Según este periodista especializado en ciencia, la marcha es un evento en el que "celebrar la pasión por la ciencia", pero en el que también se va a "reivindicar su papel y el del conocimiento humanístico en las decisiones democráticas". Jiménez aclara que no abogan por la "tecnocracia", pero insiste en que "las decisiones democráticas deben basarse en el mejor conocimiento que dispongamos".


Sobre las posibilidades de éxito de la marcha, Jiménez asegura que "cada día que pasa estamos recibiendo más apoyos y poco a poco nos vamos animando", pero asegura que "no hay que ver la marcha como un objetivo en sí mismo, sino como el comienzo de una serie de movilizaciones y reflexiones que debemos hacer sobre el papel de la ciencia en nuestra sociedad".


Mara Dierssen, investigadora del Centro de Regulación Genómica (Barcelona)


Para Mara Dierssen, jefa del grupo de Neurobiología Celular y de Sistemas del CRG, uno de los principales problemas a los que nos enfrentamos es el de valorar adecuadamente las pruebas y los hechos, dado que "a menudo se ignora la evidencia científica e incluso en ocasiones se inventan los hechos". Según esta investigadora, "estamos sustituyendo el conocimiento por interpretaciones alternativas de la realidad y se está generando una especie de exaltación de la ignorancia".


Dierssen, que participa en uno de los eventos que se organizará este sábado en Barcelona, insiste en que "es necesario que la ciencia se integre en la toma de decisiones políticas y que esas decisiones estén basadas en hechos" e incide en que "es importante trabajar por una ciencia independiente y que sea de todos y para todos".


Por último, esta investigadora también recalca la importancia de la educación científica de la sociedad. "Debemos entender que el conocimiento es libertad y una sociedad ignorante, ya sea en términos científicos o en cualquier otro aspecto, es una sociedad más manejable".


Carlos Sierra, investigador de la Universidad de Columbia (EEUU)


"Me resultaría muy difícil entender que cualquier científico o asociación de científicos no secunde los objetivos que se persiguen con esta marcha", explica Carlos Sierra. Según este investigador, las instituciones deben continuar dando su apoyo para "luchar contra los efectos del cambio climático, encontrar nuevas terapias contra las enfermedades neurodegenerativas y el cáncer, reducir el impacto de las enfermedades cardiovasculares, buscar nuevas formas de energía...".


Sierra hace especial hincapié en los problemas que atraviesa la comunidad científica ahora en EEUU y destaca "las trabas para los investigadores extranjeros a la hora de conseguir visados", "el nombramiento del negacionista del calentamiento global Scott Pruitt como responsable de la agencia medioambiental de EEUU, o la propuesta de obligar a la Agencia de Medicamentos (FDA) a hacer menos estrictos los controles clínicos para sacar fármacos al mercado".


Sierra, que participará en la marcha de Washington, considera que este tipo de eventos "son necesarios y útiles" y asegura que aunque no se consiga el gobierno de Trump de marcha atrás a sus "políticas lesivas", siempre "habrá más posibilidades de que esto suceda que si nos quedamos todos en casa y protestando en privado".


Eva Hevia, profesora de la Universidad de Strathclyde (Escocia)


"Este tipo de marcha sirve para que los científicos nos unamos y salgamos a la calle para reivindicar no solo la importancia de la ciencia en la sociedad y vida diaria de todas las personas, sino también que en Ciencia no existen barreras en cuanto a edad, género o nacionalidad", explica Hevia, que acudirá a la marcha que se celebrará en Edimburgo.


Esta investigadora señala varios factores que ella cree que han servido de motivación a los científicos, tanto en Escocia y España, como a nivel global, debido especialmente al "actual momento en que vivimos, con el Brexit a la vuelta de la esquina, Trump negando la evidencia científica del cambio climático o la alarmante y la continua falta de inversión del gobierno español en I+D".

Regina Dugan enseña su plan para dictar desde el cerebro.

 

La red social despliega sus experimentos futuristas en la conferencia de desarrolladores de la compañía

 

Facebook ha demostrado que no hace falta subir a Mark Zuckerberg al escenario para dejar al auditorio sin aliento. La segunda jornada de F8, la conferencia de desarrolladores de la compañía, se dedicó por completo a fantasear, imaginar y meter a los asistentes en una espiral que parecería una película de ciencia ficción si no fuese porque los que relataban los planes eran científicos y no actores. Regina Dugan (Nueva York, 1963) es la responsable del Edificio 8, la zona experimental de Facebook, el antiguo campus de Sun Microsystems reconvertido en un parque de atracciones para los científicos más innovadores que consiguen reclutar.

Dugan es una de las leyendas de Silicon Valley. Tras pasar por DARPA, el programa de la NASA que alumbró Internet, pasó a formar parte de Google. Hace solo un año fichó por los de Menlo Park.

Dugan crea una de las obsesiones de la industria tecnológica, los moonshots (disparos a la luna). Así llaman a los proyectos imposibles que terminan por convertir en realidades, en forma de productos. El Edificio 8, como el 99 de Microsoft, no tiene una meta a corto plazo, sino una gran libertad y un generoso presupuesto para retar los límites de la humanidad.

Dentro del ambicioso plan a 10 años de Zuckerberg para hacer que los 4.100 millones de personas que todavía no tienen conexión a Internet –y por tanto tampoco cuenta en Facebook– lleguen al ciberespacio, Dugan tiene un papel primordial. Su equipo crea hardware, software y no deja una sola duda sobre el valor que la inteligencia artificial tendrá en nuevas vidas. “En mi vida no he visto alto tan poderoso como el móvil. Si lo unimos con la misión de Facebook, nos damos cuenta de cómo nos ha permitido compartir momentos de nuestra vida. Salta la frontera del tiempo y la distancia”, proclamó antes de comenzar a desplegar sus fuegos de artificio.

Uno de sus planes es hacer que los humanos podamos escuchar a través de la piel. Una simplificación que refleja la ambición de estos visionarios por ir más allá de lo que el cuerpo humano puede conseguir sin tecnología adicional. Según sus estudios, las terminaciones nerviosas de la piel podrían reconvertirse en un buen sensor para después traducir los sonidos que le rodean. Dentro de este pensamiento, que mezcla la fantasía con los últimos avances, también contemplan la posibilidad de hacer que los humanos podamos escribir sin tener que teclear, tomando directamente la información emitida por el cerebro, utilizando sensores que se activan cuando el cerebro comienza a emitir. “Hasta 100 palabras por minuto, solo con el pensamiento”, subrayó. Según los cálculos de Dugan se escribiría cinco veces más rápido que la media con el teclado y poco importará el idioma nativo del creador, pues lo conceptos se podrían traducir en tiempo real.

Para hacerlo posible el cerebro tendría que contar con microelectrodos implantado en el cerebro. A diferencia de la propuesta de Elon Musk, Facebook no pretende llegar a hacer los implantes a través de cirugía, pero sin con una fórmula no invasiva que emita y reciba señales con nodos portátiles que irían sobre el pelo o la piel.

En el caso de la escucha con la piel, la analogía utilizada fue la del lenguaje braille. Si estos puntos sobre una superficie se pueden percibir y se puede entender que representan número y letras, ¿por qué no conseguir que las frecuencias se perciban en el antebrazo tras reconocer patrones en las ondas? El sueño de Dugan es que los sordos consigan dejar de serlo explorando esta posibilidad.

Es posible que estas fábulas nunca se lleguen a realizar. También que parte de este capital caiga en saco roto. No importa. Facebook sabe que este espectáculo, esta forma de pensar, sirve también para atraer a los empleados con ganas de asumir retos y derribar fronteras. Dugan se quita importancia: “Solo queremos que la gente se comunique mejor”.

 

 

Neuronas cultivadas sobre nanocables optoelectrónicos.- UCSD

 

Los implantes experimentales prometen restaurar la visión perdida por degeneración macular, diabetes o retinitis pigmentosa.

 

Al igual que sucedía antes con las cataratas, la pérdida de visión por degeneración de la retina no tiene tratamiento efectivo en la mayoría de los casos. En las cataratas se sustituye el cristalino por una lente artificial y el avance ha cambiado la vida a cientos de miles de personas. Lo mismo se intenta hacer desde hace años con la retina, el sensor que recoge lo que vemos, pero está resultando mucho más difícil. Dos nuevas prótesis, probadas en ratas durante meses, indican que el objetivo –una solución semipermanente y eficaz, sin cables ni elementos externos- está más cercano

Este tipo de prótesis serviría para restaurar la visión en los muy abundantes casos de ceguera degenerativa, que incluyen la degeneración macular asociada a la edad, la diabetes y la retinitis pigmentosa. En todos estos casos los fotorreceptores de la retina mueren y son incapaces de captar la luz, aunque las neuronas adyacentes, que es el siguiente paso en el proceso de la visión, permanecen intactas.

En el primero de los dos prototipos presentados recientemente, la nanotecnología combinada con la telemetría sin hilos da lugar a un dispositivo que imita la disposición de los fotorreceptores de la retina. Nanocables de silicio sensibles a la luz estimulan eléctricamente la retina y reciben energía y datos por wifi, en lo que se define como un interfaz neuronal con resolución y sensibilidad comparables a la de la retina humana. No es necesario un sensor de visión externo conectado por cables pero sí un pequeño emisor externo sin cables.

La investigación, realizada en la Universidad de California en San Diego y la empresas Nanovision Biosciences, se publica en Journal of Neural Engineering y por ahora se ha limitado a pruebas in vitro sobre retinas de rata.

 

58f7a8913976b.r 1492626251416.471 68 929 305

Elementos de retina artificial, vistos al microscopio electrónico. –UCSD

 

El segundo prototipo es un diminuto implante fotovoltaico de materiales orgánicos (polímeros y seda) que funciona igualmente como interfaz, estimulando las neuronas de la retina cuando capta la luz. Este implante, que se sitúa bajo el epitelio de la retina, se ha probado en unas ratas que son un modelo animal de la retinitis pigmentosa y se ha comprobado la visión de los animales 30 días, seis meses y 10 meses después del implante. Las ratas recuperaron gran parte de la visión y las pruebas de imagen cerebral confirmaron que se había producido un aumento en la actividad de la corteza visual primaria, donde se procesa la información visual. “Es completamente orgánico, altamente biocompatible, funciona de manera autónoma y es fotosensible”, indican los investigadores sobre el implante, que han comprobado que no se degenera fácilmente. Parece el implante ideal, pero todavía queda mucho camino por recorrer.

Los científicos de Italia publican sus resultados en la revista Nature Materials. “Esperamos replicar en humanos los excelente resultados obtenidos en modelos animales”, dice Grazia Pertile, investigadora del hospital italiano Sacro Cuore Don Calabria . “Los primeros ensayos clínicos están previstos para el segundo semestre de este año”.

 

 

“La economía convencional esconde la ideología con ecuaciones matemáticas”

La caída de Lehman Brothers en septiembre de 2008 y, con ella, la puesta en cuestión del orden económico mundial no se ha saldado, desgraciadamente, con un cambio profundo en la orientación de las políticas públicas que rigen la vida social. A pesar de la persistencia y de la relativa buena salud del neoliberalismo, el malestar provocado por la crisis está llevando a que cada vez más economistas realicen trabajos para refutar los mitos económicos dominantes. Uno de estos casos es el de Eduardo Garzón (Logroño, 1988) que, con su ensayoDesmontando los mitos económicos de la derecha. Guía para que no te la den con queso (Ediciones Península), ha construido todo un antimanual para mostrar la verdadera cara de la economía dominante: un laberinto de razonamientos con apoyo matemático destinado a enmascarar una ideología al servicio de la conservación del statu quo y de los privilegios de las clases dominantes.

 

¿Cómo es el proceso de aprendizaje de la economía en la universidad? ¿Qué efectos acaba produciendo en los futuros economistas?


Se trata de un adoctrinamiento sutil. La ciencia económica es algo muy plural, con múltiples enfoques. El problema es que se enseña solo uno de ellos y se priva a los alumnos de conocer el resto de las perspectivas. Las personas que acaban estos estudios terminan pensando que el enfoque aprendido es el único posible y, después, ejerciendo como profesores, empresarios o tertulianos, actúan como si conociesen la verdad absoluta.


Muchos economistas le dirían que estos juicios económicos vienen apoyados por razonamientos matemáticos...


Cuando hablamos de la Economía, nos referimos a una ciencia social sujeta al libre albedrío del ser humano. Todo tiene mucho más que ver con la ética, con la moral, con la política y con el poder que con la resolución de un problema matemático. Por ejemplo, si un ayuntamiento tiene un presupuesto para construir o bien un colegio o bien una iglesia pero no las dos cosas, ese problema no tiene una única solución, no va a haber ninguna ciencia exacta que nos diga qué hacer. Eso dependerá más bien de las preferencias de cada una de las personas que se vayan a ver afectadas por esta decisión, lo que nos traslada a un ámbito subjetivo y de opinión. Por tanto, cuando uno intenta aplicar a esta realidad tan compleja y tan subjetiva herramientas matemáticas, no está utilizando instrumentos verdaderamente útiles para entenderla.


¿Y los modelos matemáticos? Son herramientas muy precisas...


La corriente convencional en Economía utiliza modelos matemáticos, pero partiendo de una serie de premisas que son como verdades indemostrables, que se dan por ciertas y que constituyen las reglas del juego que condicionan los resultados de la aplicación de la lógica matemática. Estas premisas no tienen por qué asemejarse en absoluto a la realidad. Una de las más conocidas afirma que el ser humano es un ser racional y que consume bienes y servicios de acuerdo con una función que define sus preferencias. Pero esto es ilógico, porque cada persona es diferente y, por tanto, tenemos preferencias distintas que, además, están sujetas a una multitud de variables incontrolables que no se pueden materializar en una ecuación. Esta es una de las trampas de la ciencia económica convencional: tratar de presentar una ciencia social como una ciencia exacta a través de fórmulas matemáticas y de ecuaciones, disfrazando algo que en realidad es una ideología.


Este enfoque dominante tiende a fortalecer el statu quoy los intereses de las clases poderosas. Si quieres prosperar en el mundo económico convencional, se te va a pedir que utilices bien los postulados oficiales. Por ejemplo, en la universidad se te pide una serie de méritos que serán mayores si se ajustan a los postulados convencionales; en cambio, si utilizas un enfoque más marginal, al estar menos valorado, lo tendrás mucho más difícil para obtener esos méritos, para publicar en las revistas científicas, etc. El sistema se retroalimenta mediante este mecanismo.


Afirma que el mercado es una criatura del Estado. Un economista convencional tiende a ver el mercado como un resultado del orden espontáneo, del libre intercambio entre las personas, cuanto más libre, mejor...


Cuando uno se aleja de los postulados oficiales, no cuesta mucho entender que el mercado tiene numerosas reglas, un lugar en el que se producen las transacciones comerciales, un procedimiento para realizarlas, etc. Todas estas reglas han sido creadas por el ser humano y por las autoridades competentes y responden a decisiones públicas que pueden ser autoritarias o democráticas. De hecho, cada uno de los mercados que existen en el mundo es distinto porque responde a decisiones políticas diferentes.


Cuando se dice que se va a “desregular” el mercado, en realidad, se lo quiere regular en función de otros intereses distintos a los existentes. El mercado siempre está regulado. Las Administraciones Públicas, mediante el salario mínimo, por ejemplo, lo regulan para proteger a los más débiles. Los liberales abogan por una regulación del mercado que no proteja a ningún colectivo frente a otro y en la que cada uno juegue con el poder que tiene. Este es el error del liberalismo: no tiene en cuenta que nacemos con unas reglas del juego trucadas y con agentes económicos que tienen muchísima más influencia y poder, por lo que se acaba imponiendo la ley del más fuerte.


¿Qué les diría a las personas de clase media o media baja desilusionadas con la política y que prefieren tener todo el dinero en sus bolsillos y depender de sus propios ahorros, sin intervención pública?


Pues les diría que un autónomo, por muy buena voluntad que tenga, si empieza un negocio y tiene que competir con las multinacionales, que tienen muchos más medios, poder e influencia, va a acabar perdiendo siempre. Y que la solución no es darle más libertad; la solución está precisamente en el control de los abusos de poder de esas grandes empresas, lo que requiere rediseñar las reglas de juego. Lo público, que no tiene por qué ser la política “en minúsculas”, es una herramienta que hay que utilizar de la mejor forma posible, sin corrupción, de manera democrática y participativa para disminuir estos efectos perversos. No olvidemos que en el sector privado también hay corrupción y que esta no depende de la naturaleza pública o privada de las instituciones. Lo que hay que hacer es limitar el poder de determinados agentes para que no se produzcan abusos, cambiar las reglas de juego, proteger a los más desfavorecidos y controlar a los más poderosos.


Dice que un Estado monetariamente soberano puede crear todo el dinero que haga falta. Pero esta creación de dinero puede terminar generando mucha inflación...

Dinero se crea todos los días y, además, por mecanismos no controlados por la soberanía popular, como el dinero bancario. Los bancos privados, al conceder créditos, incrementan la cantidad de dinero que hay en circulación. ¿Y se nos dice que eso no genera inflación y, sin embargo, cuando lo hace un Estado, sí? Se trata de una postura meramente ideológica: nos han ocultado que los bancos crean dinero y nos han dicho que sería muy perjudicial que el Estado lo hiciera. El Estado no está constreñido financieramente para crear todo el dinero que quiera. Eso no quiere decir que crear todo el dinero que se quiera sea bueno. Pero la idea aquí es darle la vuelta al argumento dominante: un Estado puede crear dinero sin que las cosas empeoren y es bueno disponer de esta herramienta cuando haga falta para garantizar la satisfacción de nuestras necesidades.


¿La creación de ese dinero bancario está detrás del descomunal incremento de los precios de la vivienda en el pasado?


Por supuesto, eso es algo que también se oculta. En realidad, lo que provocó ese incremento de los precios fue la burbuja especulativa: muchos compraban para después vender más caro. Para eso necesitas dinero y el dinero bancario estuvo detrás estimulando esa conducta. Hoy día el dinero es una herramienta secuestrada; en el pasado, las autoridades públicas la utilizaban con mayor o con menor éxito pero, al fin y al cabo, estaba supeditada a decisiones políticas más o menos democráticas. Pero ahora la creación de dinero solo responde a decisiones del sector privado, mientras que la vía para generar dinero desde lo público está constreñida por disposiciones y reglas sobre el déficit público, sobre su financiación, etc. La creación de dinero fue privatizada hace tiempo y cada vez se intenta privatizar más, y esto responde a decisiones ideológicas más que técnicas. Cuando los bancos crean dinero, hacen negocio con él; cuando el Estado lo crea, nadie se lucra. Esta es la diferencia.


¿Una salida del euro implicaría un colapso económico al dejarnos con una gigantesca deuda en una moneda fuerte?


Evidentemente, salirse de una zona monetaria común de manera no pactada genera muchísimo desequilibrio. Otra cosa es si el impacto negativo se compensa por los beneficios de recuperar tu moneda y dejar de regirte por un proyecto neoliberal como el euro. Pero yo creo que el debate no es si nos salimos del euro o no, porque esta es una sola entre muchas variables. Si nos salimos del euro, aunque podríamos acceder a muchas herramientas para mejorar nuestra situación, teniendo a Rajoy de presidente y aplicando políticas neoliberales como las actuales, podríamos acabar incluso peor, ya que al menos ahora tenemos una moneda fuerte que tiene sus ventajas. El debate está, más bien, en torno a la correlación de fuerzas existentes: qué políticas vamos a aplicar, a quiénes van a beneficiar estas... esto es lo importante. Si tenemos una correlación de fuerzas que nos permita beneficiar a la mayoría, sí tendría sentido salir de la moneda única. Lo ideal sería conseguir dicha correlación dentro de la eurozona, pero se trata de algo que se me antoja más difícil todavía.


De lo que dice se deduce que una izquierda en un Estado monetariamente soberano se convertiría en una fuerte amenaza para el statu quo...
Si una izquierda llegara al poder con soberanía monetaria y pudiera crear el dinero para beneficiar a la mayoría tendría mucho margen fiscal para cambiar los desequilibrios de renta y de riqueza. Sería una de las herramientas más importantes, aunque no la única. No es casualidad que cualquier opinión en este sentido sea atacada con brusquedad para que estas ideas tan peligrosas no prosperen.


¿La política monetaria puede ser de izquierdas?

Efectivamente. La política monetaria y la política fiscal son dos caras de la misma moneda y tienen que estar controladas por la ciudadanía para que no se cometan los abusos que se producen ahora mismo y que benefician a una minoría.


Hablando de ideas peligrosas, ¿cómo explica que en tan pocas semanas hayan sido publicados dos libros de Juan Ramón Rallo criticando la política monetaria que usted defiende?


No hace falta darle muchas vueltas. Su propio autor ha manifestado haberlos redactado para controlar y frenar una serie de movimientos que considera muy peligrosos. Son peligrosos para los poderosos porque significa poner de manifiesto que existe una herramienta económica para servir a la mayoría social. Entonces se intenta frenar antes de que nazca.


Afirma que podemos generar empleo mediante el trabajo garantizado. Los liberales expresan numerosas críticas a esta medida y, además, los partidarios de la Renta Básica Universal también tienen sus objeciones...


Peor que lo que hoy hay, con más de cuatro millones de desempleados, no puede ser. Si pones a buena parte de esa gente a trabajar en actividades que mejoren nuestro bienestar, dicho bienestar aumentará de manera vertiginosa. Al remunerar determinadas actividades que son necesarias para la sociedad, estas dejan de ser voluntarias y pasan a la esfera pública, dignificadas, lo que incrementa el PIB al contabilizar una actividad que antes no se consideraba. La renta básica es otra opción, además, perfectamente compatible con el trabajo garantizado. Creo que debemos aspirar a una renta básica mayoritariamente en especie, es decir, que cada ciudadano solo por el hecho de haber nacido ya tenga derecho a un alojamiento, a una educación, a una sanidad, a una determinada cantidad de alimentos, etc. Y, después, quiere y puede trabajar en una serie de actividades que redunden en el bienestar de todos, que pueda hacerlo. El Estado sería el último garante de este tipo de derechos reconocidos. No tiene por qué haber incompatibilidad entre una y otra medida, siempre que se diseñen bien. Es perfectamente factible complementar estas medidas sin que ninguna vea mermadas sus virtudes.

Publicado enEconomía
China desplaza a EEUU en computación de alto rendimiento

 

La alarma fue encendida por la Agencia Nacional de Seguridad (NSA) y el Departamento de Energía (DOE) cuando alertaron que "Estados Unidos está ante el grave riesgo de perder su posición dominante en la computación de alto rendimiento (HPC)".

Según ambas agencias estatales, "en ausencia de una actitud agresiva, EEUU perderá el liderazgo y no podrá controlar en el futuro la HPC".

La reflexión apareció el pasado 21 de marzo en la página top500.org, dedicada a monitorear las 500 supercomputadoras más potentes de mundo desde 1993, con dos revisiones anuales, en los meses de junio y noviembre. El análisis se basa en el documento emitido en diciembre luego de un encuentro de 60 representantes de la industria y agencias gubernamentales, además del DOE y la NSA, entre ellas la Iniciativa Nacional de Informática Estratégica (NSCI), la Administración Nacional de Seguridad Nuclear (NNSA) y la unidad de Investigación de Proyectos de Inteligencia (IARPA).

Lo que desencadenó la alarma estadounidense fue la puesta en marcha de la supercomputadora china Sunway TaihuLight, que tiene un rendimiento de 93 petaflops (93 billones de operaciones de coma flotante por segundo) o sea tres veces más que la segunda supercomputadora del mundo, la también china Tianhe-2 que ocupaba el primer lugar desde 2013.

Pero, y este dato es fundamental, es cinco veces y media más veloz que la mejor computadora de los EEUU.

Las autoridades estadounidenses están más preocupadas aún porque Sunway TaihuLight fue íntegramente construida con materiales chinos, a diferencia de las otras supercomputadoras que utilizan componentes occidentales. El Centro de Computación de Wuxi, que construyó Sunway TaihuLight (La luz de la divinidad Taihu) incluyó 41.000 procesadores y 260 núcleos, a un costo total de 260 millones de dólares.

Hasta ahora las supercomputadoras chinas estaban fabricadas con chips de la estadounidense Intel. Pero en abril de 2015 Estados Unidos prohibió la venta de chips para supercomputadoras a China, lo que en realidad sirvió para estimular a los asiáticos. Según el informe de NSA-DOE, la supercomputadora más veloz del mundo representa tres desafíos mayores: fue hecha enteramente en China, es innovadora y realmente supera a todas las de EEUU.

La segunda cuestión es la increíble velocidad del avance chino. En noviembre de 2016 había 171 supercomputadoras chinas y otras tantas de EEUU en la lista de las 500 más veloces. Muy lejos están Alemania con 32 y Japón con 27. En 2001 casi la mitad de los superordenadores pertenecía a los Estados Unidos y China no aparecía en lista. En noviembre de 2005, EEUU tenía 305 (61% de las 500) y China sólo contaba con 17.

En 2013 Estados Unidos seguía ostentando la mayoría absoluta, pero ya China tenía 63 superordenadores entre los 500 más veloces. Ese año el ordenador más rápido era el Tianhe-2, fabricado por la Universidad Nacional de Tecnología de Defensa de China. En apenas una década, el dragón pasó de la marginalidad absoluta a la hegemonía, ya que igualó la cantidad de supercomputadoras, pero cuenta con las más veloces.

Que China haya conquistado la mayoría de edad en computación de alto rendimiento, forma parte de su crecimiento notable en todos los rubros, desde la producción de mercancías de bajo coste hasta los productos más sofisticados con tecnologías de avanzada. Pero que haya desplazado en la tecnología de punta al país que mantuvo el liderazgo durante seis décadas, representa un viraje estratégico.

Cuando el proceso se observa desde los centros de poder de EEUU, aparece la sensación de estar ante una derrota, la convicción del desplazamiento inexorable de su capacidad de conducir el mundo. El documento conjunto NSA-DOE destaca tres consecuencias de la pérdida de liderazgo en computación de alta performance: crisis de la seguridad nacional, debilitamiento económico y caída de la industria de la computación.

En el primer aspecto, el informe establece que la computación de alto rendimiento "juega un papel vital en el diseño, desarrollo y análisis de muchos —quizá casi todos— los modernos sistemas de armas y de seguridad nacional: por ejemplo armas nucleares, cyber, barcos, aviones, encriptación, misiles de defensa e hipersónicos".

Por eso, sostiene que perder la hegemonía en la computación más avanzada tendrá repercusiones en la capacidad de conservar una ingeniería de primer nivel y, por lo tanto, en la posibilidad de construir armamento sofisticado, como cazas de quinta generación o misiles hipersónicos imposibles de detectar y neutralizar, por poner apenas un par de ejemplos.

En paralelo, perder el liderazgo en HPC implica, según las agencias de EEUU, "la pérdida de una cadena de suministros de confianza" y la necesidad de construir una nueva cadena "que no multiplique los costos a través de los usuarios comerciales y del gobierno". El informe pone como ejemplo la construcción naval militar: "Si el país eligió construir sus propios barcos de guerra, ¿por qué exponemos nuestra computación al control extranjero?".

Entre las soluciones que proponen figura un aumento de la inversión y un control más riguroso de las exportaciones tecnológicas a China. Sin embargo, la economía China crece a un velocidad mayor y ha podido superar, en la construcción de su última supercomputadora, las restricciones comerciales de Washington. Como en otros campos, el modelo neoliberal juega en contra de sus inventores.

Puede argumentarse, como señala el artículo de top500.org, que la supercomputación china "no es tan avanzada como nos hacen creer", y que las autoridades de EEUU tienden a "sobrevalorar los avances chinos" para conseguir más recursos presupuestales. Pero esa actitud un tanto despectiva es un reflejo, como destaca Michael Feldman, el autor de la citada reflexión, de los efectos de haber perdido la hegemonía en un sector tan decisivo como la supercomputación.

Por último, cuando se producen cambios de semejante magnitud conviene tomar cierta distancia temporal para observar los procesos de larga duración. La hegemonía que China está conquistado en el campo de la computación de alta performance, forma parte de un proceso mayor que está devolviendo a la potencia asiática el lugar que ocupó en la historia hasta el siglo XIX, cuando el colonialismo británico y francés la humillaron en las Guerras del opio.