Científicos argentinos diseñan un dispositivo que facilita la cicatrización de heridas quirúrgicas

- Una tecnología que no da puntada ni hilo
- INCLODE fue patentado en Argentina y estará disponible a mediados de año. Elimina la sutura y facilita el proceso postquirúrgico. Entrevista a Diego Fridman, referente del equipo.

 

En breve INCLODE (“Dispositivo de incisión y cierre”, siglas en inglés) podría revolucionar el campo de la medicina y, en concreto, suavizar el paso por la sala de operaciones. Si bien las tecnologías invaden los quirófanos desde hace tiempo, nadie había pensado lo suficiente respecto de cómo reemplazar el mecanismo más antiguo de todos: la artesanal e histórica sutura con aguja e hilo. El cierre de heridas, una etapa decisiva que, para colmo, depende de la precisión de los cirujanos; cualidad que, no obstante esté bien entrenada, como alguna vez pronunció un mentalista muy mediático “puede fallar”. Bajo estas premisas, y con el propósito de disminuir la probabilidad de infecciones y mejorar la calidad de las cicatrizaciones, Diego Fridman (médico UBA) y compañía se propusieron llenar este vacío con conocimiento del bueno y aplicado a situaciones concretas. Desde cesáreas a cualquier operación programada, la nueva tecnología creada por cerebros argentinos, promete grandes resultados. A continuación, el director científico del proyecto narra todos los detalles al respecto.


-¿De qué se trata y cómo surgió la idea de diseñar este dispositivo?
-Pablo Luchetti tuvo la idea original. Cuando estudiaba medicina se planteó una pregunta muy sencilla: ¿cómo podía ser que en un quirófano, que muchas veces se parece a una nave espacial con toda la tecnología que tiene, la última fase de las operaciones todavía siga protagonizada por la sutura? Tantas maquinarias presentes y el proceso finaliza con una aguja y un hilo. En una época tan atravesada por dispositivos de toda clase y color aplicados al campo de la salud, aún los médicos tenemos que seguir cosiendo a los pacientes. Una práctica milenaria a la que, históricamente, no se le halló ningún sustituto y que, para colmo, es operador-dependiente.


-Se le confía el cuerpo al pulso de un profesional que, en alguna mala jornada, puede fallar.
-Seguro, depende mucho del entrenamiento, de las capacidades, el tiempo de experiencia y la habilidad estética. Un cóctel nada sencillo de encontrar en una sola persona. Frente a esta pregunta, surge la idea de crear la tecnología INCLODE. Parte de las complicaciones y los defectos advertidos en los cierres de las heridas tienen que ver con el propio mecanismo de aguja e hilo que lastiman la piel al querer juntar la epidermis; los bordes separados durante el acto quirúrgico. Cuando se realiza una sutura, la tensión en el cierre está colocada en los puntos, con lo cual, no se distribuye de forma homogénea a lo largo de la incisión.


-¿Qué ventajas presenta?
-Es un parche autoadhesivo con un mecanismo de sellado propio. Se pega en el sitio en el que se realizará la incisión, luego el dispositivo se abre para permitir el trabajo del profesional con libertad, éste sutura solo en los planos profundos y una vez que el proceso culmina se activa el cierre que junta los bordes. Es decir, el objetivo de la tecnología consiste en reunirlos con una lámina que se coloca de modo previo a la intervención quirúrgica. De esta manera, la herida queda mejor desde lo estético pero, sobre todo –y lo más importante– reduce de manera notable los riesgos de contraer infecciones para los pacientes.


-Luego de ser colocado, ¿cuánto tiempo permanece el parche en la piel?
-Aproximadamente unos diez días y después de ese lapso el médico lo retira como si fuera un apósito. Y ahí finaliza el trabajo, porque no hay puntos ni hilo. La incorporación de esta tecnología es vital porque podría eliminar gran parte del dolor que sienten los pacientes en la etapa postquirúrgica. Además, al ser transparente permite monitorear la evolución de la cicatrización de la herida, esto es, si cambia de color o si se genera algún problema. Si fuera necesario, por algún motivo, retirar INCLODE antes de tiempo podría hacerse con un poco de alcohol para aflojar el adhesivo. Otra ventaja es que permite el drenaje de líquidos por parte de la herida, así como también, al estar diseñada con materiales permeables habilita la evaporación de la humedad de la zona afectada y, en efecto, los pacientes pueden bañarse con el adhesivo puesto.


-¿De qué material está hecho?
-Es un elastómero, una especie de goma que pese a ser muy elástica mantiene la memoria y vuelve siempre al mismo origen. La búsqueda de los insumos no fue nada sencilla, hoy contamos con una tecnología que parece infalible pero existe un largo camino para explorar las técnicas, los ensamblados y demás. Aquí trabajó muchísimo el diseñador industrial Luciano Poggi, que logró materializar aquello que solo estaba presente de manera abstracta. Frente a un problema vinculado a una necesidad, opusimos nuestras ideas que, luego de mucho esfuerzo, tomaron cuerpo en este producto que hoy tenemos y que ya fue patentado en Argentina y en EEUU. En los próximos días saldrá una nueva patente –incorpora a Europa– que tiene en cuenta otras mejoras.


-Qué bueno que la patente sea Argentina. ¿Cuáles son los próximos pasos?
-Nos pone muy contentos. INCLODE SA es una empresa de base tecnológica que se pudo constituir gracias a un subsidio recibido del MinCyT en 2014 y, en la actualidad, buscamos grupos que deseen invertir. Hoy en día trabajamos en la confección de diferentes matrices, ya que las características del dispositivo se deberán adecuar al tamaño y al sitio de las heridas. El prototipo culminado está preparado para una herida de 10 cm y pensamos que podría ser revolucionario para el tratamiento de las cesáreas, por ejemplo. Se nos ocurrió también que podríamos adaptar la matriz que tenemos con el propósito de que pueda ser utilizado en laparoscopias. Tenemos versiones, incluso, para reemplazos articulares que, necesariamente, deben ser lo suficientemente sofisticadas para ajustarse al movimiento. El desafío para los próximos años es agregar más tecnología, de manera que el sistema permita la liberación de drogas o chips que favorezcan el monitoreo de la cicatrización en tiempo real. No estamos muy lejos.


-La pregunta de rigor: ¿cuánto tardará en estar disponible en los quirófanos y cuánto se estima que costará?
-Creemos que a mediados de este año estará listo para ser comercializado. Para mayo tendremos la aprobación de las autoridades regulatorias. Si bien es externo, de carácter no invasivo, requiere la autorización por ANMAT en Argentina y FDA en EEUU. Prevemos que la producción nos costará entre 6 y 7 dólares; haremos una parte aquí y el ensamblado en el exterior porque hoy no está disponible la tecnología necesaria. Nos gustaría hacerlo 100% en Argentina pero actualmente no están dadas las condiciones. Si se sumaran todos los gastos incluidos podría venderse en 30 o 40 dólares.


-No es poco.
-Pero se ahorra muchísimo tiempo y el tiempo es dinero. El cierre del dispositivo en el quirófano se realiza en tan solo 30 segundos, mientras que la sutura se prolonga por 8 o 10 minutos. Reducir los 10 minutos y llevarlo a 30 segundos representa un ahorro muy importante. En Argentina no se tiene demasiado registro pero en EEUU, por ejemplo, se calcula que el minuto de quirófano cuesta 50 dólares. También se eliminan los costos de las consultas para quitar los puntos porque solo se debe retirar un adhesivo. INCLODE es beneficioso por donde se lo mire.


Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Creadas por primera vez “máquinas vivientes” con células animales

Científicos de EE UU presentan unos “organismos reprogramables”, a medio camino entre un robot y un ser vivo

Cuatro jóvenes científicos estadounidenses han creado por primera vez “máquinas vivientes”, elaboradas con células animales y capaces de llevar a cabo tareas muy sencillas. Los investigadores, financiados por el Departamento de Defensa de EE UU, creen que sus “organismos reprogramables” podrían servir en un futuro todavía muy lejano para aplicaciones médicas —como la detección de tumores, la eliminación de la placa de las arterias y el reparto inteligente de fármacos dentro del cuerpo humano— e incluso para operaciones de restauración ambiental de lugares contaminados.


Los autores de estas máquinas vivientes son dos biólogos, Michael Levin y Douglas Blackiston, y dos expertos en robótica, Josh Bongard y Sam Kriegman. Los investigadores han empleado como ladrillos dos tipos de células de la rana de uñas africana: las células de su corazón (contráctiles) y las de su piel (más pasivas). Durante meses, los científicos han utilizado un superordenador para simular miles de agregados celulares de diferentes formas e intentar predecir su comportamiento. Los diseños más prometedores se llevaron a cabo. El principal resultado es una máquina biológica de medio milímetro, con unos pocos cientos de células, capaz de moverse en una dirección determinada por los científicos (pincha aquí para ver su funcionamiento).


“Parece que estos biobots son una tercera clase de materia animada: no son robots ni son, estrictamente, organismos. Creo que estos biobots obligarán a los biólogos y a los filósofos a repensar nuestras definiciones de la vida y de lo que es una máquina. En el futuro, ¿los organismos diseñados por ordenador deberían tener los mismos derechos que las personas y los animales evolucionados naturalmente?”, se pregunta Josh Bongard, de la Universidad de Vermont.


Michael Levin reconoce que sus criaturas inducen a muchas preguntas. Los biobots están formados por células de rana, pero ni tienen forma de rana ni actúan como una rana. El biólogo cree que estos nuevos organismos servirán para entender grandes reglas de la vida hasta ahora invisibles. Lo explica con un ejemplo: ninguna hormiga tiene el plano del futuro hormiguero, pero todas cooperan para hacer uno. ¿Cómo habría que modificar genéticamente a las hormigas para que construyeran un hormiguero con dos entradas en lugar de una? Los científicos no tienen ni idea.


“La gran pregunta aquí es: ¿Cómo cooperan las células para construir cuerpos complejos y funcionales? ¿Cómo saben qué tienen que construir? ¿Qué señales intercambian entre ellas?”, reflexiona Levin, de la Universidad Tufts, cerca de Boston. “Una vez que descubramos cómo incitar a las células a construir estructuras específicas, no solo tendremos un impacto enorme en la medicina regenerativa —construyendo partes del cuerpo o induciendo su regeneración—, sino que podremos utilizar estos mismos principios para mejorar la robótica, los sistemas de comunicación y, quizás, las plataformas de inteligencia artificial”, calcula Levin.


Sus biobots, elaborados con cientos de células de rana, son solo una prueba de concepto. “Mostramos un modelo escalable para crear nuevas formas de vida funcionales”, señalan los autores en su investigación, publicada este lunes en la revista especializada PNAS. “Si logramos automatizar la fabricación de los diseños por ordenador, podríamos concebir enormes enjambres de biobots. Y estos podrían incluso ser capaces de unirse en tamaños cada vez mayores. Podríamos tener biomáquinas muy grandes en el futuro”, plantea como hipótesis Bongard. Su equipo ya ha hecho simulaciones de hasta 270.000 células. Un cuerpo humano tiene unos 30 billones.


Los autores dibujan un futuro en el que se harían “sistemas vivos a medida para una amplia gama de funciones”. En su laboratorio ya han diseñado un biobot con un agujero en el centro que, según los científicos, se podría utilizar como un bolsillo en el que transportar o neutralizar sustancias tóxicas. Las simulaciones del superordenador también predicen que, si se juntan varias de estas biomáquinas, se moverían de forma espontánea en círculos, empujando lo que encontrasen a su paso hasta un punto central. “Quizás, en el futuro, se podrían liberar en el océano grandes enjambres de biobots, para que reuniesen los microplásticos en grandes cúmulos que pudiesen ser recogidos por barcos. Al final, como los biobots son 100% biodegradables, se convertirían en alimento para la vida marina”, plantea Bongard.


“Otros enjambres podrían encontrar pequeñas cantidades de metales pesados en suelos contaminados. Y, si es posible hacerlos de un tamaño lo suficientemente pequeño, los biobots podrían flotar en el aire y recoger partículas contaminantes”, prosigue el experto en robótica.


El biólogo y físico Ricard Solé aplaude el nuevo trabajo, “estimulante y rompedor”, pero subraya que algunas de las aplicaciones imaginadas por los autores “todavía están a años luz”. Solé, de la Universidad Pompeu Fabra de Barcelona, es experto en sistemas complejos, como la inteligencia colectiva de las hormigas. “El equipo de Levin ha dado un salto importante en biología sintética, pero esos miniorganismos necesitarán sensores para poder hacer cosas complejas. Añadir esos sensores será el salto cualitativo que habrá que dar en el futuro”, opina Solé.


La química Berta Esteban Fernández de Ávila lleva cinco años en la Universidad de California en San Diego desarrollando microrrobots, a veces combinándolos con células vivas, como espermatozoides. A su juicio, la estrategia del equipo de Levin tiene “muchísimas posibilidades”, sobre todo en aplicaciones como la microcirugía dentro del cuerpo humano. “Independientemente de la toxicidad de las células, habría que asegurar una forma de inactivarlas después de realizar la función deseada. Por dar un ejemplo, a veces aplicamos microrrobots en el estómago y aprovechamos la acidez del propio fluido gástrico para desactivarlos”, advierte la investigadora.


Levin explica que sus biobots no se multiplican. “Básicamente, se quedan como están y se disuelven en una semana”, apunta. Sin embargo, su investigación sí plantea la posibilidad de añadir a las células la capacidad de reproducirse. “Sería un camino arriesgado. Sin embargo, puede terminar siendo una de las mejores rutas para abordar los importantes desafíos ecológicos que plantea el cambio climático”, opina Bongard.


“Es difícil saber ahora si esta tecnología podría tener consecuencias no deseadas o cómo alguien podría abusar de ella. Pero creemos que, si esta tecnología madura, podríamos necesitar una regulación. Ya está ocurriendo con la inteligencia artificial y con la robótica, que durante mucho tiempo estuvieron sin regular”, remacha Bongard.

La IA permite cirugías más seguras y precisas

París. La inteligencia artificial (IA) es capaz de analizar en "tiempo casi real" un tumor cerebral durante la operación de un paciente, lo que permite a los cirujanos trabajar de forma "más segura y precisa", según un estudio publicado este lunes.

Un equipo de investigadores estadunidenses concluyó que esta técnica puede determinar en menos de 2 minutos y medio si las células extraídas son cancerígenas o no, frente a un promedio de 20-30 minutos para un análisis clásico, indicó un artículo publicado en la revista Nature Medicine.

Los investigadores combinaron una innovadora técnica de tomografía con láser con un algoritmo elaborado a partir del análisis de más de 2.5 millones de imágenes de biopsias.

Con este instrumento "estamos mejor equipados para conservar los tejidos sanos y retirar sólo los infiltrados por células cancerígenas, lo que se traduce en menos complicaciones y mejores resultados para los pacientes", explicó Daniel Orringer, de la Universidad de Nueva York.

"En neurocirugía y en muchos otros ámbitos de la operación de cánceres, la detección y el diagnóstico de los tumores durante la operación son esenciales para efectuar el gesto quirúrgico más adecuado", precisó el neurocirujano.

 

Eficaz para determinar tipos de tumor

 

A partir de la muestra extraída, la inteligencia artificial permite también determinar de qué tumor se trata, entre los 10 tipos de cánceres de cerebro más frecuentes, con una eficacia comparable a la de los médicos humanos, según el estudio.

Durante un ensayo clínico con 278 pacientes aquejados de un tumor cerebral, la inteligencia artificial estableció un diagnóstico correcto en 94.6 por ciento de los casos, frente a 93.9 para el análisis humano.

Según los autores, este instrumento podría mejorar la pertinencia de los análisis humanos y paliar la escasez de expertos en determinados campos.

Cada año se diagnostican 15.2 millones de casos de cáncer y más de 80 por ciento de los enfermos se someten a una cirugía, según los autores del estudio.

Interior de la Francium Trapping Facility, donde se ven las mesas ópticas con multitud de láseres, espejos y fibras ópticas necesarias para atrapar a los átomos del elemento número 87. La trampa está detrás de la columna.Foto cortesía de la AMC

Muy pocos grupos en el mundo hacen experimentos con francio (Fr), elemento químico número 87, pues es muy escaso en la Tierra y en laboratorio, por ser altamente radiactivo y reactivo, sólo se obtiene por minutos mediante reacciones nucleares. A 81 años de su descubrimiento, Luis Orozco, adscrito al Joint Quantum Institute de la Universidad de Maryland, habló sobre la historia de este elemento químico y cómo lo ha utilizado para estudiar desde la física atómica a la fuerza débil, una de las cuatro fuerzas fundamentales del universo.

"La fuerza débil es la causante del decaimiento beta de los núcleos; es la única capaz de cambiar protones en neutrones y viceversa. En el proceso inicial para el ciclo solar, el hidrógeno se transforma en helio, generando energía proveniente de la fusión. El primero sólo tiene un protón, mientras el segundo tiene dos y dos neutrones". Al transformar protones en neutrones, abre el camino a la fusión nuclear en el Sol, explicó el físico, miembro correspondiente de la Academia Mexicana de Ciencias (AMC).

Señaló que el francio se obtiene mediante reacciones nucleares en laboratorios aislados y muy avanzados. Desde la Universidad de Stony Brook, a la que se incorporó en 1991, una de sus tareas fue obtener ese elemento. En una reacción de fusión en la que utilizaron un blanco de oro con 79 protones y 118 neutrones y le apuntaron un proyectil de oxígeno 18 (con 10 neutrones y ocho protones), lograron obtener el elemento con 87 protones y 123 neutrones en una técnica muy complicada, por lo que el primer éxito en su carrera fue atrapar con láseres más átomos de Fr.

Al principio captaban unos 2 mil átomos, pero fueron mejorando la técnica hasta que llegaron a atrapar 250 mil. Actualmente son más de dos millones los que reúnen en el Centro de Aceleración de Partículas de Canadá, ubicado en Vancouver, con la Trampa MOT, al grado que ya no es seguro permanecer en la sala en la que hacen los experimentos por la radiactividad, destacó el científico.

El francio tiene un núcleo pesado, lo que significa que hay oportunidades de que las partículas, electrones y quarks, interactúen, lo que no ocurre con otros elementos. Ha sido necesario entender muy bien sus propiedades, sostuvo el también doctor en física por la Universidad de Texas en Austin.

En Canadá, en el grupo con el que colabora obtienen el francio con reacciones más violentas. Cuentan con una serie de obleas, cerámicas de uranio (U) y carbono (C), muy delgado, por el cual pasa, con corrientes muy fuertes, un haz muy alto de protones, a una energía de 500 megaelectrón voltios, golpea al uranio y éste se fisiona.

"El uranio (92) es más pesado que el francio. En esas colisiones éste puede llevarse otros protones en el choque, por ejemplo, cinco, produciendo Fr. Como son obleas muy delgadas y calientes, este elemento rápidamente viaja al exterior y se escapa el U. El francio en contacto con una superficie metálica caliente adecuada se puede ionizar y luego se extrae".

Física básica

Si bien estos estudios son proyectos de física básica y no hay una aplicación directa para los átomos de Fr que atrapan, el mexicano, quien ha dedicado gran parte de su vida a la investigación de este elemento, comentó que los métodos que inventaron para atrapar a este escurridizo elemento ya se usan para datar la antigüedad de los acuíferos que se encuentran en el subsuelo del desierto del Sahara, sólo que utilizan isótopos de xenón y de calcio.

Respecto del descubrimiento de este elemento, recordó que Marguerite Perey (1909-1975), quien nació en Villemomble, París, lo logró.

Esa joven fue contratada por Marie Curie como asistente en el Instituto del Radio, hoy Instituto Curie. Su tarea, explicó, fue por casi 10 años moler y mezclar unas 10 toneladas de mineral para que al final obtuviera menos de 20 miligramos de actinio, el elemento que su jefa quería estudiar.

"Perey fue una mujer increíblemente sistemática, estudiosa, tenaz y disciplinada. El 7 de enero de 1939 escribió en la bitácora de su laboratorio una descripción de su día; descubrió que el actinio tenía dos decaimientos, uno a 220 kilo-electronvoltios, que corresponde al actinio, y el otro a 80 kilo-electronvoltios, hijo del primero. Descubrió al francio como un producto del decaimiento alfa del actinio. Un par de días después se publicó el hallazgo en la revista de la Academia de Ciencias, siendo ella la única autora", concluyó Orozco.

Los 10 artículos científicos más populares de 2019

La inteligencia artificial, el sesgo de la significación estadística, así como la no relación entre las vacunas y el autismo centran los estudios con más impacto del año.

En los 12 últimos meses, Altmetric, una empresa con sede en Londres, ha monitorizado las menciones recibidas por 2,7 millones de investigaciones científicas. Las apariciones en blogs y redes sociales, las reseñas en medios de comunicación o las citaciones en Wikipedia constituyen algunos de los parámetros, más allá de las métricas convencionales como el factor de impacto, que permiten identificar los 100 trabajos más comentados en 2019. Los siguientes 10 artículos encabezan la clasificación.


Crear modelos realistas de cabezas parlantes mediante una sola fotografía


¿Imagina el lector poder realizar un vídeo de la célebre Mona Lisa hablando? El entrenamiento de redes neuronales artificiales permite obtener videoclips, con frecuencia falsos, a partir de múltiples imágenes del rostro humano. Sin embargo, en la práctica, los científicos, a menudo, solo disponen de unas pocas instantáneas de una persona concreta. En este trabajo, investigadores del Centro de Inteligencia Artificial de Samsung describen un método para superar esta limitación. Este nuevo sistema realiza un extensivo meta-aprendizaje con un gran número de vídeos para, con posterioridad, poder generar un modelo de un sujeto desconocido, incluso con una única fotografía. La investigación puede leerse en el repositorio arXiv.


Los científicos se manifiestan contra la significación estadística


En un comentario publicado por la revista Nature, más de 800 firmantes alertan sobre el modo en que el valor estadístico de unos resultados puede conllevar a falsas conclusiones. En concreto, los científicos piden acabar con expresiones como «no existe diferencia alguna» o «no hay ninguna relación» solo porque el valor p, o probabilidad, resulte mayor que un determinado límite (normalmente 0,05). Sin embargo, el objetivo del texto no es prohibir el uso de este parámetro, sino evitar el descarte de resultados relevantes y fomentar que los investigadores discutan los datos más allá de un simple valor. Al fin y al cabo, todo cálculo significativo implica cierto sesgo, por lo que alcanzar una determinada cifra tampoco garantiza que un dato sea cierto al cien por cien.


No, no existe relación entre la vacuna triple vírica y el autismo


El estudio, publicado por la revista Annals of Internal Medicine, desvincula una vez más la inmunización de la vacuna contra el sarampión, la rubeola y la parotiditis, también conocida como triple vírica, del riesgo de desarrollar autismo. Científicos daneses alcanzaron dicha conclusión tras analizar el historial clínico de 657.461 infantes nacidos en Dinamarca entre 1999 y 2010. El seguimiento y comparación entre los niños que recibieron la vacuna y los que no permitió determinar que la triple vírica no incrementa la probabilidad de padecer la enfermedad, ni desencadena el autismo en aquellos pequeños susceptibles de desarrollarlo. Por desgracia, la seguridad de esta vacuna aún genera desconfianza entre determinados sectores de la población, hecho que limita su aceptación.


La comunidad científica avisa: nos enfrentamos a una emergencia climática


Contar la realidad que muestran los datos constituye la obligación moral de todo investigador, aunque la conclusión no resulte de nuestro agrado. Por ello, en noviembre de 2019, 11.000 científicos declararon, tras analizar distintos indicadores, que el planeta Tierra se enfrenta a una grave emergencia climática. El desastre aún puede evitarse, mas para ello, la humanidad debe cambiar su estilo de vida. Entre las recomendaciones más relevantes, los investigadores destacan: la sustitución de los combustibles fósiles por fuentes de energía renovables; la reducción de la emisión de gases contaminantes como el metano o los hidrofluorocarbonos; la protección de los ecosistemas naturales; la disminución del consumo de carne, así como el incremento de la ingesta de productos vegetales; la implementación de un modelo de economía verde y la estabilización del crecimiento de la población mundial. La revista BioScience publica el texto íntegro.


Imágenes falsas generadas por medio de inteligencia artificial


Científicos de NVIDIA, uno de los mayores fabricantes de unidades de procesamiento gráficas a nivel mundial, describen en un manuscrito publicado en el repositorio arXiv el diseño de un nuevo tipo de red neuronal artificial generativa. En el campo de la inteligencia artificial, este tipo de sistemas son los productores de aquello que se quiera crear, como imágenes, textos o sonidos. La novedad del proyecto radica en que este generador mejora de forma notable el proceso de aprendizaje automático de las neuronas artificiales, hecho que facilita la obtención de imágenes falsas de gran calidad. Aplicaciones como FaceApp o Deepfake usan tecnologías parecidas.


Las bases genéticas de la sexualidad humana


En verano, la revista Science publicó este trabajo que dio la vuelta al mundo. En él, científicos de Estados Unidos, Reino Unido, Australia, Dinamarca, Países Bajos y Suecia concluían, tras analizar el genoma de casi 500.000 individuos que no es posible predecir el comportamiento sexual humano únicamente en base a la genética. Así, aunque la investigación reveló la existencia de cinco regiones del ADN relacionadas con la conducta homosexual, ningún gen ejercería por sí solo un efecto claro sobre la sexualidad. Si lo desea, el lector hallará más información acerca de las conclusiones de este estudio en artículo de actualidad publicado por Investigación y Ciencia.


El número de personas afectadas por el aumento del nivel del mar sería mayor de lo estimado


Un nuevo modelo de inteligencia artificial triplica la población mundial en riesgo por las inundaciones y mareas que ocasionaría el incremento del nivel de los océanos. Según los datos publicados por la revista Nature Communications, en un escenario de bajas emisiones de dióxido de carbono, en el año 2100, 190 millones de personas habitarían zonas costaneras susceptibles de inundarse. La cifra se elevaría hasta los 630 millones en un contexto de altas emisiones. A pesar de que este cálculo también presenta ciertas limitaciones que condicionan su precisión, los autores destacan que los resultados reflejan de forma más precisa la amenaza que las ciudades litorales deberán afrontar en un futuro no tan lejano.
¿El uso del paracaídas previene la muerte en caso de saltar desde un avión?


En este artículo satírico, publicado por la revista British Medical Journal, investigadores de la Universidad de Harvard reclutaron a 23 sujetos dispuestos a lanzarse desde un avión con y sin paracaídas. Los participantes recibieron de forma aleatoria una mochila con el artefacto diseñado para frenar las caídas a gran altura o bien vacía. Tras el salto, de 0.6 metros, los científicos observaron que los sujetos de ambos grupos alcanzaron el suelo sanos y salvos. Por consiguiente, concluyeron que para sobrevivir al salto desde un avión el uso de paracaídas no es un factor determinante. Sin embargo, el auténtico propósito de los autores fue demostrar las limitaciones de extrapolar los resultados de los estudios aleatorios y la importancia de un buen diseño experimental para una correcta aplicación en la práctica clínica.


Plantar árboles como solución a la crisis climática


En concreto, 900 millones de hectáreas. De acuerdo con un trabajo publicado por la revista Science, esta cifra permitiría la absorción de 200 gigatones de dióxido de carbono a lo largo de los 40 años de vida promedio de un árbol. Es decir, el 25 por ciento de la actual reserva de carbono atmosférico. Para calcular estas cifras, los científicos desarrollaron un modelo informático a partir de los datos de zonas boscosas existentes en la actualidad. Ello permitió determinar el espacio que podría destinarse a los nuevos árboles más allá de los bosques actuales, así como las zonas urbanas o dedicadas a la agricultura. Sin embargo, también alertan que de agravarse la emergencia climática, los números presentados serán insuficientes para revertir el desastre.


La honestidad de la población mundial


Imagine el lector que hallara una cartera con dinero en la calle, ¿la devolvería a su dueño? La respuesta, con probabilidad, dependería de la cantidad exacta de billetes. Así concluye una investigación publicada por la revista Science, donde los autores abandonaron 17.000 billeteras en 355 ciudades de 40 países. En la mayoría de los casos, observaron que aquellas con mayor cantidad de dinero retornaban a manos de sus legítimos propietarios. El resultado sorprendió a los investigadores, pues ni expertos economistas acertaron a predecirlo, que señalan al altruismo humano, junto con la vergüenza de sabernos ladrones, como explicación del hallazgo.




Referencia: «Few-Shot Adversarial Learning of Realistic Neural Talking Head Models», de E. Zakharov et al., en arXiv:1905.08233, última versión publicada el 25 de septiembre de 2019.

Referencia: «Scientists rise up against statistical significance», de V. Amrhein et al., en Nature, publicado el 20 de marzo de 2019.

Referencia: «Measles, mumps, rubella vaccination and autism: a nationwide cohort study», de A. Hviid et al., en Annals of Internal Medicine; 170(8): páginas 513-520, publicado el 16 de abril de 2019.

Referencia: «World scientists' warning of a climate emergency», de W. J. Ripple et al., en BioScience; biz088, publicado el 5 de noviembre de 2019.

Referencia: «A style-based generator architecture for generative adversarial networks», de T. Karras et al., en arXiv:1812.04948, última versión publicada el 29 de marzo de 2019.

Referencia: «Large-scale GWAS reveals insights into the genetic architecture of same-sex sexual behavior», de A. Ganna et al., en Science; 365(6456): eaat7693, publicado el 30 de agosto de 2019.

Referencia: «New elevation data triple estimates of global vulnerability to sea-level rise and coastal flooding», de S. A. Kulp et al., en Nature Communications; 10: 4844, publicado el 29 de octubre de 2019.

Referencia: «Parachute use to prevent death and major trauma when jumping from aircraft: randomized controlled trial», de R. W. Yeh et al., en British Medical Jornal; 363:k5094 publicado el 13 de diciembre de 2018.

Referencia: «The global tree restoration potential», de J. F. Bastin et al., en Science; 365 (6448): páginas 76-79, publicado el 5 de julio de 2019.

Referencia: «Civic honesty around the globe», de A. Cohn et al., en Science; 365 (6448): páginas 70-73, publicado el 5 de julio de 2019.

Marta Pulido Salgado

es una investigadora en neurobiología celular
Fuente:
https://www.investigacionyciencia.es/noticias/los-10-artculos-cientficos-ms-populares-de-2019-18174

 

He Jiankui, el “Frankestein chino”. Condenaron al científico que editó el genoma de dos gemelas

En 2018 la noticia convulsionó al mundo. El investigador comunicaba que, a partir del uso de la técnica Crispr, creaba a las primeras bebes resistentes al HIV. Buscaba fama y fortuna pero cumplirá una condena de tres años

En noviembre de 2018 He Jiankui (Southern University of Science and Technology of China) comunicaba una noticia que, de tan explosiva, atravesaba las paredes de la comunidad científica. Gracias a las bondades de la revolucionaria técnica de edición genética, Crispr/Cas9, modificaba el genoma de gemelas chinas y las volvía resistentes al HIV. Esta semana el genetista fue declarado culpable por un tribunal de Shenzhen. Como castigo deberá cumplir con tres años de cárcel y con el pago de, aproximadamente, 430 mil dólares (tres millones de yuanes). Además, ya no estará habilitado para realizar ninguna tarea profesional relacionada al mundo de la salud. Dos de sus colaboradores recibieron sentencias equivalentes.


Para comprender el caso, rearmemos la cronología de los hechos. El año pasado He Jiankui adelantó la noticia por YouTube y, acto seguido, lo presentó en una cumbre de expertos celebrada en Hong Kong. Estaba exultante, se creía el protagonista de una nueva hazaña científica; su nombre quedaría grabado en la historia. Aunque en muchas naciones estaba prohibido, había modificado el genoma de Lulú y Nana para volverlas inmunes al virus. ¿Cómo? Luego de la fecundación, su propósito era intervenir el embrión y desactivar el gen específico (denominado “CCR5”) que codifica para la proteína que está en los glóbulos blancos y que funciona como puerta de entrada y salida del HIV en la célula.


Tras su experimento, como ambas estaban en perfecto estado de salud, creía que sus objetivos se habían cumplido con éxito. En el mismo movimiento, había abierto la puerta para la creación de “bebés de diseño”; y lo había conseguido a partir de las famosas tijeras genéticas, herramientas que editan genes y agitan las fantasías más oscuras del determinismo en el campo. En concreto, presentan la virtud de introducir, corregir o eliminar secuencias de ADN de manera totalmente dirigida y con precisión quirúrgica.


Hasta aquí, algún desconsiderado podría pensar que todas las revoluciones científicas necesitaron de genios y genias que se saltearan alguna regla. Cerebros iluminados que eludieran alguna norma; en definitiva, espíritus audaces y capaces de franquear los límites de las propias instituciones a las que pertenecían. No obstante, “el Frankestein chino" –así fue apodado a partir de este momento– fue demasiado lejos. Sus ansias de reconocimiento mundial lo llevaron a ignorar todos los manuales de ética habidos y por haber.


Según el fallo, adelantado por Xinhua –agencia oficial de China– el científico falsificó documentos y engañó a las parejas que se sometieron al experimento bajo pretextos tergiversados. En aquel momento, la polémica escaló de tal manera que más de 100 colegas de su propio país publicaron una declaración para despegarse de lo realizado y sancionaron la irresponsabilidad como “una locura”. Es una locura porque, hasta el momento, si bien la técnica empleada es muy prometedora –todos los años, de manera sucesiva, sus creadores resuenan como posibles premiados Nobel– no ha sido lo suficientemente perfeccionada. Se utiliza con cautela porque si no se manipula de manera correcta puede introducir problemas en lugares donde no los hay. Dijimos que su precisión era quirúrgica pero no infalible.


La historia de la ciencia y la tecnología ha demostrado, a través de innumerables ejemplos, que aquello que en un tiempo fue rechazado, con los siglos, obtuvo legitimidad científica y luego prestigio social. El conflicto con el trabajo realizado por He Jiankui es que, a pesar de estar disponibles, escogió burlar cualquier clase de protocolo. Sus conclusiones no fueron publicadas por los canales corrientes –revistas internacionales de prestigio– y, en efecto, el modus operandi no pudo ser juzgado ni replicado en laboratorios de otras partes del mundo. Su falta de rigurosidad puso en riesgo la vida de las gemelas. Aunque todavía no fue confirmado, para colmo de males, habría un tercer bebé víctima del mismo proceso.


De cualquier modo, proyectemos a largo plazo y, aunque resulte escabroso, démosle la derecha al científico chino con una hipótesis en forma de pregunta. ¿Qué hubiera pasado si, efectivamente, a partir de su experimento se materializaba la posibilidad de generar bebés resistentes al virus? Potencialmente podría abrirse una ventana hacia una nueva variante de estratificación social. Aquellos grupos sociales más pudientes podrían prolongar sus ventajas genéticas a gusto y piacere. Como alguna vez mencionó el prestigioso biólogo molecular Alberto Kornblihtt: “Tendríamos humanos hechos a medida”.


Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

La NASA instalará taller robotizado de reparaciones afuera de la Estación Espacial Internacional

La NASA diseñó un garaje acondicionado para robots, denominado RiTS (siglas en inglés de Robotic Tool Stowage), que será instalado en el exterior de la Estación Espacial Internacional (EEI).

Es una unidad de almacenamiento de protección para herramientas robóticas críticas, cuyo envío estaba previsto en la misión de reabastecimiento de Space X, fijada para ayer.

Sus primeros residentes serán dos robots diseñados para buscar fugas de la estación, que son capaces de detectar la presencia de gases como el amoníaco. Las herramientas robóticas están a bordo de la estación en este momento, informa la NASA.

“Para cada una de sus herramientas almacenadas, RiTS proporcionará protección térmica y física contra la radiación y los micrometeroides o pequeños objetos de alta velocidad que se precipitan por el espacio”, dijo Mark Neuman, gerente de hardware de RiTS.

El sistema térmico de la unidad de alojamiento mantiene temperaturas ideales para los instrumentos, ayudándolos a mantenerse funcionales, según Neuman. Además, ayudará al brazo robótico de la estación espacial Dextre a localizar, tomar y volver a colocar fácilmente esas herramientas.

La implementación de robots de detección suele llevar mucho más tiempo cuando la herramienta no está almacenada externamente. Una vez fuera de la estación, esos detectores necesitan esperar 12 horas para limpiarse del vapor de agua y otros gases del interior de la terminal.

“Este hardware reducirá significativamente el tiempo y el costo para que la tripulación de la estación implemente capacidades de detección de fugas utilizando Dextre”, dijo Chris Craw, líder de Integración de Sistemas de la NASA.

La misión Parker Solar Probe comienza a desvelar los secretos del Sol

Ondas gigantes solitarias en el viento solar, campos magnéticos que se doblan, vientos lentos que surgen en las zonas ecuatoriales de nuestra estrella y nuevos datos sobre sus energéticas partículas. Estos son algunos de los primeros resultados que ofrece la misión Parker Solar Probe de la NASA tras sus primeras aproximaciones al Sol.

 

La misión Parker Solar Probe de la NASA despegó en agosto de 2018 rumbo al Sol. En noviembre de aquel mismo año y en abril de 2019 realizó dos acercamientos a nuestra estrella, aproximándose a unos 24 millones de kilómetros. Hasta ahora, la mayoría de las mediciones se habían realizado a una distancia de una unidad astronómica (la que separa la Tierra del Sol, unos 150 millones de kilómetros).

Los instrumentos de la nave han registrado ahora nuevos datos sobre la corona (la atmósfera exterior del Sol, mil veces más caliente que su superficie), sus energéticas partículas y el viento solar, una información que se publica esta semana en cuatro artículos de la revista Nature.

Los científicos tratan de entender cómo se calienta la corona a temperaturas de millones de grados centígrados, y cómo produce las ondas de partículas y campo magnético que constituye el viento solar. Este fluye y transporta energía hacia el espacio a enorme velocidad, desde cientos a miles de kilómetros por segundo.

 “Para nuestra sorpresa, cuando nos acercamos al Sol, no solo estas pequeñas ondas fueron más fuertes, sino que también vimos olas gigantes solitarias, como las del océano; y cuando una de ellas pasaba por la sonda, la velocidad del viento podía saltar más de 500.000 km/h en segundos”, explica a Sinc el investigador Justin Kasper de la Universidad de Michigan (EE UU), autor principal del primer estudio.

El equipo vio miles de estas ondas solitarias en los diez días que la sonda Parker estuvo cerca del Sol, y ahora los investigadores se preguntan si son las que calientan la corona. “En el paper describimos cómo estas grandes ondas tienen un pico en la velocidad y una inversión en la dirección del campo magnético (que se dobla en forma de 'S' sobre sí mismo por algún tipo de perturbación en el viento solar)”, apunta Kasper tras observar en detalle los datos sobre los iones de plasma y los haces de electrones del Sol.

“Además, en cuanto a la velocidad del viento solar hubo otra sorpresa”, destaca el investigador: “Cuando estábamos cerca de nuestra estrella, descubrimos que el viento giraba alrededor del Sol en la misma dirección en que gira alrededor de su eje. Esto se había predicho, pero la rotación que encontramos es de 10 a 20 veces más rápida de lo que decían los modelos estándar del Sol. De hecho, siguió aumentando a medida que nos acercamos a él y alcanzamos un máximo de aproximadamente 50 km/s”.

"Así que estamos descubriendo que a nuestros modelos del Sol les falta algo de física muy fundamental, pero la misión Parker Solar Probe tiene una gran oportunidad de revelar lo que realmente está sucediendo", apunta Parker, que subraya: "Esto podría tener implicaciones para cualquier bola giratoria de plasma que se pueda imaginar, como estrellas jóvenes, discos de acreción de agujeros negros y algunos dispositivos de fusión de plasma".

El investigador también destaca la importancia que tienen todos estos datos para la Tierra: "Esta nueva información sobre cómo ocurre el calentamiento y cómo fluye el viento solar mejorará en gran medida nuestra capacidad de predecir si una eyección de masa coronal (una erupción de material del Sol) podría golpear la Tierra o los astronautas en su camino a Marte".

Otros tres nuevos estudios sobre la corona solar

Por su parte, el segundo estudio, dirigido por el investigador Stuart Bale de la Universidad de California en Berkeley (EE UU), se centra en el llamado viento solar lento (se mueve a menos de 500 km/s), cuyos orígenes han sido menos claros que el del viento rápido (a más de 500 km/s). Los autores han encontrado que este viento lento se origina en agujeros en la corona que se encuentran cerca del ecuador del Sol.

Otro equipo internacional liderado desde la Universidad de Princeton (EE UU) también analiza en un tercer artículo el entorno de las partículas energéticas que se mueven cerca del nuestra estrella, y un grupo internacional coordinado desde el Laboratorio de Investigación Naval de los Estados Unidos ha analizado las observaciones de la luz solar dispersada por los electrones (la llamada corona K) y el polvo (la corona F o luz zodiacal).

La sonda Parker se acercará tres veces más al Sol en los próximos cinco años, llegando finalmente a poco más de seis millones de kilómetros de su superficie. Esto permitirá a los científicos medir la potencia de las ondas solitarias, comprobar si están calentando la corona, analizar si la rotación del viento alrededor del Sol sigue aumentando y otros nuevos descubrimientos.

Durante este tiempo, el Sol entrará en una fase más activa de su ciclo de once años, "por lo que podemos esperar resultados aún más emocionantes en los próximos años", apunta el investigador Daniel Verscharen del University College de Londrés en una valoración que acompaña a los cuatro artículos de Nature.

 

05/12/2019 10:26 Actualizado: 05/12/2019 10:26

ENRIQUE SACRISTÁN/SINC

 @agencia_sinc

Sábado, 02 Noviembre 2019 17:30

Hacia una teoría general del sujeto

Hacia una teoría general del sujeto

¿Es posible una teoría general del sujeto?, de no serlo ¿puede la demarcación de esa imposibilidad constituir una teoría general? Si con toda seguridad es necesario un empeño transdisciplinar para contestar estas preguntas, ¿puede la postura hegeliano-lacaniana de Slavoj Žižek pintar algo en ese asunto? O ¿es necesario realizar una purga bungeana para que la ciencia pueda hacer el trabajo? Este libro propone hacer frente al problema en un recorrido a través del cual la postura de Žižek se verá constantemente interpelada hasta extraer lo que quede de ella, que tal vez sea todo, o como dice él: Menos que Nada.

Publicado enCiencia y Sociedad
Martes, 08 Octubre 2019 06:20

5G, realidades y necesidades

5G, realidades y necesidades

La quinta generación de redes móviles (5G) no solo constituye una lógica y, por tanto, previsible evolución respecto a los sistemas precedentes como el 4G, sino que se ha convertido justo antes de su lanzamiento comercial en “el futuro de las comunicaciones tanto móviles como fijas”, en palabras de Richard Sutton.

En realidad, el desarrollo de muchas de las tecnologías que se consideran emergentes, como el internet de las cosas (IoT), la realidad virtual (VR), la realidad aumentada (AR), e incluso de otras cuyas formulaciones se conocen hace décadas, como la computación en la red (cloud computing), la inteligencia artificial (AI) o la gestión virtual de las propias redes (NFV), depende más del modelo de negocio adoptado que del soporte tecnológico, aunque con el 5G van a incrementar sus potencialidades.

Las lecciones aprendidas durante estos primeros 20 años de redes de banda ancha móviles, como el 3G y 4G, demuestran que un cambio profundo y económicamente rentable en las formas de uso y, sobre todo, en su asimilación como experiencia vital del usuario, no se produce únicamente añadiendo más kilobits de subida y bajada.

Otro factor determinante es el coste final de las subastas del espectro que las operadoras tienen que pagar para poder ofrecer el 5G. La exuberancia especulativa que a principios de siglo mostraron las subastas para las frecuencias 3G permitió comprender a los gobiernos que si las barreras de entrada son altas, las inversiones a largo plazo serán menores, lo que repercute en el desarrollo económico.

La norma general, hasta ahora, de las subastas nacionales de frecuencias para 5G es que los gobiernos han optado esta vez por costes más moderados, al poner sobre la mesa grandes porciones de espectro. Por el contrario, en aquellos países que optaron por la escasez artificial que supone trocear excesivamente el espectro (Italia) o reservar buena parte de este para otros servicios (Alemania), los costes aumentaron considerablemente.

Siendo conscientes de que el entusiasmo tecnológico constituye un buen punto de partida para la innovación, pero no siempre un aliado estratégico conveniente si se quieren crear bases sólidas para una reformulación tan profunda como la asociada al 5G, no se debe perder nunca de vista lo que la sociedad y el mercado realmente son en este primer tercio del siglo XXI.

Banda ancha para más

Cada nueva generación de telefonía móvil ha alcanzado un mayor número de usuarios que la anterior. Además, su adopción es muy similar a la observada en otras tecnologías y básicamente sigue la famosa curva de difusión formulada por Robert Everett hace más de 5 décadas. La diferencia fundamental entre los sistemas de telefonía móvil y el resto de las tecnologías no radica por tanto en su forma de adopción, sino en la dimensión alcanzada. Así, el total de usuarios únicos de redes móviles actualmente supone el 67 por ciento de la población mundial (GSMAIntelligence, 2019USCensusBureau, 2019) y el número total de conexiones supera un 4 por ciento al de la población del planeta (Ericcson, 2018).

Esto significa que cuando el 5G comience a ser una realidad para esa minoría de primeros usuarios pioneros (early adopters), algo que no va ocurrir de manera significativa al menos hasta 2020, este sistema de quinta generación tendrá ya un mercado potencial de 8.000 millones de usuarios, a lo que habría que añadir al menos 2.000 millones de conexiones celulares en el internet de las cosas. Por lo tanto, el 5G nace ya con el objetivo de convertirse en el sistema de comunicación con mayor número de usuarios (humanos + máquinas) de la historia, algo que podría ocurrir antes del final de la próxima década.

Un factor importante es que el ritmo de adopción de los sistemas móviles digitales se ha ido incrementado exponencialmente, de modo que cada sistema tarda menos que el anterior en convertirse en el de mayor número de usuarios. Así, el 3G tardó casi 14 años en alcanzar un 30 por ciento de difusión entre los usuarios de redes móviles, pero el 4G en siete años ya había superado ese porcentaje convirtiéndose en el sistema con mayor número de usuarios del mundo a finales de 2017.

El 5G nace con el objetivo de convertirse en el sistema de comunicación con mayor número de usuarios (humanos + máquinas) de la historia.

Las sucesivas generaciones de sistemas móviles han ofrecido básicamente al usuario mayores velocidades, un concepto asumido en la nueva cultura del acceso creada a partir del iPhone de Apple. Este factor aparentemente simple permitió ahorrar a las operadoras cuantiosas inversiones en márketing para trasladar a sus clientes la poderosa idea de que el 3G era más rápido que el 2G, el 4G que el 3G y, por lo tanto, el 5G seguirá esta tendencia.

No obstante, cuando se justifica la evolución de los sistemas móviles por la velocidad de acceso se genera un problema: que cualquier esfuerzo inversor de las operadoras por actualizar sus redes se interpreta al final como una forma de hacer la tubería más ancha y que circulen más bits. Esta visión reduccionista ha permitido situar la innovación justo encima de estas redes y en el dispositivo de acceso. Lo que quiere decir que son las empresas que proveen los servicios más populares (Google, Amazon, Netflix…) y los fabricantes de móviles, los agentes que se perciben externamente como los verdaderos innovadores del mercado.

Sin emitir un juicio arriesgado y sin duda complejo sobre quién innova más en Internet, sí se puede afirmar que, si no se alteran las condiciones actuales del mercado, con el 5G nos dirigimos de nuevo a un escenario donde los que más invierten en su desarrollo corren el riesgo de ser los que menos recojan los previsibles dividendos.

Mismo punto de partida

No obstante, en la progresiva implantación del 5G, operadoras y empresas de servicios en Internet comparten una misma necesidad de partida: ambos necesitan incrementar su número de usuarios y este incremento persigue a su vez dos objetivos. En primer lugar, cerrar la brecha mundial entre los que hoy usan redes móviles y aquellos que acceden a estas pero con sistemas de banda ancha. En segundo lugar, integrar ese remanente del 33 por ciento de la población mundial que permanece ausente de las redes móviles, lo que en términos absolutos equivaldría a integrar más de 2.400 millones de personas, la mayoría de ellos en países en desarrollo o regiones emergentes, sobre una población mundial de 7.500 millones de personas.

No obstante, detrás de estas cifras que llaman al optimismo hay que tener en cuenta que, de ese total de personas no conectadas, al menos un 35 por ciento son niños o ancianos (World Bank, 2017), lo que en principio reduce ese margen razonablemente alcanzable de usuarios desconectados a 1.500 millones.

El 5G supone una mejora en tres factores: la velocidad, la latencia y el número de dispositivos que se pueden conectar simultáneamente.

Para que estos 1.500 millones de adultos dieran un salto de la desconexión al 5G, no solo se tendría que producir un amplio y rápido despliegue de infraestructuras que aumentara la cobertura, sino que los costes de conexión (redes y dispositivos) tendrían que ser considerablemente más asequibles que los actuales, teniendo en cuenta la menor renta disponible en los países en desarrollo donde se sitúa esa brecha.

El tercer y determinante factor diferencial del 5G es la densidad o número de dispositivos que la red sería capaz de atender en condiciones óptimas por unidad de cobertura y tiempo, estimada en un incremento exponencial del 100 por ciento respecto a la generación anterior. Esto haría posible la comunicación efectiva en zonas con alta densidad de población o en situaciones puntuales como eventos masivos, pero también la transmisión simultánea entre cualquier objeto conectado sin mediación.

Triple impacto

La implantación de redes 5G en los principales mercados supondrá un triple impacto:

  • En las tecnologías y en los servicios disponibles.
  • En el propio mercado de las telecomunicaciones.
  • Y, por último, en la aparición de innovaciones inimaginables hasta ahora.

En el primer grupo encontraríamos tecnologías como la realidad virtual (VR) y la realidad aumentada (AR). El 5G mejorará la experiencia de usuario en las dos al proporcionar mayores velocidades y latencias mejoradas, este último un factor crítico en contenidos populares como los videojuegos.

El segundo impacto está relacionado con el inquietante statu quo actual de las operadoras que en pocos años vieron como las aplicaciones IP se comían literalmente el, durante décadas, cautivo mercado de las llamadas telefónicas y las nuevas formas de expresión personal multimedia (emojis, textos, clips de audio y vídeo) convertían los teléfonos fijos en “jarrones chinos” — valiosos pero sin utilidad—, las líneas fijas residenciales en soportes colectivos para wifi y los teléfonos móviles en computadoras portátiles.

El tercer impacto es a la vez el más amenazante y esperanzador ya que se refiere a todo lo nuevo y desconocido que un sistema global de banda ancha que promete llevarnos al nivel gigabit puede traer. No podemos olvidar que, a pesar de los recientes cuestionamientos de principios como la neutralidad de la red, Internet sigue siendo una red descentralizada donde la innovación no necesita permisos de núcleos centrales y donde las operadoras no tienen que establecer a priori qué usos se le van a dar a la red.

Al igual que un Snapchat o un Instagram eran inconcebibles cuando se pusieron en marcha las redes 3G, las posibilidades tecnológicas del 5G serán un incentivo para los emprendedores que ahora pueden acceder a la misma tecnología y a una creciente disponibilidad de capital menos alérgico al riesgo. Además, la incorporación de miles de objetos cotidianos hasta ahora virtualmente desconectados a la nueva Internet incrementa exponencialmente las posibilidades de aparición de nuevas aplicaciones que signifiquen una ruptura de los modelos comunicacionales que vimos en los sistemas anteriores.

Por su parte, los fabricantes de móviles serán en gran medida los responsables de la primera interpretación del 5G entre los usuarios, ya que sus aparatos son los receptores privilegiados de la primera tecnología de conexión que permite integrarse en esta red. Pero la necesidad que tienen estas empresas de acortar el ciclo de renovación de sus dispositivos, cuya prolongación ha generado un estancamiento de las ventas mundiales, no es un argumento consistente para convencer a esa franja de usuarios pioneros que ya pagan 1.000 dólares por los móviles más avanzados.

Para los usuarios, el factor diferencial del 5G respecto a los sistemas actuales tendrá que venir de nuevos usos tanto de aplicaciones ya existentes como de nuevos entrantes que podrían hacer una interpretación creativa de las potencialidades del 5G —latencia, densidad de conexión, velocidad— para ofrecer no solo una mejora de los servicios existentes, sino de otros cuya demanda es todavía desconocida.

En definitiva, el 5G está destinado a convertirse en el soporte preferente de un Internet que en su tercera fase no solo aspira a cerrar la brecha de las personas desconectadas, sino a generar sinergias con sectores industriales históricamente indiferentes o cuyos canales de venta y procesos de fabricación apenas han variado en estos 25 años de despliegue de redes móviles.

Por Francisco Vacas

Profesor Universidad, Consultor, Universidad Rey Juan Carlos

La versión original de este artículo ha sido publicada en la Revista Telos 111, de Fundación Telefónica.

Este artículo ha sido publicado originalmente en The Conversation

Página 1 de 58