El vehículo robótico chino Yutu-2 recorre el lado opuesto de la Luna después de dejar el módulo de aterrizaje.Foto Ap

Ya Napoleón había advertido en el siglo XVIII sobre el despertar chino.

En medio de la tensión militar de China con Trump (http://bit.ly/2ACslpr) y el inicio de las negociaciones comerciales de las dos máximas superpotencias geoeconómicas del planeta, Pekín realizó la hazaña de un alunizaje en el lado oscuro de la Luna el 3 de enero, como exhibición de su prodigioso avance tecnológico cuando irrumpe al espacio, al unísono de Moscú y Washington, China envía señales prístinas de su inocultable poderío.

Desde el siglo XI, cuando EU aún no existía, China había sido pionera de colosales avances científicos (pólvora, brújula, imprenta, etcétera).

La innovación es consustancial al ADN chino, que sufrió un humillante eclipse por las dos guerras del opio del siglo XIX propinadas por Gran Bretaña. Un siglo más tarde China volvió a emprender su ascendente carrera en la historia de la civilización.

El anterior editor científico de la Real Academia de Química, de Cambridge, hoy feroz analista político, Finian Cunningham, enuncia que China se ha posicionado para ser un líder global en tecnología y desnuda con crudeza el envidioso vandalismo mercantil de EU (https://bit.ly/2AAaPBY).

A diferencia de los previos alunizajes de EU y Rusia, el módulo chino Chang’e-4 –diosa lunar de su mitología– fue capaz de navegar en el lado oscuro de la Luna.

El alunizaje en la parte oscura presenta(ba) serios problemas de comunicación que fueron superados por un satélite de escala que permitió los mensajes triangulados.

China se sube así a la exploración de punta en el espacio junto a EU y Rusia, lo cual asentaría el orden tripolar en la Vía Láctea que hemos formulado para la Tierra (http://bit.ly/2zzcffD).

Finian Cunningham sentencia que EU/Rusia/China son los únicos países que han colocado misiles y astronautas en el espacio usando a sus propios (sic) ingenieros y tecnología y comenta que el año pasado por primera vez, China lanzó más cohetes al espacio (38) que cualquier otro país.

Steven Lee Myers y Zoe Mou, del New York Times, no tienen más remedio que aceptar la hazaña espacial del alunizaje chino cuando EU y Rusia todavía no alunizan en la parte oscura de la Luna.


La hazaña no se detendrá cuando se espera que China lance una serie de misiones que es probable la coloquen a la cabeza de la carrera espacial.

Según los reporteros del NYT, China prepara operar su tercera estación en el espacio en 2022, para colocar a sus astronautas en una base lunar a finales de esa década, y enviar sondas a Marte, que incluyen el retorno de muestras a la Tierra de la superficie marciana (https://nyti.ms/2ACucKV).

EU azuza a Taiwán contra su madre patria, mientras es probable que China colonice la Luna donde capture su inmenso abastecimiento de energía, en especial de Helio-3, que provea 10 mil años (sic) de energía: fuente del combustible para la fusión nuclear controlada cuando 40 gramos de Helio-3 pueden sustituir 5 mil toneladas de carbón.

Mientras México se autoflagela con sus impresentables huachicoleros, la hazaña china constituye la piedra de toque de la exploración en la Vía Láctea donde la luna puede ser la base del reabastecimiento de combustible para sus misiones espaciales.

No me quiero imaginar, a nivel terrestre, todos los secretos militares que han de tener resguardados en China y que causarían una ingrata sorpresa en caso de una contienda bélica con EU.

Finian Cunningham interpreta que el timing de la hazaña china fue apropiada cuando Trump busca impedir el auge de Made in China 2025, de autarquía tecnológica, no se diga sus tres rutas de la seda (https://bit.ly/2TA9RNe).

¿Cómo pretende Trump conseguir el suicidio tecnológico chino en la Tierra cuando EU ha sido superada en la exploración lunar?

¿Dónde quedan los alegatos absurdos de Trump de que China roba la tecnología estadunidense y su propiedad intelectual?

Viene lo mejor: no solamente el caso Huawei, cuando Apple se ha desfondado, sino el avance de sus misiles supersónicos y la inteligencia artificial, donde China desafía la hegemonía tecnológica de EU.

AlfredoJalife.com

Twitter: @AlfredoJalifeR_

Facebook: AlfredoJalife

Vk: id254048037

¿Fin de la pantalla táctil? Luz verde en EEUU a un sensor de movimiento basado en radar

Google consigue permiso del regulador estadounidense para utilizar un diminuto sensor que captura el movimiento en un espacio tridimensional mediante radar. Así se puede manejar un dispositivo sin tocarlo y sin necesidad de cámara.

 

Olviden por un momento cámaras y pantallas táctiles. ¿Se imaginan poder controlar un aparato simplemente con el movimiento de la mano en el aire? Google acaba de recibir permiso en EEUU para desplegar este tipo de tecnología, basada en radar.

Se trata de un paso importante para el llamado Proyecto Soli, un desarrollo interno del gigante de internet que busca el control de dispositivos electrónicos sin necesidad de tocarlos.

De esta forma, según informa Reuters, la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) anunció que otorgará a Google permiso para operar los sensores del Proyecto Soli a niveles de potencia más altos que los permitidos actualmente.
Este avance funciona gracias a un sensor que captura el movimiento en un espacio tridimensional utilizando un haz de radar que funciona en el espectro de los 60Ghz. Así, permite interpretar los gestos de la mano situada cerca de dicho sensor y convertirlos en órdenes concretas para controlar las funciones de un dispositivo.

Por ejemplo, el sensor permite a un usuario presionar un botón invisible o girar un dial virtual frotando el pulgar contra el índice. En un vídeo en su sitio web, Google muestra cómo se puede manejar un reloj inteligente chasqueando los dedos, de modo que uno puede desplazarse por la música o ajustar el volumen simplemente con el movimiento de la mano.

Para la FCC, esta tecnología "servirá al interés público al proporcionar características innovadoras de control de dispositivos utilizando la tecnología de gestos manuales sin contacto", que pueden beneficiar a los usuarios con discapacidades de movilidad o habla.

Este sistema basado en radar es capaz de traspasar materiales como ciertas telas, lo que incluso podrá permitir controlar dispositivos que se encuentren en un bolsillo o en el interior de una mochila, por ejemplo. Podrá integrarse en dispositivos portátiles, teléfonos, ordenadores y hasta vehículos.

La sensación de controlar un dispositivo con gestos en el aire no supondrá un gran problema, sostiene la compañía, dado que a pesar de que estos controles son virtuales, "las interacciones se sienten físicas y sensibles" por la sensación háptica de los dedos tocándose entre ellos. Algunos sitios especializados, como Xataka Móvil, han comparado este sistema con TOF 3D (la tecnología que usa Kinect de Xbox, por ejemplo) aunque éste último necesita contacto visual para registrar los gestos debido a que es un sistema de sónar óptico.

Si bien este proyecto fue presentado por primeera vez en 2015, en marzo del pasaso año Google solicitó a la FCC que permitiera que su radar operase en la banda de frecuencia de 57 a 64 GHz, unos niveles de potencia compatibles con los estándares del Instituto Europeo de Normas de Telecomunicaciones.

No obstante, Facebook expresó sus reservas al considerar que si los sensores iban a operar en la franja de potencia más alta podría causar problemas de coexistencia con otras tecnologías.

Tras una negociación, Google y Facebook informaron conjuntamente el pasado mes de septiembre a la FCC que habían acordado que los sensores podrían operar a niveles de energía superiores a los permitidos actualmente sin interferencias, pero a niveles inferiores a los propuestos por Google.

Google sostiene que sin llegar a los niveles de potencia más altos las pruebas muestran la aparición de puntos ciegos cerca de la ubicación del sensor.

Como curiosidad, los dispositivos del Proyecto Soli pueden funcionar a bordo de aeronaves, pero aún deben cumplir con las normas de la Administración Federal de Aviación de EEUU que rigen los dispositivos electrónicos portátiles en aviones comerciales.

Imagen real de Ultima Thule (izquierda) y un diagrama con su eje de rotación. NASA

La sonda espacial New Horizons ha sobrevolado con éxito Ultima Thule, el cuerpo celeste más lejano que se ha visitado nunca. Su encuentro con este objeto en las afueras del sistema solar se produjo al filo de la medianoche del 31 de diciembre. Unas horas después de la maniobra histórica, la nave envió sus primeras señales, que tardaron seis horas en recorrer a la velocidad de la luz los más de 6.600 millones de kilómetros que la separan de la Tierra. Finalmente el mensaje fue recibido por una antena de espacio profundo de la NASA en las afueras de Madrid pasadas las 16:30 de la tarde, hora española.

"La sonda está en perfectas condiciones. Acabamos de conseguir el sobrevuelo más lejano", ha dicho Alice Bowman, jefa de operaciones de la misión, entre aplausos y gritos de júbilo en el Laboratorio de Física Aplicada de la Universidad Johns Hopkins (EE UU), donde está el centro de control. Ahora comenzarán a llegar los datos científicos "para entender el origen de nuestro sistema solar", ha añadido.

Ultima Thule es un mundo en miniatura, el más lejano y el más antiguo que haya visitado una sonda espacial. Este alargado objeto descubierto en 2014 es uno de los miles de asteroides y hasta un billón de cometas que forman el cinturón de Kuiper.

La nave de la NASA —la más rápida jamás lanzada al espacio— ha pasado junto a Ultima a 18 kilómetros por segundo, un encuentro fugaz durante el que sus cámaras han intentado retratar los accidentes geográficos de este cuerpo desde una distancia de unos 2.000 kilómetros, tres veces más cerca de lo que pasó sobre Plutón obteniendo vistas espectaculares. Gracias a esta misión el planeta enano dejó de ser una pequeña bola borrosa observada por telescopios y pasó a ser un complejo mundo con glaciares, agua y compuestos orgánicos donde puede haber un océano bajo el hielo.


Las últimas imágenes disponibles, tomadas durante la aproximación a Ultima, muestran un cuerpo alargado, con forma de bolo, de "35 kilómetros de largo y 15 kilómetros de ancho", ha explicado Alan Stern, jefe científico de la misión, durante una rueda de prensa esta tarde. Stern ha explicado que aún no se sabe si se trata de un solo cuerpo con dos lóbulos o dos objetos separados. "Mañana conoceremos la respuesta", ha explicado Stern, ya que elequipo espera recibir las primeras imágenes del sobrevuelo esta noche, procesarlas y publicarlas mañana. La sonda tomó unas 900 imágenes de su encuentro y las enviará a la Tierra durante los próximos dos años, según ha explicado en un tuit Bowman, que es la primera mujer que ocupa el puesto de jefe de operaciones de una misión espacial en la Johns Hopkins. Las imágenes de mayor resolución llegarán en febrero.

Apenas unas horas después del sobrevuelo, New Horizons ya se encontraba a casi medio millón de kilómetros del pequeño mundo recién descubierto y se adentraba aún más en el cinturón de Kuiper, donde es posible que pueda visitar al menos un asteroide más en los próximos años.

Ultima Thule es una cápsula del tiempo. Está hecho de los materiales originales con los que comenzó a formarse el Sistema Solar hace más de 4.000 millones de años y apenas ha sido modificado desde entonces. Su estudio puede aclarar el origen de nuestro sistema estelar y esclarecer el papel que estos cuerpos del cinturón de Kuiper juegan al desviar cometas de sus trayectorias y hacen que se acerquen al núcleo del sistema solar, un proceso que pudo sembrar la vida en nuestro planeta por impactos de estos cuerpos, según explicó a este diario Adriana Ocampo, una de las responsables de la misión.

Unas horas antes, otra nave de la NASA, Osiris-Rex, también hizo historia al ponerse en órbita del asteroide Bennu, a unos 110 millones de kilómetros de nuestro planeta, según conmfirmó la NASA el 31 de diciembre. La sonda se ha convertido en la primera que orbita un objeto tan pequeño como este, de apenas 500 metros de diámetro. También será la que establezca la órbita más cercana a una altura de sobrevuelo de apenas un kilómetro y medio. Su objetivo final será posarse sobre la superficie, succionar una muestra de terreno y enviarla de vuelta a la Tierra en 2023. Este cuerpo es especialmente interesante porque tiene una pequeña probabilidad de chocar con la Tierra (0,037%).

Lunes, 31 Diciembre 2018 08:35

¿Qué es Anonymus?

¿Qué es Anonymus?

La sociedad de la información implica políticas de información –unas restrictivas, otras de liberación–. Las cosas no son planas ni totalmente evidentes. Aquí cabe mencionar algunas acciones de resistencia en la búsqueda de más y mejor información, tendiente todo a más y mejor vida.

 

En el año 2006 se estrena mundialmente la película “V de Vendetta”, bajo la dirección de J. McTeigue, y con la actuación estelar de Natalie Portman, Hugo Weaving, John Hurt, y Stephen Fry, entre otros. La película fue un éxito y es ya considerada como un clásico o una película de culto. Basada en la novela gráfica escrita por Alan Moore con ilustraciones de David Lloyd. El tema de base es la distopía. El personaje central es un revolucionario misterioso denominado “V” oculto con una máscara de Guy Fawkes, un personaje real que remite a la historia de Inglaterra en 1605.


Pues bien, aunque existen algunos antecedentes que remiten a los años 2003, 2004 y 2007, puede decirse que Anonymous nace en el 2008, cuando, por así decirlo, la máscara de Guy Fawkes se convierte en un ícono social, cultural y político.


Anonymous no es una organización, y expresamente no acepta y rechaza cualquier tipo de jerarquías. Puede decirse que es un movimiento, y más exactamente una dinámica, un flujo, un proceso. Ellos se denominan a sí mismos de dos maneras: como una legión y como una idea.


Que Anonymous es una legión quiere significar que se trata de numerosos individuos y grupos, colectivos y asociaciones libres unidos por ideas, principios y acciones basados en principios universales básicos, tales como: libertad, igualdad, justicia, equidad, información, transparencia y otros semejantes y próximos.


Y en cuanto idea, Anonymous reconoce que es un movimiento que no muere: como no mueren las ideas. Y que en consecuencia puede ser aprendida, replicada, enseñada, transmitida y se reproduce de mil maneras. Si algunos pensadores hablan de la noosfera, a partir de una idea pionera de V. Vernadsky, Anonymous puede ser comprendido justamente como un sistema u organismo inteligente con el medio en el que vive , en el que nace e incluso contra el cual se enfrenta.

 

El lema de Anonymous condensa la filosofía que lo constituye:

 

Knowledge is free: We are Anomymous. We are Legion. We do not forgive. We do not forget. Expect us!. Cuya traducción es: El conocimiento es libre. Somos Anónimos. Somos legión. No perdonamos. No olvidamos. ¡Espéranos!


El mundo y la época


Hacia los años 1960 Andy Wharhol sostenía “en el futuro cada quien tendrá sus quince minutos de fama”. Se anticipaba así a la sociedad del espectáculo, al mundo de la banalidad, en el que, por ejemplo a través de las redes sociales cada quien comparte, sin que los demás se lo pidan, sus lugares preferidos, sus amigos, sus pesares y pequeñas alegrías, por ejemplo. Y si: cada quien tiene, de distintas maneras, un nombre en efímeros “quince minutos”.


De acuerdo con J. Rifkin (1), en el año 2008 nace la tercera revolución industrial, cuya mejor caracterización y fundamento es la importancia de internet. Sin embargo, internet es tan sólo el canal que propiamente consiste en:

• La web 1.0: la importancia de los computadores, el nacimiento de internet (world wide web), el surgimiento de las bases de datos;
• La web 2.0, que se caracteriza por las palabras clave de búsqueda, el aprendizaje de máquina, los sitios webs, los portales de directorios, los wikis y los blogs; y, hacia futuro,
• La web 3.0, que es la búsqueda semántica, todas las redes sociales, los medios y modos que comparten información, las aplicaciones web híbridas (mashups).

 

Incluso, sin la menor duda, ya se está discutiendo y se está anticipando:

 

• La web 4.0, caracterizada por las búsquedas distribuidas, los agentes inteligentes personales, todos los dispositivos inteligentes, la internet de las cosas (IfT), y el surgimiento de bases de datos semánticas.

 

La ventana de observación abarca desde los años 1990 hasta, verosímilmente los años 2020 y 2030.


El mundo en el que nace Anonymous es, pues, el de la sociedad de la información, pero se proyecta rápidamente hacia la sociedad del conocimiento y la sociedad de redes. Se trata del mundo en el que internet está permitiendo otro tipo de democracia, en el que, explícitamente la información no puede ser controlada (aunque haya podres que lo pretendan), y en el que, por primera vez en la humanidad, el conocimiento no es prerrogativa de nadie en particular, puesto que es libre.


Este mundo coincide con un verdadero cambio no simplemente de tipos de economía y de sociedades, sino, mucho mejor aún, como un cambio civilizatorio. Anonymous se encuentra, por así decirlo, en la bisagra de este cambio, a saber: la muerte de Occidente y el nacimiento de una nueva civilización.


Sin embargo, en rigor, Anonymous no hace de esto una bandera o un programa, precisamente porque no es una organización como tal. El sitio oficial en YouTube es: https://www.youtube.com/channel/UCA071Pllf2wk-B8Rkwt47bQ, y su página oficial: http://anonofficial.com.


¿Qué es y qué hace Anonymous?


Lo dicho: no existe un programa en Anonymous, a la manera, por ejemplo, de los partidos políticos (clásicos), y su estructura es difusa y abierta. El idioma de base de esta dinámica o flujo es el inglés, pero sólo por una razón básica: el inglés es la lingua franca de la información.


Anonymous sugiere y promueve el reconocimiento de la importancia del anonimato. Esto es, el liderazgo anónimo, las estrategias de igual carácter, y el reconocimiento de la idea de que, aunque no se diga así en ninguna parte, el “yo” es una invención peligrosa que permite control y manipulación, asumido y desplegado por el mundo en términos semejantes.


Desde otro punto de vista, los anónimos son justamente todos aquellos que no tienen voz (los sin-voz), los marginados, los excluidos, los pobres, los enfermos, los intocables, los invisibles, los oprimidos, los expulsados, los sin-historia. Los mismos que en la historia de la humanidad han sido y lo son hoy también la inmensa mayoría.


Justamente, esa mayoría que no ocupa las planas de los periódicos y los grandes medios de comunicación masivos, que no forman parte de la “gente linda”, de los famosos, de los que tienen éxito, los triunfadores, los políticos, los deportistas de primera plana, todo el mundo del espectáculo, los ricos, los tomadores de decisión, los jefes de las corporaciones, de los gobiernos y de los estados. Esa gente que tiene sus “quince minutos de fama”. Son todos estos los que viven de la información, tomándola como la apariencia y el momento efímero pero fundamental, para cada quien.


La idea de anonimidad se contrapone, filosóficamente, a toda la civilización occidental, y encuentra sus raíces en la historia de las resistencias, las luchas de liberación, las luchas por los más elementales y fundamentales derechos. Desde el movimiento negro en los Estados Unidos, a las luchas anti-colonialistas en África, los distintos movimientos sociales alternativos alrededor del mundo, y los movimientos emancipatorios –todos ellos conectados sutilmente a través de internet, con criterios socialistas, pero actuando siempre localmente.

 

De manera general, las formas de acción, participación y decisión de Anonymous son cinco, así:

 

• De un lado, están los “soldados de a pie”. Se trata de todos aquellos que, en las calles o en los campos recuperan la voz de los sin-voz, y se sitúan del lado de los invisibles, de sus luchas y esperanzas.
• De otra parte, están todos los que conocen muy bien los computadores y la computación (computer-savvy), esto es, conocimientos de informática; desde la arquitectura hasta los lenguajes de programación, los principios, la ciencia y la filosofía, códigos, motores de búsqueda y aplicaciones, por ejemplo.

 

Al respecto, la Unesco sostiene que la principal forma de analfabetismo contemporánea es el analfabetismo tecnológico. Pues bien, un frente de acción de Anonymous son todos aquellos que tienen ante internet un conocimiento activo, y no simplemente pasivo.

 

• Asimismo, están los activistas político, que son todos aquellos que crean peticiones, organizan marchas, llevan a cabo bloqueos de vías y otras acciones semejantes.

 

Es fundamental atender al hecho de que Anonymous no es un movimiento violento. Pero, así mismo, en el marco de la acción colectiva, es importante recordar que existen formas no violentas de acción como la resistencia civil, el movimiento armado no beligerante, la insubordinación y la insumisión, y otras. Este es el objeto tanto de una teoría de la acción colectiva, como de las formas de organización y acción de la sociedad civil.

 

• Existen miembros de Anonymous en distintas clases de organizaciones. En el gobierno, en organismos del Estado, al interior incluso de las fuerzas armadas y de policía y en los órganos de seguridad del Estado. Así, también, existen miembros de esta dinámica en la empresa privada; pequeñas o medianas y hasta grandes empresas y corporaciones.

 

La fortaleza de los miembros de Anonymous –que se llaman entonces como Anons (en inglés), es el anonimato. Esta fortaleza es indestructible y la más poderosa jamás. Análogamente a los sistemas vivos en los diversos niveles de organización de la naturaleza.

 

• Finalmente, están las ramas de inteligencia conformada por “anónimos” (anons). Se trata de todos aquellos que hacen investigación, que producen, obtienen y divulgan información.

 

La gama aquí es amplia y variada, desde personas vinculadas a los medios de comunicación, los colegios, las universidades y, en general, todos los frentes que implican tres elementos: información, conocimiento e investigación y desarrollo (I + D). Tres ejes sensibles de la sociedad de la información, la sociedad del conocimiento y la sociedad de redes, tres modos de designar un solo momento.


Ulteriormente, están los diferentes comandos o juntas de miembros de anónimos (anonboards), que pueden comunicarse de distintas maneras combinando tanto inteligencia humana como inteligencia técnica.


El mundo de la información y la web profunda


Un dato fundamental: de toda la información que circula por la red, sólo el 0.5 por ciento es refinada. El resto es información bruta, tal cual. Toda la información que circula por internet (Google, Facebook, YouTube, y demás) constituye, en el mejor de los casos, menos del 4 por ciento de toda la información disponible y existente en la red. Por lo menos el 96 por ciento de la información circula a través de la web profunda.


A fin de comprender lo anterior, cabe una metáfora. El refinamiento de la información es análogo al refinamiento del petróleo. De éste, cuando es refinado, se extraen, por ejemplo, el gas, el kerosene, la gasolina, el diesel. Asimismo, se obtienen numerosos disolventes, aceites, grasas y lubricantes, además de cosméticos y productos de aseo, entre otros.


Pues bien, hoy por hoy, sólo el 0.5 por ciento de la información es refinada, a través de distintas instancias: gobiernos, estados, fuerzas de seguridad, corporaciones y organizaciones de la sociedad civil. En este sentido, empleando el lenguaje clásico, cabe decir que Anonymous es un movimiento de la sociedad civil abocado a la tarea de refinar la información. Refinamiento que coincide, plano por plano, con la forma misma de trabajo del movimiento. Esta es, la forma de convertirse en anónimo en internet. Ello conduce la mirada hacia la web profunda (deep web).

 

De manera general se sugieren cinco pasos para lograr el anonimato y trabajar inteligentemente con internet ( = información). Veamos:

 

• Desconectar, esto es, cerrar, todos los motores de búsqueda que tenga su computador, tablet o teléfono inteligente. Esto es, motores como Mozilla, Google, Bing, Safari y otros. Asimismo, cerrar todas las redes sociales y los canales públicos (YouTube, etc.) que tenga el computador. No en última instancia, cerrar la cámara de video para Skype u otros semejantes.
• Obtener, entonces una red virtual privada (VPN, por sus siglas en inglés). Esto permite ocultar o cambiar la huella digital del computador que es su dirección IP.
• Descargue un motor de búsqueda y navegación para la web profunda.

 

Todo ello permite salir de la superficie de internet y entrar en la web profunda.

 

Ahora bien, existen varios motores de búsqueda: entre otros, cabe mencionar Tor, Torch, Onion DuckDuckGo, notEvil, Parazite, Surfwax, y varios más.

 

• Mencionemos un ejemplo: Onion. Pues bien, sitios como éste trabajan esencialmente con letras y números.
• Sorprendentemente, descubra dos cosas: una, que es falso que la web profunda consista esencialmente de pornografía y del mundo del crimen y el delito. Y dos, que navegar por esta web profunda es aburrido, pues hay que saber qué se busca. No es como en la web superficial, que una búsqueda permite el acceso a otra, acaso en asociaciones libres.

 

El mundo de la información es bastante distinto de lo que parece. Es sencillo: a las gentes las manipulan con información que generalmente es producida, post-producida y editada. Y ello sin mencionar los casos en los que hay censura y auto-censura, haciéndoles creer con todo ello que lo que ven o reciben es la realidad.


Pero la verdad es que la cosas son bastante más complejas.


Esto permite resaltar un aspecto determinante en el mundo de la información hoy. Es el hecho de que el manejo de la información, y particularmente su depuración o refinamiento promueven y al mismo tiempo necesitan de una mentalidad de hacker. Pues bien, parte de la inteligencia que demanda el trabajo con internet y con información es justamente inteligencia de hacker. Existe, manifiestamente una ética de los hackers (2). Digámoslo por derivación, el trabajo de Anonymous es del más elevado carácter ético o moral.


Ejemplos de acciones


Basta con echar una mirada a distintas fuentes sobre este movimiento, en Facebook, en Twitter, en la página web, o en otras redes. Entonces se aprecian distintas clases de acción informativa, desde conferencias y marchas transmitidas en vivo, informes, por ejemplo, desde Cataluña, a propósito de su proceso de independencia, videos de distinta índole y con temas variados, discusiones sobre los bitcoins y por qué razón los gobiernos y los bancos (centrales) odian la critpmoneda, y muchos más.

No en última instancia, miembros de Anonymous llevan en ocasiones ataques de denegación de servicio (DDoS, en inglés) que buscan o bien hackear información, o bien poner al descubierto información clasificada ante el gran público o la sociedad y que los afecta directamente.


El mundo de hoy se maneja con información, en cualquier acepción de la palabra. Por esta razón nace la ciencia de grandes bases de datos (Big-Data science). Pero hay que decir que los movimientos sociales en general, y más exactamente, los nuevos movimientos sociales conocen la analítica de grandes datos (big-data analytics) y las dinámicas y procesos presentados aquí. Y emprenden entonces importantes campañas económicas, culturales, educativas y políticas correspondientes.


Todo lo cual implica y apunta a que otra democracia es posible.


Para conectar


Para quienes puedan estar interesados, es posible trabajar con este movimiento. Basta con que los conocimientos de inglés sean sólidos. Alguien interesado puede escribir a: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
Este artículo, como todos los de Le Monde diplomatique, está animado por propósitos estrictamente críticas y reflexivas, nunca apologéticas.

 

1. J. Rifkin, La tercera revolución industrial. Cómo el poder lateral está transformando la energía, la economía y el mundo, Barcelona, Paidós, 2011.
2. P. Himmamen, La ética del hacker y el espíritu de la era de la información, Barcelona, Ed. Destino, 2002.


FE DE ERRATA

En la edición impresa por un error de edición, los datos del autor no corresponden.

Debe ir: *Investigador.Profesor universitario.

Colombia, un país sin políticas de ciencia y tecnología

Con una escasa inversión del 0,5 por ciento/año del Presupuesto General de la Nación para ciencia y tecnología para el año fiscal 2018, las clases que dominan en Colombia reflejan su estrechez de miras. Tener a Colciencias como otro botín burocrático resume la política al mando en el país, y la esencia de sus gobiernos: negocio, nada más.

 

En Colciencias, un organismo que tendría que ser de los consentidos de cualquier gobierno serio, desarrollado o inteligente de sus gobiernos, la improvisación es la norma, como puede concluirse del constante cambio de sus directores, el último de ello el científico César Ocampo, declarado insubsistente el 21 de diciembre del 2017 (ver recuadro)

Destitución, cambio, inconstancia, falta de política de largo plazo, claramente reflejada en los nueve responsables con que ha contado este organismo en los 8 años del gobierno Santos. Un director por cada 8 meses tres semanas, esa es la constante. Claramente pesa la burocracia por sobre el saber científico y necesidad de precisar con toda claridad una ruta por abordar por el país en ciencia y tecnología.

Prima la improvisación. En un país donde lo invertido en ciencia y tecnología en cada uno de los últimos gobiernos es claramente inferior al 0,5 por ciento del Presupuesto General de la Nación, por año, no puede ser otro el resultado. Todo un exabrupto en medio de un mundo donde las clases al mando de las distintas potencias globales, como de aquellos países que quieren jugar un rol más destacado en la geopolítica global, han comprendido que si desean continuar ocupando sitiales de honor o llegar algún día a ellos, deben invertir cada día más en sectores de punta, como lo es la propia ciencia y tecnología en su conjunto.

 

Por los pasillos

 

César Ocampo fue declarado insubsistente, una decisión autónoma de las instancias públicas, pero las razones para su insubsistencia jamás se hicieron públicas. Diversos diarios nacionales publicaron versiones según las cuales Ocampo era como una piedra en el zapato de la Casa de Gobierno porque habría tratado de darle algunas preferencias a sus propias líneas de investigación, o que habría chocado con la burocracia de Colciencias. Esas versiones son anónimas, y es llamativo que en una instancia de ciencia y tecnología los argumentos públicos no sean sostenidos de manera abierta y directa. Eso deja mucho que desear del director subsiguiente –Olaya– y de algunas otras personas al interior de órgano rector de la ciencia y la tecnología en el país.

Colciencias se habría convertido en el botín de intereses clientelistas, algo reconocido por la Asociación de Trabajadores de Colciencias (Asocolciencias). Pero el miedo a los despidos predomina, y nadie, empezando por Presidencia de la República aporta pruebas serias o contundentes en cualquier dirección o sentido. Así sucede cuando la administración pública termina predominando sobre la discusión científica, basada en argumentos y contraargumentos, pruebas y refutaciones. Que algo semejante suceda del lado de la Presidencia de la República es normal: al fin y al cabo Santos poco y nada sabe de ciencia, tecnología y academia.

 

Colombia nunca ha sabido de políticas de ciencia  y tecnología

 

En 1991 crean el Sistema Nacional de Ciencia y Tecnología, toma forma asimismo la llamada Misión de los Sabios, se catapulta a Colciencias, y el gobierno de turno promete que Colombia tendrá políticas de ciencia y tecnología serias, responsables y de largo alcance.

Pues bien, desde 1991 hasta la fecha, sistemáticamente, todos los gobiernos habidos han incumplido las promesas: nunca el presupuesto en ciencia y tecnología fue superior al 0,5 por ciento, y ni siquiera se alcanzó el prometido 1 por ciento del PIB. Asimismo, Colciencias jamás dejó de ser un (simple) Departamento Administrativo. En notable diferenciación con otros países de la región, Colombia jamás tuvo hasta el momento un Ministerio de Ciencia (independiente del nombre que pudiera adoptar).

Los presupuestos para CyT han sido los siguientes:

Antes de 1990: 0.1%
1991: 0.3%, César Gaviria,
1996: 0.4%, Ernesto Samper
2001: 0.37%, Álvaro Uribe
2006: 0.39%, Álvaro Uribe
2011: 0.19%, Juan Manuel Santos
2016: 0.5%. Juan Manuel Santos

De consuno, en abril del año 2016, el Sistemas Nacional de Ciencia y Tecnología queda eliminado de Colciencias y pasa a formar parte del Departamento Nacional de Planeación con el nombre de Sistema Nacional de Competitividad, Ciencia, Tecnología e Innovación, algo que la gran prensa ha callado hasta la fecha*.

Como se aprecia sin dificultad, las élites nacionales han sido tradicionalmente indolentes e insensibles hacia el conocimiento, la educación y la investigación, y su ignorancia sobre políticas de ciencia y tecnología es amplia y profunda. Ha primado el afán por la guerra, las políticas de corto plazo, la entrega del país a los capitales internacionales, en fin, la corrupción, pública y privada.

Estamos ante una visión miope, que tiene consecuencias de distinto orden. Por ejemplo, si Colombia llega a ser acogida en la Ocde sería el único país miembro de ese organismo multilateral sin una política clara, sostenida a mediano y largo plazo de ciencia y tecnología y, asimismo, sería el país de la Ocde con el más bajo presupuesto en la materia. Para compararlo con los países semejantes de la región, Colombia está muy por debajo de México, Brasil, Argentina, Chile, Cuba y Venezuela en materia de inversión en conocimiento. Los pares de Colombia son países como Paraguay, Panamá o Guatemala, notablemente.

Es lamentable la ausencia de políticas de ciencia y tecnología, es decir, de políticas a largo plazo de conocimiento e innovación. Lo que se traduce, inmediatamente, en la disminución de la calidad de vida de los ciudadanos, en atraso y dependencia. Es un hecho ya suficientemente reconocido que a mayores políticas de ciencia y tecnología, mayor desarrollo de la industria nacional, más y mejores condiciones de vida con calidad y dignidad para los ciudadanos.

Lo hecho en materia de ciencias y tecnología en el país es simple y llanamente el trabajo específico de las universidades, públicas y privadas, de los grupos de investigación mismos y de los propios investigadores. Pero nunca ha sido el resultado de políticas nacionales de ciencia y tecnología. Verosímilmente, este panorama continuará en el futuro.

Sin embargo, cabría pensar que las universidades lo hacen, en buena medida para figurar bien en los rankings y escalafones internacionales, pues ello se traduce en mayores matrículas, más incorporación de fuentes financiadoras externas, en fin, más consultorías.

Pero el tema presupuestal de este sector es aún más grave, pues lo poco que recibe al año apenas alcanza para cubrir el funcionamiento administrativo, de ahí que los programas de becas (de maestría y doctorado) se hayan visto seriamente afectados. De consuno, el gobierno nacional desplazó los presupuestos de investigación y tecnología al Fondo de Ciencia, Tecnología e Innovación hacia las regiones con la famosa ley de regalías. El resultado ha sido el uso de esos fondos para asuntos distintos a la investigación, y la distribución arbitraria de los capitales disponibles.

Por diversas razones, jamás se volvieron a crear Centros de Excelencia, y el presupuesto jamás fue el suficiente para el pleno apoyo al conocimiento.

Que diversos gobiernos hayan sido indolentes hacia la ciencia y la tecnología no es sino la expresión eufemística para decir que el Estado colombiano jamás ha sabido ni se ha interesado por la ciencia, la tecnología y la investigación. Aparentemente, para el Poder Ejecutivo, para el Congreso e incluso para el Sector Judicial, la ciencia es algo que carece de importancia. Cuando lo han intentado, los científicos jamás han sido plenamente escuchados.

Un silencio peligroso separa a la comunidad académica y de investigación del poder político y económico. El poder no quiere escuchar a los pensadores e investigadores. Les teme, según parece.

* Cfr. https://www.desdeabajo.info/ediciones/item/26293-muere-el-sistema-nacional-de-ciencia-tecnologia-e-innovacion-sncti.html

 


Recuadro


El reino de la improvisación


Primero los datos, empezando del presente hacia el pasado. El científico César Ocampo fue declarado insubsistente como Director de Colciencias el 21 de diciembre del 2017. Antes el organismo rector de la ciencia y la tecnología había tenido siete directores. A la cesación del cargo de Ocampo le sigue el nombre de Alejandro Olaya, hasta entonces el segundo a bordo de Colciencias.

Los directores de Colciencias durante el gobierno de Juan Manuel Santos (ocho años), han sido nueve (hasta la fecha). Estos han sido:

Jaime Restrepo Cuartas, ex-rector de la Universidad de Antioquia y miembro de la comunidad científica.
Jorge Cano, director encargado a raíz de la renuncia de Restrepo. Cano tiene título de Maestría y está vinculado a la Universidad de Cartagena.
Carlos Fonseca Zárate, profesor de la UPTC, con doctorado en Geografía.
Paula Marcela Arias, con doctorado en ciencias geológicas, Investigadora Junior de Colciencias, quien salió de su cargo porque tuvo el valor de acusar al gobierno y a Colciencias de politiquería.
Alicia Ríos, quien trabajó como directora encargada después de Arias, con un doctorado en ciencia y tecnología de alimentos, quien desafortunadamente falleció de una enfermedad penosa.
Yaneth Giha Tovar, quien venía del Ministerio de Defensa, quien no tiene CvLac, y es egresada de la Universidad de los Andes.
Alejandro Olaya, director encargado luego del nombramiento de Giha como ministra de Educación, con un doctorado en ciencias económicas y empresariales, vinculado a la UPB.
César Augusto Ocampo Rodríguez, científico prestigioso, Investigador Senior de Colciencias, con un doctorado en ciencias geoespaciales, y quien fue declarado insubsistente.
Alejandro Olaya, vuelve a ser director encargado.

Publicado enColombia
¿Por qué inquieta Huawei a EE UU y sus aliados?


El gigante chino de las telecomounicaciones lidera la carrera mundial por la implantación de la telefonía 5G, una tecnología con puertas al espionaje


La detención el 1 de diciembre de la ejecutiva china Meng Wanzhou en el aeropuerto de Vancouver ha desatado una tormenta diplomática entre el gigante asiático y Canadá con la guerra comercial y tecnológica entre Washington y Pekín como telón de fondo. La vicepresidenta e hija del fundador de Huawei —el mayor proveedor mundial de telecomunicaciones— obtuvo el pasado 11 de diciembre la libertad condicional. El pasaporte de Meng, de 46 años, ha sido requisado por las autoridades canadienses, a la espera de que se resuelva la solicitud de extradición de EE UU. En represalia, Pekín ha detenido a al menos dos canadienses a los que acusa de ser una amenaza para su seguridad nacional. Estas son las claves del triángulo China-Canadá-EE UU.


Irán como excusa


La fiscalía estadounidense ha solicitado 30 años de cárcel para Meng, a la que acusa de fraude al haber esquivado las sanciones que Washington impone a Teherán. Huawei accedió supuestamente de manera irregular al mercado iraní a través de SkyCom Tech, una empresa con sede en Hong Kong. Al menos otros diez ciudadanos sin nacionalidad iraní han sido acusados de delitos similares. Sin embargo, el gigante chino de las telecomunicaciones lleva en el punto de mira de Washington y de algunos de sus principales aliados desde hace años por motivos que nada tienen que ver con el embargo a Irán.


La empresa fundada en Shenzhen en 1987, que cuenta con casi 200.000 empleados en los cinco continentes, lidera la carrera tecnológica en el desarrollo de la tecnología 5G. “Neveras, cámaras, sensores de todo tipo, vehículos o hasta drones irán todos conectados a la misma red. [También] Los futuros coches autónomos, por ejemplo”, explica Jorge Villagrá, jefe del Autopia Program en el Centro de Automática y Robótica del Consejo Superior de Investigaciones Científicas (CSIC).


Además de las chinas Huawei y ZTE, las otras empresas dominantes que ofrecen toda la infraestructura de red 5G son las europeas Ericsson y Nokia y la japonesa NEC. China cuenta con dos millones de antenas de telefonía móvil, diez veces más que EE UU, según la consultora Deloitte.


La guerra por la información


“Estamos perdiendo (…). Quien domine el mercado del 5G tendrá una tremenda ventaja para comandar las alturas de la información”, rezaba un informe del Consejo de Seguridad Nacional de Estados Unidos filtrado a principios de año. El dossier, que equipara el 5G a la imprenta de Gutenberg, plantea los beneficios para la seguridad nacional que supondría tener una red 5G centralizada y con tecnología exclusivamente estadounidense. El espionaje estadounidense considera que la tecnología de Huawei es un caballo de Troya que Pekín pretende implantar en las telecomunicaciones occidentales. Por eso, Washington ha pedido a sus aliados que descarten la tecnología china en sus nuevas infraestructuras de red móvil, argumentando que toda la información recopilada quedará a expensas de los servicios de inteligencia de Pekín.


Los Cinco Ojos


Los consejos de Washington han tenido mejor acogida entre los miembros del Five Eyes (Cinco Ojos), una organización que se remonta a la colaboración entre estadounidenses y británicos para espiar sobre todo a los soviéticos a partir de los años cuarenta, y a la que se añadieron más tarde Canadá, Australia y Nueva Zelanda.


El veto de Australia a Huawei se remonta a 2012, cuando anunció que la empresa china no podría participar en un proyecto nacional de telecomunicaciones en el que se invirtieron 33.500 millones de euros. El pasado agosto, Camberra excluyó a Huawei y ZTE de la subasta del 5G alegando motivos de seguridad. En el caso neozelandés, fue Spark, empresa privada de telecomunicaciones, la que anunció a finales de noviembre, tres días antes de la detención de Meng, que no podría contratar tecnología de Huawei para sus proyectos de 5G.


Los problemas con Reino Unido comenzaron en julio. Un informe del Centro Nacional de Ciberseguridad alertó de “los nuevos riesgos” que suponía Huawei para la seguridad británica. Tres meses antes, el mismo organismo había avisado de los “efectos negativos a largo plazo” que supondría usar la tecnología de ZTE, otra empresa china de telecomunicaciones.


El 5 de diciembre, horas antes de que Canadá anunciara la detención de Meng, British Telecom anunció que Huawei no participaría en la infraestructura del 5G en Reino Unido, y que además retiraría toda la tecnología de la empresa china que estuviera ya en el núcleo de las redes 3G y 4G. Un par de días antes, Alex Younger, el jefe del MI-6 (el servicio de inteligencia británico) había expuesto públicamente sus recelos al uso de tecnología china en la instalación del 5G en Reino Unido. Algunos expertos calculan que el veto de Londres a Huawei y ZTE retrasará hasta en un año la llegada del 5G al país.


En Canadá, en pleno ojo del huracán, se debate en los medios de comunicación entre los que abogan por vetar a Huawei y los detractores, que alegan que las acusaciones son infundadas y que rechazar su tecnología supondrá un gasto extra y un retraso innecesario. La semana pasada, Huawei emitió un comunicado en el que se mostraba dispuesto a “hacer todo lo necesario” para solucionar las dudas en materia de seguridad que pueda tener Ottawa.


El 10 de diciembre, un día antes de que Meng obtuviera la libertad condicional tras abonar 10 millones de dólares canadienses (6,5 millones de euros), Japón vetó a Huawei y a ZTE de su red 5G. Sin embargo, India, que había anunciado en septiembre a petición de Washington que prohibiría la tecnología 5G de Huawei, dio marcha atrás este viernes.


Francia y Alemania, sin embargo, han reiterado en diversas ocasiones que la empresa china no supone ningún riesgo para su seguridad.


Las puertas de atrás


Uno de los vicepresidentes de la Comisión Europea Andrus Ansip acusó a China, nada más estallar el caso Huawei, de estar exigiendo a sus tecnológicas que instalaran backdoors (puertas traseras) para poder espiar a los usuarios de sus dispositivos.


Un backdoor es una herramienta por la que el programador del software puede acceder al sistema para hacer lo que quiera y cuando quiera. Una opción es entrar para robar datos, pero otra es tirar abajo toda la red con una simple instrucción. Las backdoors pueden estar preprogramadas o colocarse allí para que se activen en futuras actualizaciones.


Huawei confirmó hace días que dedicará 2.000 millones de dólares en los próximos cinco años para mejorar su seguridad y solucionar los asuntos técnicos sobre los que habían hecho hincapié los servicios de inteligencia británicos.


Apple, Facebook y Google


Algunos expertos consideran que detrás del cerco a Huawei también subyacen intereses meramente económicos. Las empresas chinas están ganando una cuota de mercado en el sector de las telecomunicaciones —tradicionalmente de dominio estadounidense— que resultaba inimaginable en los años noventa. Huawei desbancó este año a Apple como el segundo vendedor de smartphones (teléfonos inteligentes) del mundo, solo por detrás de la surcoreana Samsung. “Ya podemos expulsar nosotros a Apple”, escribió en una red social Fang Xingdong, fundador de Chinalabs, un think tank de ciberseguridad.
“No debería preocuparnos más Huawei solo por el hecho de que sea china. Con casos como el de [Edward] Snowden o Cambridge Analytica hemos visto que las garantías procesales de EE UU se pueden vulnerar fácilmente”, asegura Narseo Vallina-Rodríguez, profesor adjunto de investigación en el Instituto IMDEA Networks. “Nadie sabe más de sus usuarios que Facebook o Google”, añade

Un conjunto de técnicas de secuenciación genética es el avance más importante de 2018 para ‘Science’

Un conjunto de nuevas tecnologías permite sumergirse en el cuerpo de seres vivos y explorar todos sus órganos célula a célula. Es una visión de la vida que hasta hace unos pocos años era imposible. Este conjunto de técnicas, conocidas como secuenciación de ARN de células individuales, es el descubrimiento del año, según publicó ayer la prestigiosa revista Science.

Estas técnicas, cuyo uso se ha universalizado desde 2013, permiten saber qué genes están activos en una célula, conocer su función, ponerle una etiqueta para seguirla a lo largo de su vida y ver cómo interactúa con otras células en un plano tridimensional. Así se puede observar cómo un embrión de unas pocas células da lugar a los diferentes órganos hasta generar un individuo sano o desvelar los procesos moleculares que originan el cáncer y otras enfermedades.


Hace unos cinco años estas técnicas permitían secuenciar como mucho cientos de células a la vez; ahora ya se pueden analizar varios cientos de miles. Esto permite caracterizar órganos completos e incluso organismos enteros. Una de las aplicaciones de esta tecnología es encontrar nuevos tipos de células en el cuerpo humano. Este año se ha descubierto una nueva clase de células presentes en la zona de contacto entre útero y placenta que realizan una labor de mediación con el sistema inmune de la madre para que este reconozca al feto y no lo ataque durante los primeros meses de gestación. Lo mismo ha sucedido en el cerebro o el sistema respiratorio.


“Si antes pensábamos que había unos 3.000 tipos diferentes de células en el cuerpo humano, ahora creemos que hay 10 veces más”, explica Holger Heyn, investigador del Centro Nacional de Análisis Genómico, en Barcelona, y uno de los coordinadores del proyecto Atlas Celular Humano. Esta iniciativa, que surgió en 2016 y que involucra a más de 1.000 equipos científicos de 58 países, aportará el primer mapa celular de 10 órganos humanos en 2022. “Estas técnicas nos van a dar un Google Maps del cuerpo humano completo en el que podremos hacer zoom en cada órgano y explorarlo célula a célula. Primero tendremos una referencia de un cuerpo sano y después se irán añadiendo perfiles específicos de enfermedades", explica.


El equipo de Heyn se centra en el atlas de linfocitos b del sistema inmune. “Estas células tienen un papel clave en la leucemia linfocítica crónica y, gracias a esta técnica, podemos saber qué falla en estas células. Por ejemplo, analizaremos sangre de pacientes que no responden a los tratamientos y la de otros que no vuelven a tener recaídas después de recibir los fármacos. De esta forma quizás seamos capaces de predecir cuál es el pronóstico de un determinado paciente y adaptar los tratamientos, por ejemplo darle uno muy agresivo o no hacerlo”, explica.


A partir de la elaboración del primer atlas celular humano, el proyecto europeo LifeTime pretende analizar el origen y progresión del cáncer y de otras enfermedades a nivel celular. Esta iniciativa también compite para conseguir una financiación de 1.000 millones de euros de la Comisión Europea. Este tipo de técnicas se usan en modelos animales y tejidos humanos, pero no pueden aplicarse por ahora en personas vivas. En cualquier caso, los expertos resaltan que esto no tiene por qué ser una limitación para posibles usos médicos. El equipo de Nikolaus Rajewsky, uno de los coordinadores del proyecto europeo, desarrolla miniórganos humanos creados a partir de células reprogramadas de pacientes a los que se puede aplicar la secuenciación de células individuales y ver cómo cambian con diferentes fármacos. “Esta técnica va a ser determinante durante la próxima década, no solo en ciencia básica sino también en aplicaciones clínicas”, opina Rajewsky, que es investigador del Centro de Medicina Molecular Max Delbrück, en Alemania.


En 1970 un estudiante de doctorado llamado Jaume Baguñà descubrió una nueva especie de gusano en un estanque de Montjuic (Barcelona). Si se cortaba en diez pedazos, cada uno de ellos se convertía en un nuevo gusano, algo muy parecido a la inmortalidad. Desde entonces el Schmidtea mediterranea se ha convertido en uno de los seres vivos más interesantes para estudiar los genes relacionados con la capacidad de regenerar tejidos. Este año, el equipo de Rajewsky publicó un atlas celular completo de uno de estos gusanos. El trabajo conectaba cada tipo de célula adulta con la célula madre que lo había generado. “Este tipo de estudios pueden ser útiles para entender mejor la capacidad regenerativa de los seres humanos y conocer qué genes están involucrados en cada paso”, explica el investigador.


El mismo tipo de tecnología se aplicó para analizar miles de células del sistema respiratorio de ratones y humanos, lo que permitió descubrir un nuevo tipo de células, los ionocitos pulmonares. “Estas células suponen el 0,001% del sistema respiratorio, pero vemos que expresan un gen fundamental para la fibrosis quística y sin este tipo de tecnología ni siquiera hubiéramos sabido que existían”, explica Avi Regev, investigadora de la Universidad de Harvard y coordinadora del proyecto Atlas Celular Humano.

Revelan cómo Facebook ha estado compartiendo datos de sus usuarios de forma masiva y sin consentimiento durante años

Una investigación de The New York Times muestra que la compañía de Zuckerberg estuvo dando acceso a más de 150 grandes compañías —no sólo tecnológicas— a datos de sus usuarios, algunos tan intrusivos como el contenido de sus mensajes privados, saltándose así de forma opaca sus propias normas de privacidad.

 

Nuevo misil en la línea de flotación de la red social más popular del mundo. En este caso, una exhaustiva investigación del diario The New York Times desvela cómo durante años Facebook estuvo dando acceso a más de 150 grandes compañías —no sólo tecnológicas— a datos de sus usuarios, algunos tan intrusivos como el contenido de sus mensajes privados, saltándose así de forma opaca sus propias normas de privacidad.
La investigación del citado diario, que abarca cientos de documentos internos de la red social sobre el seguimiento de alianzas con otras compañías y decenas de entrevistas a ex trabajadores de la empresa, pone al descubierto cómo los datos de los usuarios son intercambiados, hasta el punto de que Facebook permitió que el motor de búsqueda Bing de Microsoft viera los nombres de prácticamente todos los amigos de los usuarios de Facebook sin su consentimiento, y le dio a Netflix, Spotify y al Royal Bank of Canada la capacidad de leer los mensajes privados de los usuarios de Facebook.


Pocos gigantes de internet se salvan de este indiscriminado cotilleo: Amazon ha podido obtener los nombres de usuarios y la información de contacto a través de los perfiles de los amigos, y Yahoo tuvo acceso a las publicaciones de usuarios y amigos de éstos hasta este mismo verano.


Todo ello queda al descubierto tras una cadena interminable de escándalos sobre privacidad y protección de los usuarios que ha idos sacudiendo la compañía a partir, sobre todo, del escándalo de Cambridge Analityca, cuando se descubrió que los datos personales estaban siendo utilizados con un fin diferente al que los usuarios habían dado su consentimiento, en ese caso para crear herramientas de segmentación de audiencias que ayudaron a la campaña presidencial de Donald Trump en 2016.


Ahora, y a pesar de las promesas del propio Mark Zuckerberg, quien en abril de este año prometió ante el Congreso de EEUU que los usuarios tienen "tienen control total" sobre todo lo que comparten en Facebook —aunque eso, de momento, no es cierto—, recuerda The New York Times, que también apunta que el propio Zuckerberg aseguró entonces que no vendían datos.


Si bien es cierto que Facebook no ha vendido datos de usuarios, apunta dicho diario, durante años ha llegado a acuerdos para compartir la información con docenas de empresas de Silicon Valley, a quienes se ofrecía un acceso mucho más intrusivo a dichos datos de lo que Facebook reconoce. A cambio, la red social se beneficiaba al atraer nuevos usuarios, engordar su número de cuentas activas y, así, aumentar los ingresos por publicidad.


Y estos acuerdos con las compañías —que no sólo incluyen a los gigantes de Silicon Valley son a fabricantes de automóviles y medios— seguían en vigor en 2017 (algunos incluso hasta este año), al menos desde principios de esta década.


Facebook se explica


El director de privacidad de Facebook, Steve Satterfield, dijo al rotativo neoyorquino que ninguno de estos acuerdos violó los acuerdos de privacidad o los compromisos con los reguladores federales.
Por su parte, el director de desarrollo de plataformas y programas de la empresa, Konstantinos Papamiltiadis, confirma en un largo post oficial estas prácticas como una forma de ayudar a los usuarios, por un lado, a acceder a sus cuentas de Facebook o funciones específicas de Facebook en dispositivos y plataformas creadas por otras compañías como Apple, Amazon, Blackberry y Yahoo. A estas compañías las llama "socios de integración".


"En segundo lugar", añade, facilita que "las personas tengan más experiencias sociales, como ver las recomendaciones de sus amigos de Facebook, en otras aplicaciones y sitios web populares, como Netflix, The New York Times, Pandora y Spotify".


"Ninguna de estas asociaciones o características dio a las compañías acceso a la información sin el permiso de los usuarios, ni tampoco violaron nuestro acuerdo con la FTC [el regulador estadounidense] de 2012", asevera. Para él, el permiso del usuario se obtiene porque éste "tiene que iniciar sesión con su cuenta de Facebook para utilizar la integración ofrecida por Apple, Amazon u otro socio de integración".


Eso sí, el propio Papamiltiadis confiesa que algunos socios obtuvieron acceso al contenido de mensajes privados de los usuarios de Facebook. "Pero los usuarios tenían que iniciar sesión explícitamente en Facebook primero para usar la función de mensajería de un socio, como Spotify", alega, y añade: "Después de iniciar sesión en su cuenta de Facebook en la aplicación de escritorio de Spotify, puede enviar y recibir mensajes sin tener que abandonar la aplicación". "Nuestra API proporcionó a los socios acceso a los mensajes de la persona para potenciar este tipo de función", concluye.


Los correos desvelados por el Reino Unido


Esta investigación es un nuevo "enano" en una interminable lista de prácticas dudosas y opacas de la red social, que poco a poco van saliendo a la luz. Hace dos semanas, el propio Zuckerberg se vio obligado a reaccionar a la publicación de sus propio correos electrónicos de 2012, obtenidos por una comisión del Gobierno británico que investiga a Facebook.


En ellos, aunque quedaban reflejadas sus dudas, se ve cómo finalmente dio luz verde en 2012 a entregar a desarrolladores externos acceso a datos de usuarios, según informa Reuters.


Fue esta decisión la que hizo posible, por ejemplo, que una aplicación recopilara información sobre aproximadamente 87 millones de usuarios de Facebook el año siguiente y luego la compartiera con la ya desaparecida firma británica de consultoría política Cambridge Analytica.


Zuckerberg lamentó su decisión y dijo que, de haber frenado esta práctica el año anterior, la empresa podría haber evitado un escándalo de privacidad que ha manchado su reputación. Pero lo cierto es que Facebook había salido a bolsa poco antes y contaba con el crecimiento que le daban aplicaciones de terceros, entre ellas los juegos. Había que crecer.

Publicado enSociedad
Miércoles, 19 Diciembre 2018 07:34

Una bacteria arqueológica

Una bacteria arqueológica

La hipótesis de Rascovan propone que Yersinia pestis es la responsable de la primera pandemia que azotó a la humanidad y causó el declive del Neolítico. Se utilizó material genético de granjeros suecos que habitaron la Tierra hace 5 mil años.

 

Hace aproximadamente 5 mil años buena parte de las poblaciones del Neolítico comenzaron su declive. Como todo acontecimiento social, los factores que protagonizaron el evento son múltiples y aún despiertan ásperas y acaloradas discusiones. Un trabajo publicado por Nicolás Rascovan en la revista Cell reconstruye el genoma completo de la bacteria Yersinia pestis, a partir de su hallazgo en granjeros suecos que habitaron Eurasia en aquel entonces y su comparación con una cepa actual. Gracias a las bondades de los estudios genómicos y a los aportes de biólogos computacionales y arqueólogos, logró diseñar una hipótesis que podría saldar los debates de la comunidad científica al respecto: la peste causada por este patógeno podría haber significado la primera pandemia de la humanidad. Bajo esta premisa, Rascovan –doctor en Biología (UBA), posdoctor (Universidad de Aix-Marseille, Francia) y especialista en metagenómica de patógenos y virus humanos– traza la ruta de Y.pestis, también popular por ser la responsable de la peste bubónica que se propagó por Europa, Asía y Africa durante el siglo XIV y terminó con la vida de 50 millones de personas.

 

–Comencemos por el principio, ¿de qué hablamos cuando hablamos de Yersinia pestis?
–Es una bacteria, del grupo de las enterobacterias, es decir, de aquellas que se encuentran frecuentemente en la microbiota del intestino. Divergió hace 50 mil años de otra llamada Yersiniapseudotuberculosis, que se puede hallar frecuentemente en el intestino de manera asintomática (sobre todo de animales) y muy raramente puede generar patologías. Lo que resulta interesante es que la adquisición de ciertos genes y algunas mutaciones específicas la convirtieron en uno de los patógenos más mortales de la historia de la humanidad. Algunas cepas de Y.pestis afectan a los pulmones y producen la peste neumónica, mientras que otras como la peste bubónica (más conocida como “peste negra”) son más virulentas e infectan a todo el organismo.


–¿Cómo descubrieron el caso más antiguo de la plaga fechada 5 mil años atrás?
–Durante la última década, con la explosión de las tecnologías de secuenciación de ADN de alto rendimiento, fue posible comenzar a observar cómo se multiplicaban las investigaciones que recuperaban el material genético de los dientes. Como estas piezas cuentan con la facultad de preservar la información después de la muerte, pensamos que sería posible advertir si la persona estaba infectada al momento de fallecer. Bajo esta premisa, se me ocurrió explorar las bases de datos disponibles en internet y analizar aquellos artículos científicos que habían empleado procesos de secuenciación y habían detectado la presencia de patógenos en ADN antiguo.


–¿Cuántos individuos examinaron?
–Examinamos, aproximadamente, una centena y tuvimos el cuidado de que pertenecieran a diferentes lugares y tiempos históricos. Tras un arduo trabajo logramos recomponer el genoma completo de Yersinia pestis en seres humanos que habitaron la Suecia actual, pero 5 mil años atrás. Lo llamativo fue que este hallazgo y el contexto descrito no coincidían con ningún modelo previo sobre la historia de la peste. Luego, mediante el empleo de herramientas bioinformáticas, fue posible identificar todas las variantes genómicas de la cepa antigua respecto a la moderna –aislada en EE.UU. hace unos años– y así reconstruir cómo era su genoma. Las características del patógeno son tan particulares que fue muy fácil saber que no se trataba de una contaminación con bacterias del ambiente, o bien, de una infección postmortem.


–¿Y cómo eran esos individuos? ¿Es posible conocer qué características tenían?
–No soy un experto en arqueología pero lo que pude aprender de los especialistas con los que hicimos el trabajo (Kristiansen y Sjögren) es que la estatura media de la mujer hallada, por ejemplo, era de aproximadamente 1,55 a 1,60 metro. Pertenecía a una población pequeña, casi familiar y dispersa. Además, junto a otros sujetos, cultivaban algunos cereales, tenían ganado (cerdos, cabras, ovejas, vacas) y consumían leche. Su entorno estaba compuesto de bosques con pequeños claros alrededor de sus asentamientos. Construían tumbas megalíticas y realizaban rituales –probablemente religiosos– a los cuales podían asistir sujetos de otras regiones alejadas.


–Cuesta imaginar las prácticas que desarrollaban grupos sociales tan lejanos en el tiempo. En su trabajo propone que estamos en presencia de la primera pandemia de la historia.
–La hipótesis se deriva de muchas observaciones. Para empezar, encontramos al patógeno en un período relativamente corto de tiempo y en regiones muy lejanas una de la otra, a lo largo de Eurasia (desde el este de la estepa rusa, hasta Suecia) y en una cantidad considerable de individuos. Además, los análisis comparativos de genomas muestran que muchos linajes independientes de la bacteria divergieron en un lapso pequeño entre los 5700 y los 5100 años antes del presente, lo cual indica que fue una dispersión muy rápida y en muchas direcciones. También, para nuestra sorpresa, todo esto coincide con dos factores bien conocidos por los arqueólogos. Por un lado, el desarrollo de los primeros asentamientos humanos de gran tamaño en la historia de Europa, los cuales podían albergar entre 10 y 20 mil personas, donde se acumulaba y pudría comida y se establecían contactos muy cercanos con todo tipo de animales. Esta situación, probablemente, pudo haber favorecido condiciones sanitarias malas –porque aún no se sabía cómo gestionar este tamaño poblacional– y configurado la escena perfecta para la emergencia de patógenos.


–¿Y el otro factor?
–Durante ese período se popularizó el uso de la rueda y la tracción a sangre en toda Eurasia, asunto que alentó interacciones menores entre las poblaciones –como el establecimiento de redes de comercio– y facilitó los medios necesarios para dispersar el patógeno en grandes distancias. Por primera vez en la historia se producen simultáneamente las condiciones necesarias para la emergencia y la dispersión de estos agentes a gran escala. Por ello, todas estas circunstancias nos indican que muy probablemente estamos en presencia de la primera gran pandemia de la humanidad.


–Sin embargo, para hablar de pandemia es necesario pensar en una enfermedad epidémica capaz de afectar a muchas personas de diversas latitudes. ¿Se sabe a cuántos humanos infectó en aquel entonces?
–Ese aspecto es muy difícil de estimar por diversas razones. Para comenzar, el estado de conservación de los diferentes sitios arqueológicos es muy dispar. Por ejemplo, nosotros proponemos que la peste surgió en los primeros grandes asentamientos humanos de Europa –conocidos como el complejo de Trypillia–, pero como los mismos fueron incendiados en muchas ocasiones, casi no hay restos humanos conservados de estos sitios. Al mismo tiempo, solo podemos recabar información de individuos que murieron por el patógeno, pero no de otros que quizás se infectaron pero lograron curarse. No sabemos si la enfermedad en ese entonces era igual de mortal que lo que ocurrió con la peste negra. Seguramente nuestro trabajo inspirará nuevos proyectos donde se buscarán evidencias de la presencia de Y.pestis en individuos de otros sitios de la época, pero puedo aventurar que será complejo saber exactamente la magnitud que tuvo en cuanto a número de infectados.


–Plantea que la peste podría haber causado la caída de las poblaciones del Neolítico en Europa...
–Aunque en el presente no podemos asegurarlo, pensamos que pudo haber contribuido. La cultura sueca donde encontramos los restos desapareció justo después de estas infecciones y fue reemplazada por poblaciones invasoras provenientes de la estepa rusa que modificaron completamente el acervo genético de las poblaciones europeas para siempre. Fue este gran mestizaje entre los grupos sociales de ambas regiones las que, por caso, dio lugar al surgimiento de los lenguajes indoeuropeos. Sabemos que justo antes de que esto suceda diferentes linajes de peste estaban presentes tanto en Europa como en Eurasia. Entonces sería interesante saber si la peste pudo haber jugado algún rol en la caída de las poblaciones europeas del Neolítico y haber dejado el terreno “liberado” para la invasión masiva desde la estepa. De ser confirmado un rol de la peste en todo esto, las implicancias son muy grandes porque exhibiría, una vez más, cómo una simple bacteria cambió el rumbo de la historia de manera dramática.


–Por último, ¿qué diferencias existen entre la bacteria que infectaba humanos hace 5 mil años y la que lo hace en 2018?
–Aunque se trata de la misma especie y realmente no presenta muchos cambios a nivel del genoma, al mismo tiempo, algunas de estas modificaciones tuvieron un efecto considerable respecto de su patogenicidad. Por ejemplo, después de la Edad de Bronce (3000-1200 a.C.) la bacteria adquirió un gen que le permitió ser transmitida por pulgas, lo cual incrementó enormemente su capacidad de dispersión. También sufrió mutaciones que la hicieron más virulenta y mortal. La razón por la que hoy no es tan peligrosa como antes es que, actualmente, se puede tratar con antibióticos. De todas maneras continúa siendo un problema en zonas donde no hay acceso a medicamentos y las condiciones sanitarias son desfavorables.


Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Domingo, 02 Diciembre 2018 10:04

Cinco leyendas urbanas sobre la química

Cinco leyendas urbanas sobre la química

La globalización del chismorreo La municipalización de Europa, un proyecto en crecimiento El Gobierno de Colombia y la CIA engendraron a los narcoparamilitares que ahora inundan España de cocaína La municipalización de Europa, un proyecto en crecimiento La desigualdad de género produce una mayor mortalidad infantil.

Cuando me presento como química, suelo ver miedo e incomprensión en los ojos de la gente. A menudo se cree que los químicos son científicos locos, como la Dra. Maru en Wonder Woman, que practican magia negra y provocan explosiones. La mayoría de estas suposiciones están basadas en el desconocimiento de esta ciencia.

Por ello, me gustaría tratar las cinco ideas equivocadas más extendidas sobre la química y, con un poco de suerte, explicar qué aporta a nuestro día a día.

El término ‘química’ puede considerarse un sinónimo de materia, ya que una sustancia química es cualquier cosa que tenga masa. Por ejemplo, sustancias cotidianas como el agua, la cafeína y el azúcar. Los elementos de la tabla periódica también son sustancias químicas, al igual que sucede con las moléculas pequeñas, como la cafeína, y las grandes moléculas, como el ácido desoxirribonucleico (ADN) y esas cadenas casi infinitas llamadas polímeros, como los plásticos.

Ilustración de algunas de las sustancias químicas más frecuentes: 1,3,7-trimetilxantina (cafeína), ácido desoxirribonucleico (ADN) y poliestireno (poliestireno extruido) Alexandra Gellé, Author provided.

 


Primer malentendido: Los productos sin sustancias químicas son más seguros

 

Los elementos químicos son los ladrillos que construyen el mundo que nos rodea. Ya sea porque hayan surgido de forma natural o porque hayan sido creados por el hombre, están por todas partes. No existen productos carentes de sustancias químicas, ya que cualquier cosa que toquemos es materia y, por lo tanto, una sustancia química. Los que anuncian productos “libres de químicos” en realidad quieren decir que dichos productos no contienen sustancias químicas peligrosas. Pese a ello, las empresas sacan provecho del miedo que las personas sienten hacia la química en sus anuncios, lo que hace incrementar el recelo de los consumidores.

Alexandra Gellé@AlexGelle

 

Fachada de la tienda The Nue Co. en Nueva York

 

Segundo malentendido: Si no puedes pronunciarlo, es perjudicial

 

Los nombres de las sustancias químicas suelen ser terroríficos y suscitan inseguridad. Sin embargo, sus nombres no tienen relación alguna con el peligro que suponen ni con su origen. ¿Alguna vez ha consumido ácido acetilsalicílico o hidrogenocarbonato sódico? Si alguna vez se ha tomado una aspirina o ha comido algo que tuviera bicarbonato, la respuesta es sí.

 

A veces se utilizan nombres comunes para designar sustancias químicas. El monóxido de dihidrógeno (H₂O) se abrevia en “agua” y la 1,3,7-trimetilxantina suena complicada, pero se conoce de forma coloquial como “cafeína”. Los químicos a veces muestran un agudo sentido del humor al nombrar ciertos elementos y moléculas…

 


Californio (Cf), Quebecol (molécula presente en el sirope de arce), SEX (siglas en inglés para etil xantato de sodio y que también significa ‘sexo’) Alexandra Gellé.

 


Tercer malentendido: Productos orgánicos mejor que sintéticos

 

¿Sabía que los químicos pueden fabricar sintéticamente productos naturales en sus laboratorios? ¿Sabía que la gasolina, desde un punto de vista meramente químico, es una sustancia orgánica?

En 1789, el químico francés Antoine Laurent Lavoisier escribió en Traité élémentaire de chimie:

“Nada se crea ni se destruye, solo se transforma”.

Para inventar nuevas sustancias químicas, los químicos tienen que trasformar las que ya existen. Siempre utilizan materiales de origen natural como punto de partida para crear nuevas moléculas. Las sustancias químicas fabricadas en los laboratorios tienen su origen en la naturaleza (petróleo, madera, etc.) y con frecuencia son orgánicos, ya que contienen sobre todo átomos de hidrógeno, carbono y oxígeno.

El peligro es intrínseco a toda sustancia química, pero es la dosis lo que las hace venenosas. Es decir, no debemos temer la pequeña cantidad de cianuro que las manzanas presentan de forma natural y una barbacoa chamuscada no va a hacer que desarrollemos un cáncer. Sin embargo, beber unos seis litros de agua o 175 tazas de expreso puede ser letal.

Los productos sintéticos creados en laboratorios no son necesariamente más o menos peligrosos que otras sustancias químicas presentes en la naturaleza. Ya sea una molécula artificial innovadora o un producto natural creado por el hombre, el peligro depende de su estructura y no de su origen. También hay muchos venenos naturales secretados por plantas y animales. Sin embargo, los químicos dedican la mayor parte del tiempo a diseñar nuevas moléculas de las que la sociedad y el medio ambiente pueden beneficiarse, ya sean nuevas moléculas para medicamentos o nuevas baterías para automóviles eléctricos.


Cuarto malentendido: Las nanopartículas son inofensivas

 

Las nanopartículas son pequeños grupos de átomos de entre 1 y 100 nm (el equivalente a 1/10.000 la anchura de un pelo humano), que se encuentran en muchos productos de uso cotidiano. Son tan pequeñas que resultan invisibles al ojo humano, pero no para los ecosistemas. De hecho, ya se sabe que las nanopartículas son tóxicas para la vida acuática.

Dado que no podemos advertir su presencia en el medioambiente, a menudo no nos damos cuenta de la gran cantidad de nanopartículas que tenemos a nuestro alrededor y descuidamos el impacto que generan.

Las nanopartículas, ya sean plásticas o metálicas, están presentes en muchos productos del cuidado personal como pastas dentífricas, exfoliantes para la piel y cremas solares. Se utilizan principalmente para la protección solar, como agentes antimicrobianos, aditivos y colorantes.

Desafortunadamente, las plantas de tratamiento de aguas no pueden filtrarlas por lo que acaban en arroyos, lagos y océanos. En consecuencia, se convierten en el alimento de la vida marina para, finalmente, alcanzar la cadena trófica y formar parte de nuestra cena.

La industria química ha comenzado a reducir el número de productos que contienen nanopartículas, pero muchas pinturas y protectores solares aún son fuentes potenciales de contaminación. Pese a ello, las nanopartículas parecen ser prometedoras para la medicina y el tratamiento del cáncer, por ejemplo.

 

Usos habituales de la nanotecnología. Infografía: Andy Brunning, CC BY-NC-ND

 


Quinto malentendido: Los químicos son malvados

 

Los químicos son responsables ante la sociedad en lo que se refiere al desarrollo de productos nocivos para el medioambiente y la salud humana. Han realizado grandes progresos en el desarrollo de productos más limpios y ecológicos. A pesar de ello, la industria y los consumidores han tardado en adoptar este tipo de alternativas, a no ser que fuesen más baratas y, al menos, igual de eficientes.

Algunos días, los químicos desearíamos ser magos, capaces de crear soluciones de la nada. Sin embargo, continuaremos avanzando gracias a la investigación, creando nuevos productos e incentivando alternativas ecológicas que reemplacen las viejas costumbres. La química es una herramienta poderosa e innovadora, pero debemos usarla de manera inteligente.

Para los químicos, el vaso siempre está lleno. Una parte está llena de líquido y la otra de aire: nitrógeno (N₂), oxígeno (0₂), argón (Ar), dióxido de carbono (CO₂), etc. Gracias a la química se logran increíbles descubrimientos que mejoran nuestra calidad de vida… y aún queda mucho por descubrir.

 

Este artículo fue publicado originalmente en The Conversation

Página 1 de 56