MÚSICA DESDE OTRAS COORDENADAS

Para 2024, la minería bitcoin será el duodécimo 'país' por consumo de energía

Un reciente estudio de la Academia de Ciencias de China y la Universidad de Tsinghua, publicado en la revista Nature Communications, ha revelado que la minería de bitcoins consume demasiada energía, tanta, que en los próximos tres años los cálculos prevén que supere la energía que consumen países enteros. Los pronósticos de los investigadores no son optimistas y, para 2024, creen se el consumo de energía superará en más del doble el actual, alcanzando los 297.000 GWh al año. España, por ejemplo, tiene una demanda anual de unos 250.000 GWh.

Según explica la propia Bitcoin, la minería de esta criptomoneda es el proceso de invertir capacidad computacional para procesar transacciones, garantizar la seguridad de la red y conseguir que todos los participantes estén sincronizados. Viene a ser un centro de procesamiento de datos descentralizado, ofreciendo recompensas a los ‘mineros’, lo que también ha propiciado que se pervierta el sistema, multiplicándose exponencialmente el número de equipos dedicados exclusivamente a la minería de bitcoins. No sólo eso, sino que incluso mucho código malicioso que infecta a ordenadores los convierte en redes de zombies que realizan minería para el ciberdelincuente sin que la víctima se percate de ello.

Con estos niveles de consumo, la minería de bitcoins se situará en el puesto 12 del ranking mundial de países por demanda energética. Ya un reciente estudio de la Universidad de Cambridge estimaba que actualmente esta red de criptomoneda consume más 121.000 GWh al año, estando entre los 30 principales consumidores de electricidad en todo el mundo si fuera un país.

Debido a ello y considerando la amenaza que supone para el medio ambiente, el estudio plantea la necesidad de incrementar los controles regulatorios. No en vano, la simulaciones realizadas durante la investigación estima que las operaciones de minería asociada a la criptomoneda van a rebasar los 130 millones de toneladas de emisiones de carbono, lo que supera a las emitidas por países como Qatar o República Checa. La preocupación por esta problemática no es nueva: hace más de una década que el ya fallecido Hal Finney, uno de los pioneros de la criptografía y las criptomonedas, expresaba en Twitter su inquietud al respecto:

La situación se ha agravado especialmente en el país de origen del estudio, China, donde dedicarse a la minería de bitcoins se ha convertido en una actividad empresarial muy rentable, toda vez que tanto el equipamiento informático como el consumo de electricidad es barato. De hecho, se estima que cerca del 70% de los mineros de bitcoins se encuentran en China, donde más de dos tercios de la energía provienen del carbón.

Las consecuencias no han tardado en hacerse notar y, tal y como expone el estudio, si fuera una urbe y ateniendo a su consumo energético, la minería de bitcoin se encontraría entre las 10 principales de las 182 ciudades de China a nivel de prefectura, así como entre los 42 principales sectores industriales de China.

Traducido en emisiones de carbono, la minería ya supone el 5,4% de las emisiones por electricidad en China. Con estos datos, los investigadores consideran que el objetivo de reducir el 60% de las emisiones de carbono por PIB para 2030, como se aprobó en el Acuerdo de París, se antoja complicado, más aun considerando que algunos mineros recurren a generadores de electricidad basados en combustibles fósiles.

La  solución planteada por el trabajo de la Academia de Ciencias de China y la Universidad de Tsinghua no pasa tanto por imponer mayores precios o impuestos al carbono, porque entienden que eso sólo trasladaría a los mineros donde sea más barato, como por derivar la minería a regiones en las que su demanda de electricidad sea satisfecha con fuentes de energía renovables –actualmente se concentran en las regiones con plantas de carbón-. De este modo, aunque el consumo de energía no se reduciría, sí lo harían al menos las emisiones de carbono.

Por David Bollero

9 abril, 2021

Publicado enMedio Ambiente
La nueva era de la computación cuántica: la carrera tecnológica de EU y China

Google anunció su "supremacía cuántica" con un invento revolucionario: una computadora cuántica que puede realizar cálculos en 200 segundos, que a una “supercomputadora ( sic)” clásica, como la Summit del Laboratorio Nacional Oak Ridge, tomaría 10 mil años (https://bit.ly/2WE7nQA)”.

La computación cuántica se basa en la mecánica cuántica, que explica el extraño (sic) comportamiento de las extremadamente pequeñas partículas de la materia (https://nyti.ms/2JNzebM).

John Preskill propuso hace siete años el concepto de "supremacía cuántica": el punto en el que las computadoras cuánticas pueden realizar cosas que las computadoras clásicas no podrían.

Bloomberg apeló a un "optimismo precavido": se trata de un "inmenso logro bajo cualquier medición" cuando una “rudimentaria máquina cuántica mejoró la más veloz supercomputadora por un factor de 1,080 (https://bloom.bg/2WEB9Vn)”.

Las computadoras cuánticas (https://bit.ly/2Ndg94V) "desafían la intuición humana", según Bloomberg, que alerta sobre "algunos riesgos": 1. "La carrera global para dominar la computación cuántica se está calentando con consecuencias impredecibles"; y 2. "Las avanzadas computadoras cuánticas un día podrán amenazar la llave pública de la criptografía que protege la información en el mundo digital. Tales sistemas están basados en problemas matemáticos duros que las computadoras cuánticas podrían teóricamente ser capaces de agrietar con facilidad", por lo que los investigadores en seguridad trabajan para crear “sistemas y parámetros post-quantum (https://bit.ly/34v1hoC)”.

La revista científica Nature sintetiza en su "abstracto" que “la promesa de las computadoras cuánticas radica en que ciertas (sic) tareas computacionales podrían ser ejecutadas exponencial y más velozmente en un procesador cuántico que en un procesador clásico (https://go.nature.com/2r9Gngg)”.

Se refiere al procesador Sycamore de Google y su "dramático (sic) incremento en velocidad en comparación a todos (sic) los conoci-dos algoritmos clásicos" como "una realización experimental de la supremacía cuántica" que "anuncia un paradigma computacional".

Para un público más general, David Yaffe-Bellany (DY-B) explica en The New York Times la hazaña científica de Google en su laboratorio de investigación en Santa Bárbara (California) que desde la década de los 80 buscaba el Santo Grial de la velocidad del cálculo computacional: la “supremacía cuántica (https://nyti.ms/2JIFykL)”.

De inmediato, los celosos investigadores de IBM anunciaron que la “simulación ideal de la misma tarea puede ser realizada en un sistema clásico en 2.5 días con una fidelidad mucho mayor (https://ibm.co/2ptK3Jo)”.

Las implicaciones para la "seguridad nacional (sic) y la criptografía" son inconmensurables.

China –con su adopción también revolucionaria de la tecnología blockchain (https://bit.ly/2NcO4e7) entró de lleno a la competencia tecnológica con EU en varios rubros: desde la 5G pasando por la tecnología cuántica hasta la Inteligencia Artificial (IA).

A juicio de DY-B, "como todos los saltos en tecnología, las máquinas cuánticas son de doble filo: algún día podrán fortalecer los avances en IA; pero también pueden apabullar (sic) la encriptación que protege a las computadoras y que es vital a la Seguridad Nacional o aún a los sitios de comercio digital".

De allí que, aduce DY-B, "los gobiernos de EU y China consideran la computación cuántica como una prioridad nacional" cuando "China invierte 400 millones de dólares en un laboratorio cuántico nacional".

Hoy China encabeza el liderazgo de la “carrera para proteger los datos de la encriptación cuántica (https://nyti.ms/2JNNrFL)”.

China posee el doble de patentes de "tecnología cuántica" que EU, pero tres veces menos de “computadoras cuánticas (https://wapo.st/2NCMgtR)”.

Hoy lo que China y EU definen como "Seguridad Nacional" –desde los hidrocarburos, pasando por los alimentos, hasta la sofisticada tecnología– ha cesado de serlo para el aldeanismo de los países avasallados e intoxicados por la propaganda, hoy caduca, del globalismo neoliberal.

www.alfredojalife.com

Facebook: AlfredoJalife

Vk: id254048037

Los científicos logran teletransportar una puerta cuántica

Los investigadores han demostrado uno de los pasos clave en la construcción de la arquitectura para computadoras cuánticas modulares: la teletransportación de una compuerta cuántica entre dos cúbits (unidad mínima de información cuántica), según demanda.

La teletransportación cuántica es el principio clave de este nuevo trabajo, una característica única de la mecánica cuántica que se utilizó antes para transmitir estados cuánticos desconocidos entre dos partes sin enviar físicamente al estado mismo.

Los investigadores de Yale usaron un protocolo teórico desarrollado en la década de 1990 para demostrar experimentalmente una operación cuántica, o 'puerta', sin depender de ninguna interacción directa.
El equipo de investigación del Yale Quantum Institute de Yale dirigido por el investigador principal Robert Schoelkopf y el exestudiante de posgrado Kevin Chou está investigando un enfoque modular para la computación cuántica.


La modularidad ha demostrado ser una estrategia poderosa para construir sistemas complejos, dicen los investigadores. Una arquitectura modular cuántica consiste en una colección de módulos que funcionan como pequeños procesadores cuánticos conectados a una red más grande.


Los investigadores de Yale están a la vanguardia y han realizado un trabajo pionero en informática cuántica con circuitos superconductores.


Los cálculos cuánticos se realizan a través de bits delicados de datos llamados cúbits, que son propensos a errores, para corregirlo, los cúbits lógicos son monitoreados por cúbits auxiliares que detectan y corrigen los errores de forma inmediata.


"Nuestro experimento es también la primera demostración de una operación de dos cúbits entre cúbits lógicos", dijo Schoelkopf.

Supercomputadora se dirige a la EEI para experimento de un año

Ejecutará un sistema informático de alto rendimiento en esos 12 meses, tiempo que le llevaría llegar a Marte

Muchos de los cálculos sobre las investigaciones aún se hacen en la Tierra, reto para transmitir datos


La primera supercomputadora que trabajará en el espacio fue lanzada el lunes pasado, a bordo de una misión de aprovisionamiento de Space X con destino a la Estación Espacial Internacional (EEI).

Llamado Spaceborne Computer, forma parte de un experimento de un año de duración conducido por Hewlett Packard Enterprice (HPE, por sus siglas en inglés) y la Nasa para ejecutar un sistema informático comercial de alto rendimiento en el espacio, algo que nunca se había hecho. El propósito es que el sistema funcione a la perfección en las duras condiciones de espacio durante ese periodo, aproximadamente el tiempo que tardaría en viajar a Marte.

Muchos de los cálculos necesarios para los proyectos de investigación espacial todavía se hacen en la Tierra debido a las limitadas capacidades de computación en el espacio, lo que crea un reto al transmitir datos desde y hacia ese ámbito. Mientras este enfoque funciona para la exploración espacial en la Luna o en órbita terrestre baja, cuando los astronautas pueden estar en comunicación casi en tiempo real con la Tierra, una vez que viajan más lejos y más cerca de Marte, experimentarán mayores latencias de comunicación.

Esto podría significar que llevaría hasta 20 minutos para que las comunicaciones llegaran a la Tierra y otros 20 minutos para que las respuestas arribaran a los astronautas. Un retraso tan largo de la comunicación haría cualquier exploración en el terreno desafiante y potencialmente peligrosa si los astronautas se encuentran con cualquier escenario crítico de misión que no son capaces de resolver ellos mismos, informó Hewlett Packard en un comunicado.

Una misión a Marte requerirá avanzados recursos informáticos a bordo que sean capaces de prolongar los periodos de actividad. Para cumplir con estos requisitos, hay que mejorar la viabilidad de la tecnología en el espacio para asegurar mejor el éxito de la misión.

"Al enviar una supercomputadora al espacio, HPE está dando el primer paso en esa dirección. Las fases futuras de este experimento implicarán enviar a la EEI otras nuevas tecnologías y sistemas informáticos avanzados, como computación impulsada por memoria, una vez que aprendamos más acerca de cómo reacciona la supercomputadora en el espacio", señaló el comunicado.

Conocimientos en áreas de innovación tecnológica

El experimento Spaceborne Computer, agregó, no sólo nos mostrará qué se necesita hacer para avanzar en la computación en el espacio, sino también arrojará conocimiento sobre cómo progresar en materia de computación de alto rendimiento (HPC) en la Tierra y en otras áreas de innovación tecnológica.

El Spaceborne Computer incluye los sistemas de clase HPE Apollo 40 con una interconexión HPC de alta velocidad que funciona con un sistema operativo Linux de código abierto. Aunque no hay modificaciones de hardware en estos componentes, se creó un recinto único refrigerado por agua para equipo y se desarrolló un software de sistema para resolver las limitaciones ambientales y los requisitos de confiabilidad de la supercomputación en el espacio.

China desplaza a EEUU en computación de alto rendimiento

 

La alarma fue encendida por la Agencia Nacional de Seguridad (NSA) y el Departamento de Energía (DOE) cuando alertaron que "Estados Unidos está ante el grave riesgo de perder su posición dominante en la computación de alto rendimiento (HPC)".

Según ambas agencias estatales, "en ausencia de una actitud agresiva, EEUU perderá el liderazgo y no podrá controlar en el futuro la HPC".

La reflexión apareció el pasado 21 de marzo en la página top500.org, dedicada a monitorear las 500 supercomputadoras más potentes de mundo desde 1993, con dos revisiones anuales, en los meses de junio y noviembre. El análisis se basa en el documento emitido en diciembre luego de un encuentro de 60 representantes de la industria y agencias gubernamentales, además del DOE y la NSA, entre ellas la Iniciativa Nacional de Informática Estratégica (NSCI), la Administración Nacional de Seguridad Nuclear (NNSA) y la unidad de Investigación de Proyectos de Inteligencia (IARPA).

Lo que desencadenó la alarma estadounidense fue la puesta en marcha de la supercomputadora china Sunway TaihuLight, que tiene un rendimiento de 93 petaflops (93 billones de operaciones de coma flotante por segundo) o sea tres veces más que la segunda supercomputadora del mundo, la también china Tianhe-2 que ocupaba el primer lugar desde 2013.

Pero, y este dato es fundamental, es cinco veces y media más veloz que la mejor computadora de los EEUU.

Las autoridades estadounidenses están más preocupadas aún porque Sunway TaihuLight fue íntegramente construida con materiales chinos, a diferencia de las otras supercomputadoras que utilizan componentes occidentales. El Centro de Computación de Wuxi, que construyó Sunway TaihuLight (La luz de la divinidad Taihu) incluyó 41.000 procesadores y 260 núcleos, a un costo total de 260 millones de dólares.

Hasta ahora las supercomputadoras chinas estaban fabricadas con chips de la estadounidense Intel. Pero en abril de 2015 Estados Unidos prohibió la venta de chips para supercomputadoras a China, lo que en realidad sirvió para estimular a los asiáticos. Según el informe de NSA-DOE, la supercomputadora más veloz del mundo representa tres desafíos mayores: fue hecha enteramente en China, es innovadora y realmente supera a todas las de EEUU.

La segunda cuestión es la increíble velocidad del avance chino. En noviembre de 2016 había 171 supercomputadoras chinas y otras tantas de EEUU en la lista de las 500 más veloces. Muy lejos están Alemania con 32 y Japón con 27. En 2001 casi la mitad de los superordenadores pertenecía a los Estados Unidos y China no aparecía en lista. En noviembre de 2005, EEUU tenía 305 (61% de las 500) y China sólo contaba con 17.

En 2013 Estados Unidos seguía ostentando la mayoría absoluta, pero ya China tenía 63 superordenadores entre los 500 más veloces. Ese año el ordenador más rápido era el Tianhe-2, fabricado por la Universidad Nacional de Tecnología de Defensa de China. En apenas una década, el dragón pasó de la marginalidad absoluta a la hegemonía, ya que igualó la cantidad de supercomputadoras, pero cuenta con las más veloces.

Que China haya conquistado la mayoría de edad en computación de alto rendimiento, forma parte de su crecimiento notable en todos los rubros, desde la producción de mercancías de bajo coste hasta los productos más sofisticados con tecnologías de avanzada. Pero que haya desplazado en la tecnología de punta al país que mantuvo el liderazgo durante seis décadas, representa un viraje estratégico.

Cuando el proceso se observa desde los centros de poder de EEUU, aparece la sensación de estar ante una derrota, la convicción del desplazamiento inexorable de su capacidad de conducir el mundo. El documento conjunto NSA-DOE destaca tres consecuencias de la pérdida de liderazgo en computación de alta performance: crisis de la seguridad nacional, debilitamiento económico y caída de la industria de la computación.

En el primer aspecto, el informe establece que la computación de alto rendimiento "juega un papel vital en el diseño, desarrollo y análisis de muchos —quizá casi todos— los modernos sistemas de armas y de seguridad nacional: por ejemplo armas nucleares, cyber, barcos, aviones, encriptación, misiles de defensa e hipersónicos".

Por eso, sostiene que perder la hegemonía en la computación más avanzada tendrá repercusiones en la capacidad de conservar una ingeniería de primer nivel y, por lo tanto, en la posibilidad de construir armamento sofisticado, como cazas de quinta generación o misiles hipersónicos imposibles de detectar y neutralizar, por poner apenas un par de ejemplos.

En paralelo, perder el liderazgo en HPC implica, según las agencias de EEUU, "la pérdida de una cadena de suministros de confianza" y la necesidad de construir una nueva cadena "que no multiplique los costos a través de los usuarios comerciales y del gobierno". El informe pone como ejemplo la construcción naval militar: "Si el país eligió construir sus propios barcos de guerra, ¿por qué exponemos nuestra computación al control extranjero?".

Entre las soluciones que proponen figura un aumento de la inversión y un control más riguroso de las exportaciones tecnológicas a China. Sin embargo, la economía China crece a un velocidad mayor y ha podido superar, en la construcción de su última supercomputadora, las restricciones comerciales de Washington. Como en otros campos, el modelo neoliberal juega en contra de sus inventores.

Puede argumentarse, como señala el artículo de top500.org, que la supercomputación china "no es tan avanzada como nos hacen creer", y que las autoridades de EEUU tienden a "sobrevalorar los avances chinos" para conseguir más recursos presupuestales. Pero esa actitud un tanto despectiva es un reflejo, como destaca Michael Feldman, el autor de la citada reflexión, de los efectos de haber perdido la hegemonía en un sector tan decisivo como la supercomputación.

Por último, cuando se producen cambios de semejante magnitud conviene tomar cierta distancia temporal para observar los procesos de larga duración. La hegemonía que China está conquistado en el campo de la computación de alta performance, forma parte de un proceso mayor que está devolviendo a la potencia asiática el lugar que ocupó en la historia hasta el siglo XIX, cuando el colonialismo británico y francés la humillaron en las Guerras del opio.

 

 

Científicos crean "cristales de tiempo", nueva forma de materia

Se cree que sus singulares propiedades podrían contribuir a hacer realidad la computación cuántica

"Esto abre la puerta a un mundo de fases de no equilibrio", señala investigador


Un nuevo tipo de materia –apodado "cristal de tiempo" porque su estructura atómica se repite en la cuarta dimensión, más que en el espacio– ha sido creado por dos equipos de científicos, en una hazaña que en otro tiempo se consideraba teóricamente imposible.

Los cristales normales, que van desde los diamantes hasta los copos de nieve, tienen átomos dispuestos en una estructura tridimensional semejante a una celosía. En cambio, los átomos en los cristales de tiempo, cuya existencia fue sugerida primero en 2012, repiten una pauta en la cuarta dimensión, el tiempo. Esto significa, en esencia, que oscilan en movimiento perpetuo sin influencia externa.

Antes de su creación real, algunos investigadores habían expresado dudas de que alguna vez se pudieran hacer cristales de tiempo, pues la idea de un objeto en movimiento perpetuo rompe las leyes vigentes de la física. Pero se cree que es posible en parte por el extraño comportamiento de la materia en al escala cuántica. Un cristal de tiempo parece ser un sistema cerrado, así que no se pierde energía hacia el mundo exterior. Y también parece tener propiedades similares a las de los superconductores, de modo que los electrones pueden moverse sin resistencia. Esto permite que al menos en teoría el movimiento observado continúe por siempre.

Aunque se cree que las aplicaciones prácticas están muy lejanas, existe la idea de que las singulares propiedades de estos cristales podrían contribuir a hacer realidad la computación cuántica. Existen prototipos de computadoras cuánticas, pero requieren una fuerte protección hasta de la más ligera interferencia del mundo exterior. Los cristales podrían ayudar a proteger la información almacenada, lo cual superaría uno de los mayores obstáculos al uso extendido de computadoras millones de veces más rápidas que las usadas hoy día.

Uno de los equipos, encabezado por investigadores de la Universidad de Maryland, creó el primer cristal de tiempo usando átomos cargados eléctricamente del elemento iterbio. Usó un campo eléctrico para levitar 10 de estos átomos sobre una superficie, y luego los golpeó repetidas veces con un pulso de un láser. Los átomos comenzaron a saltar por sí mismos en una pauta regular, pero en forma extraña: más que moverse al ritmo de los pulsos de láser, lo hacían a la mitad del ritmo.

Los investigadores compararon esto con golpear dos veces una tecla del piano pero obtener una sola nota, o apretar con regularidad una esponja pero verla repuntar sólo al segundo apretón. Al parecer esto es un signo revelador de un cristal de tiempo.

Avalado por Nature

La noticia de esta aparente creación fue revelada en octubre del año pasado, pero el mundo científico habían estado esperando ver los detalles completos en una revista revisada por pares.

Ahora el equipo de Maryland y otro encabezado por expertos de la Universidad Harvard han publicado documentos en Nature, una de las principales revistas del mundo. El profesor Andrew Potter, de la Universidad de Texas en Austin, integrante del equipo dirigido por Maryland, comentó: "Esto abre la puerta a todo un mundo de fases de no equilibrio. Hemos tomado las ideas teóricas que habíamos estado repasando en los dos años pasados y en realidad lo construimos en el laboratorio. Esperamos que sea apenas el primer ejemplo y que vengan muchos en adelante".

Sin embargo, en un comentario publicado por Nature, un destacado experto en el campo sugirió que se requiere más investigación para demostrar sin lugar a dudas que los cristales de tiempo existen.

El profesor Chetan Nayak, de la Universidad de California en Santa Bárbara, escribió que, con base en nuestro conocimiento actual, había sido natural ver si era posible "romper espontáneamente la simetría traslacional en el tiempo de las leyes de la física". Pero añadió que es posible que el inusitado movimiento de salto visto en los presuntos cristales de tiempo no dure para siempre.

"Ambos grupos presentaron evidencia de un cristal de tiempo", señaló Nayak, "pero sus resultados combinados apuntan a la necesidad de experimentos que muestren en verdad que las oscilaciones se mantienen en fase durante periodos extensos y no son detenidas por las inevitables fluctuaciones".

© The Independent

Traducción: Jorge Anaya

Los IBM Q requieren temperaturas cercanas al cero absoluto.

 

La máquina podría resolver problemas que las computadoras convencionales ni pueden plantearse

 

La promesa de la computación cuántica está más cerca de cumplirse. IBM ha anunciado que comienza a construir los primeros ordenadores cuánticos universales. Aunque no hay fecha para su disponibilidad comercial, el veterano fabricante informático asegura que sus IBM Q superarán en velocidad y capacidad de cálculo a las supercomputadoras actuales más potentes y de largo.

Con la computación cuántica hay que hacer casi como con la física cuántica: resetear el cerebro y arrinconar las nociones de física clásica. A nivel subatómico, las partículas tienen una serie de extrañas propiedades que escapan a la lógica convencional. La que más interés tiene para la informática es la superposición cuántica, la capacidad que tiene un electrón, por ejemplo, de tener varios estados de forma simultánea.

Los bits convencionales, la base de la informática actual, operan la información en dos estados alternativos (ceros o unos, encendido o apagado). Los segundos pueden además presentar ambos valores a la vez. La consecuencia práctica es que, mientras la suma de más bits a una máquina aumenta linealmente su capacidad de gestionar la información, la suma de más qubits la eleva de forma exponencial.

"Los ordenadores clásicos son extraordinariamente potentes y seguirán mejorando y sustentando todo lo que hacemos en los negocios y la sociedad. Pero hay muchos problemas con los que nunca podrá enfrentarse un ordenador clásico", decía el vicepresidente de IBM Systems, Tom Rosamilia, durante la presentación del plan para construir los IBM Q. "Para obtener conocimiento desde lo más complejo, necesitamos un ordenador cuántico", añade.

El objetivo de IBM es desarrollar un ordenador cuántico con 50 qubits en una primera fase. Aseguran que una máquina así superaría en rendimiento a las mejores supercomputadoras de la lista Top500. Aunque IBM no ha dado fechas de cuando estarán disponibles los primeros IBM Q, no se podrán comprar en las tiendas. Estas máquinas no están pensadas para procesar textos o jugar. Solo grandes corporaciones o centros de investigación pueden sacarle partido.

Además, los qubits son muy delicados. Como le sucede a otras partículas, la menor perturbación térmica o electromagnética puede alterar su estado, provocando errores. Por eso los qubits se mantienen a temperaturas cercanas al cero absoluto. Esto hace aún más impracticable la idea de comercializar las máquinas directamente.

La idea de IBM es ofrecer los Q como servicio a través de su red de cloud computing, o informática en la nube. Para ello aprovechará el proyecto IBM Quantum Experience, una plataforma estrenada el año pasado sobre un procesador de cinco qubits. Abierta a expertos e investigadores, ha permitido a IBM probar su enfoque de lo que debe ser la informática cuántica.

Y es que IBM no es la única que persigue el sueño cuántico. También lo buscan Microsoft o Google, y cada una con un enfoque diferente. De hecho, ya se pueden comprar ordenadores cuánticos por unos cuantos millones de dólares. Son los D-Wave que fabrica la compañía canadiense del mismo nombre. En enero de este año anunciaron la disponibilidad de su D-Wave 2000Q. La cifra se refiere a los 2.000 qubits que tiene la máquina bajo un complejo sistema de refrigeración.

Pero los 2.000 qubits de D-Wave no son necesariamente más que los 50 qubits de IBM. Es otra las extrañezas de la informática cuántica. Las computadoras canadienses usan un método llamado temple cuántico que, aunque ha facilitado su desarrollo, las limita a tareas muy específicas. Google, por ejemplo, compró una D-Wave para explorar el uso de la inteligencia artificial en las búsquedas.

Por eso IBM ha destacado en su presentación el apellido universal de sus IBM Q. No parece probable que sean algún día máquinas de propósito general como lo son los actuales ordenadores. De hecho, tampoco lo pretenden. Y si no, esta es la lista de posibles aplicaciones que IBM imagina para sus Q: descubrimiento de nuevos fármacos y materiales, impulsar el aprendizaje de las máquinas para la inteligencia artificial o asegurar los datos que viajan por las redes aprovechando las rarezas de la física cuántica.

 

1488762376 465834 1488769637 sumario normal recorte1

 Detalle del interior del ordenador cuántico universal de IBM. IBM RESEARCH

 

 

 

 Twitter: @MACriado

 

China construye una supercomputadora capaz de realizar un quintillón de operaciones por segundo

 

Se espera que el prototipo de Tianhe-3 esté completado para los principios de 2018. La computadora más potente del momento alcanza una velocidad máxima de 125 cuatrillones cálculos por segundo.

 

China ha comenzado la construcción de Tianhe-3, un superordenador de nueva generación que será 10 veces más rápido que Sunway TaihuLight, la computadora más potente del momento, reporta el periódico 'China Daily'.

Se espera que este año se produzcan varios avances en procesadores de alto rendimiento y otras tecnologías clave que permitirán construir lo que será el primer prototipo del mundo de una computadora de tipo Exascale, lo que significa que será capaz de hacer un quintillón (1 seguido por 18 ceros) de cálculos por segundo.

Se prevé que el prototipo esté completado a principios de 2018, ha precisado Meng Xiangfei, director del Centro Nacional de Supercomputadoras de Tianjin. El actual 'campeón' del mundo, Sunway TaihuLight, alcanza una velocidad máxima de 125 cuatrillones (1 seguido por 15 ceros) cálculos por segundo, señaló.

De acuerdo con Meng, el Tianhe-3 se fabricará completamente en China, desde los procesadores hasta el sistema operativo, y estará ubicado en Tianjin. La computadora estará operativa en el año 2020 y se pondrá a disposición del uso público.

El Tianhe-3 será capaz de analizar la distribución de la polución a nivel nacional, simular terremotos y brotes epidémicos más detalladamente, así como analizar secuencias de genes y estructuras de proteínas a una escala y velocidad sin precedentes.

 

 

En 5 años aumentó casi al doble el acceso a Internet en AL y el Caribe

Santiago de Chile.

El acceso a Internet en América Latina y el Caribe casi se duplicó en el quinquenio reciente, lo que da cuenta de un importante avance, aunque más de la mitad de los hogares aún no están conectados, mostró un informe de la Comisión Económica para América Latina y el Caribe (Cepal).

Chile, Uruguay y México muestran los mejores rendimientos, con 15 por ciento de sus conexiones por encima de 10 megabits por segundo (mbps) y cerca de 4 por ciento por arriba de 15 mbps. En contraste, Bolivia, Paraguay y Venezuela son los más rezagados, con 0.5 por ciento de conexiones de más de 10 mbps y 0.2 por ciento de conexiones por encima de 15 mbps.

El número de hogares conectados a Internet en la región creció 14.1 por ciento promedio anual en los pasados cinco años, alcanzando 43.4 por ciento del total en 2015, casi dos veces la tasa de 2010, sostuvo la Cepal.

El porcentaje de usuarios de Internet respecto del total de la población de América Latina y el Caribe, en tanto, creció 10.6 por ciento al año entre 2000 y 2015. La expansión del acceso se ha concentrado "en los quintiles más ricos, ensanchando la brecha con los quintiles más pobres", refirió el informe de Cepal.

En términos de asequibilidad, mientras en 2010 el costo de contratar un servicio de banda ancha fija de 1 mbps bordeaba 18 por ciento de los ingresos promedio mensuales, a principios de 2016 esta cifra bajó a 2 por ciento.

En esa línea, el acceso a conexiones de banda ancha aumentó ampliamente en el periodo, particularmente en la modalidad móvil, que pasó a 58 por ciento en 2015 en comparación con 7 por ciento de cinco años atrás. Con todo, el organismo multilateral reparó en la alta heterogeneidad entre los países de la región.

De los 24 países analizados, tres tenían penetración menor a 15 por ciento en 2015, 15 estaban entre 15 y 45 por ciento, tres entre 45 y 56 por ciento y tres –Chile, Costa Rica y Uruguay– estaban cerca de 60 por ciento.

El estudio destacó que los países que tuvieron las mayores tasas de crecimiento del número de hogares conectados a Internet en el periodo 2010-2015 fueron Nicaragua, Guatemala, El Salvador y Bolivia. El mayor aumento en número absoluto de hogares conectados de cada 100 se dio en Costa Rica (que pasó a 60 desde 24).

El teletransporte de información, clave para las comunicaciones del futuro

La filosofía alemana -tan dada a condensar en una sola palabra conceptos muy complejos- llamó zeitgeist al espíritu de un tiempo, refiriéndose al clima intelectual y cultural dominante en una época histórica. Ese algo intangible que comparten las sociedades en un determinado momento y que impregna el arte, la ciencia y las convenciones institucionalizadas. La palabra, extendida gracias a la obra de Hegel, fue asumida incluso por Google para explicar el mundo a través de sus búsquedas. Y si el gigante tecnológico da su bendición, se abren las puertas de par en par para que algo llegue a la calle y corra desbocado por Internet. Por eso se puede decir que el zeitgeist de esta era es -o será en breve- lo cuántico. Lo cuántico no sólo como esa parte de la física que trata de llegar donde no alcanza la mecánica clásica, sino como un demiurgo que abraza y acoge toda actividad humana. Medicina cuántica, filosofía cuántica, programación cuántica, alimentación cuántica, música cuántica y, en fin, espiritualidad cuántica. La fama, desde luego, es merecida, porque la física cuántica nos habla de cosas como la teletransportación; algo tan estimulante y asombroso que hasta hace poco sólo podíamos ubicarlo como uno más de los extras, junto con propulsores de velocidad warp, que la nave Enterprise incluye de fábrica.


El austriaco Anton Zeilinger no ha conseguido todavía teletransportar a un vulcaniano, aunque todo se andará... Comenzó con algo igual de ambicioso, pero mucho más pequeño. En 2005 su equipo logró que dos fotones -bautizados como Alice y Bob- entrelazados cuánticamente se teletransportaran de un lado al otro del Danubio. Aquellos 600 metros se convirtieron un par de años después en 144 kilómetros, los que separan las islas de La Palma y Tenerife. Entender la formulación teórica que explica el logro de Zeilinger no está al alcance de cualquiera, pero sus utilidades prácticas comienzan a vislumbrarse. “Gracias a la comunicación cuántica podemos llegar a la criptografía cuántica. Que es un método seguro de enviar información de un emisor a un receptor. Es tan seguro que no es posible, ni siquiera en teoría, descifrar el código”, asegura Zeilinger.


En el futuro nuestros ordenadores serán cuánticos y al igual que ahora estarán conectados entre ellos, será el momento de la Internet cuántica, un proyecto que el físico austriaco ve todavía lejano pero no imposible. Para explicar la capacidad de estas futuras computadoras, Zeilinger echa mano de un ejemplo que, como cuántico de pro, recuerda al famoso gato de Schrödinger y su capacidad para estar vivo y muerto a la vez: “un bit clásico de información puede ser 0 o 1, como cuando usas Internet: o es un 0 o un 1. Pero el qbit puede estar en una superposición de 0 y 1. De manera poca precisa podríamos decir que es 0 y 1 a la vez”.


Por muy apasionante que suene como desafío teórico, Zeilinger no quiere que sus aportes se queden en el limbo de la especulación intelectual, aunque reconoce que no tiene muy claro cómo podremos beneficiarnos de ellas: “las aplicaciones importantes y reales no se conocen a la hora de inventarlas. Esto ha ocurrido muchas veces en la historia de la humanidad, que se ha inventado algo fundamental y que más tarde la gente ha descubierto que puede utilizarlo para algo más”. Tal vez el sueño de la Enterprise no sea imposible...


Edición: J.C. Rodríguez / George Karja


Texto: José L. Álvarez Cedena

Página 1 de 2