En riesgo, 50% de las 6.700 lenguas indígenas del mundo, alerta ONU

Con cada lengua que desaparece el mundo pierde un acervo de saber tradicional, advirtió el Secretario General de la Organización de las Naciones Unidas (ONU), António Guterres.

Con motivo del Día Internacional de los Pueblos Indígenas, recordó en un mensaje que actualmente hay 370 millones de personas indígenas en el mundo y gran parte de ellas "todavía carecen de derechos básicos y la discriminación y la exclusión sistemáticas siguen amenazando su modo de vida, su cultura e identidad".

El funcionario internacional expuso que "las lenguas son el vehículo que utilizamos para comunicarnos y están íntimamente ligadas a nuestra cultura, nuestra historia e identidad"

Reportó que casi la mitad de las 6 mil 700 lenguas que se calcula que hay en el mundo, en su mayoría indígenas, están en peligro de desaparecer.

Este año, el Día Internacional de los Pueblos Indígenas, celebrado cada 9 de agosto, se dedicó a los idiomas originarios por ser 2019 el Año Internacional de las Lenguas Indígenas.

Cooperación, el camino

Por su parte, la Conferencia del Episcopado Mexicano, a través de la Comisión Episcopal de la Pastoral Social, expuso que contrarrestar la amenaza de la desaparición de lenguas indígenas requerirá los esfuerzos de cooperación de las comunidades de hablantes, especialistas en lenguas, organizaciones no gubernamentales y poderes públicos.

En un comunicado, la organización religiosa expuso que sensibilizar sobre la pérdida de lenguas y la diversidad lingüística sólo será eficaz si se consigue dotar de funciones contemporáneas positivas a las lenguas minoritarias desde el punto de vista de las necesidades de la vida moderna, dentro de la comunidad y también en los contextos nacional e internacional.

Al anunciar el 14 Encuentro Nacional de Pastoral de Pueblos Originarios, del 9 al 13 de septiembre, los representantes de la Iglesia católica detallaron que entre esos papeles positivos están el uso de estas lenguas en la vida cotidiana, en el comercio, la educación, las letras, las artes y los medios de comunicación.

Publicado enSociedad
 Hao Huang, en una imagen del autor en la página mathcs.emory.edu (Hao Huang@emory). mathcs.emory.edu

Hao Huang demuestra después de 30 años la llamada conjetura de la sensibilidad, que se engloba en la teoría de la complejidad computacional

 

Cuando un problema matemático importante, que lleva 30 años propuesto, acaba por resolverse en dos escasas páginas de razonamiento, no cabe más que darse la enhorabuena. Como aquel sacrificio de dama en una partida de ajedrez que fascina por la creatividad de su estratega, esas dos páginas de inventiva matemática son un regalo para cualquier admirador de la disciplina. Su autor, Hao Huang, matemático e informático teórico de la Universidad de Emory (EE UU), probó la llamada conjetura de la sensibilidad en un artículo deseis páginas (dos de demostración y el resto para centrar el contexto y para enunciar consecuencias y derivadas del resultado), que publicó a principios de julio en ArXiV, un repositorio abierto de artículos científicos. Unas horas después las redes sociales ya se felicitaban. El influyente blog de Gil Kalai, de la Universidad Hebrea de Jerusalén, anunciaba: "Increíble: ¡Hao Huang demuestra la conjetura de la sensibilidad!". Al rato, Ryan O'Donnell, investigador de Carnegie Mellon, comprimía las dos milagrosas páginas en los 282 caracteres de un tuit.

La conjetura de la sensibilidad fue enunciada por Noam Nisan y Mario Szegedy en 1989, y se engloba en la informática teórica, en concreto la teoría de la complejidad computacional, con aplicaciones a la teoría de la elección social. Tomar decisiones no es tarea fácil. Para hacerlo, tanto máquinas como humanos nos apoyamos en reglas de decisión o algoritmos, es decir, métodos sistemáticos previamente diseñados. Supongamos que debemos tomar una decisión binaria, sí o no, basados en el resultado de un número (N) de datos, también binarios. Por ejemplo, podría tratarse de aprobar o no un texto legal, basándonos en los votos de un cuerpo electoral (cada voto sería uno de los datos).

Algunas de estas reglas de decisión serán más sensibles a los cambios en los datos que otras. En el ejemplo anterior, si la elección se basa en la opinión mayoritaria de la totalidad de los electores, entonces el resultado es sensible a exactamente la mitad más una de las opiniones: si exactamente N/2+1 de los votantes aprobaron el texto, un cambio de opinión de cualquiera de esos electores haría cambiar el resultado. De forma general, se dice que una regla de decisión es sensible para ciertos datos, si cambiando uno de ellos se cambia la decisión final. El grado de sensibilidad de la regla de decisión es el máximo número de datos a los que la regla puede ser sensible en el peor de los casos (es decir, en los casos frontera extremos).

Siguiendo con el ejemplo anterior, si dividimos a los electores en K distritos electorales iguales y basamos el resultado de la elección en que al menos uno de los distritos apruebe el texto por consenso, entonces la sensibilidad de la regla de decisión se reduce a N/K, o a K, según cuál sea mayor. Efectivamente, los casos frontera extremos se dan cuando exactamente un distrito alcanza el consenso, o cuando todos se quedan a un voto del consenso. En el primer caso solo N/K cambios de opinión podrían afectar al resultado, mientras que en el segundo solo K.

Así es como el grado de sensibilidad de una regla de decisión se puede tomar como baremo para determinar su adecuación en ciertos procesos electorales. Sin embargo, mientras que en algunos contextos está bien motivado y es fácil de determinar, en otros casos no. Por ejemplo, para valorar si una regla de decisión es adecuada para activar o no un nivel de emergencia, pongamos, de riesgo de incendio de una máquina. Para ello, se emplean como datos las mediciones de ciertos parámetros. Se empieza por la temperatura ambiente; si esta excede un cierto nivel, se mide el nivel de humedad; en caso contrario, se mide el nivel de agua del radiador. Cuantas menos mediciones se requieran, mejor. En este caso, valoramos la adecuación de la regla de decisión en base a la complejidad de preguntas, y este es otro de los muchos baremos para reglas de decisión.

Pero ¿se puede establecer alguna relación entre estos baremos? Sabemos que la complejidad de preguntas de una regla de decisión no puede ser menor que su grado de sensibilidad, puesto que si alguna de las mediciones sensibles queda sin respuesta, la decisión no puede estar determinada. ¿Podría ser que, a su vez, hubiera una relación inversa? Precisamente eso postula la conjetura de la sensibilidad: que, sea cual sea la regla de decisión, su complejidad de preguntas es menor que una potencia de su grado de sensibilidad. Combinada con la observación anterior, la conjetura, ahora teorema gracias a Huang, establece que el grado de sensibilidad y la complejidad de preguntas son, a escala logarítmica, baremos equivalentes.

En sus escasas dos páginas de argumentación, Huang demuestra la conjetura apoyándose en resultados previos que redujeron el problema a uno sobre subgrafos inducidos del hipercubo N-dimensional. Huang, que es un especialista de la teoría espectral de grafos, redujo a su vez el problema a uno sobre valores propios de matrices de signos. El célebre Teorema de Entrelazados de Cauchy hizo el resto.

Se da la circunstancia que Huang estaba en Madrid cuando dio con la solución (su mujer estaba visitando el ICMAT). Según cuenta, se refugiaba en la habitación de su hotel durante la espectacular ola de calor que asedió Europa a finales de junio. Al parecer el calor duró lo justo y necesario para que Huang pudiese completar, en aquellos pocos días, 30 años de búsqueda.

Por Albert Atserias, catedrático de Informática Teórica de la Universitat Politècnica de Catalunya

Café y Teoremas es una sección dedicada a las matemáticas y al entorno en el que se crean, coordinada por el Instituto de Ciencias Matemáticas (ICMAT), en la que los investigadores y miembros del centro describen los últimos avances de esta disciplina, comparten puntos de encuentro entre las matemáticas y otras expresiones sociales y culturales y recuerdan a quienes marcaron su desarrollo y supieron transformar café en teoremas. El nombre evoca la definición del matemático húngaro Alfred Rényi: "Un matemático es una máquina que transforma café en teoremas".

Edición y coordinación: Ágata Timón (ICMAT).

Ciencia y docencia en la trinchera: reflexiones en torno al 15 de mayo

En la época anterior al desarrollo de tecnologías tales como los teléfonos celulares y las tablets, la dinámica dentro de las aulas escolares poseía un ambiente de secrecía; una sesión de clase podría ser brillante o sombría y únicamente la memoria de docentes y estudiantes podía dar fe de lo acontecido.

Actualmente, el acontecer en el aula puede ser visto en cuestión de segundos de un lado a otro del planeta, pudiendo generar consecuencias prácticamente incontrolables. Este entorno también ha facilitado la fiscalización de las actividades dentro de las aulas y ha limitado la creatividad en los procesos de enseñanza y de aprendizaje.


Existe una idea arraigada de que los problemas de la educación actual pueden resolverse por medio de formulación de nuevos planes y mayores controles de exigencia elaborados por diversas autoridades escolares. Desafortunadamente, muchas de estas iniciativas resultan ajenas a la realidad cotidiana de las escuelas y eventualmente resultan inaplicables.
En la práctica las experiencias exitosas de transformación educativa surgen ‘sin guión rígido’ y a partir de actividades asociadas con el conocimiento científico sustentadas y catalizadas con base al entusiasmo de docentes y estudiantes1.


La vida cotidiana se caracteriza por la presencia de sucesos de alto impacto tales como los desastres naturales relacionados con el cambio climático, la inseguridad, la pobreza y la inequidad. Cada una de estas situaciones puede enfocarse desde una perspectiva formal utilizando el razonamiento matemático y los métodos formales que permiten llegar a conclusiones objetivas de interés para los estudiantes.


En este mismo contexto, los avances recientes de la ciencia (como la detección de un agujero negro) pueden motivar actividades prácticas en los salones y laboratorios para poner al alcance de la juventud conceptos que aparentemente estarían reservados para mentes privilegiadas.


Ninguna planeación burocrática puede anticipar el desarrollo de acontecimientos de alto impacto científico y/o tecnológico que deba ser abordado coyunturalmente en un ámbito escolar. Las revoluciones educativas se gestan en las trincheras académicas, a partir de las competencias que posee el profesorado y de la existencia de ambientes libres2.


En este tenor, el uso de las nuevas tecnologías resulta un aliado ambivalente. Dado que nos encontramos en la llamada ‘era de las redes sociales’ nos hemos acostumbrado a asociar el concepto de éxito con el reconocimiento de terceros; a pesar de ello, las experiencias educativas exitosas acontecidas en varios países del mundo poseen un carácter fundamentalmente anónimo. En éstas se reflejan avances colectivos que se traducen en el dominio de competencias de razonamiento matemático, metodología científica práctica y escenarios laborales decorosos que favorecen la equidad e inhiben la delincuencia.


Este paradigma es perfectamente reproducible en nuestro país, aunque los resultados sean palpables dentro de varios años. Las condiciones para que prospere este tipo de movimiento educativo están presentes en México y en todo el planeta.


Referencias:


1R.P. Feynman “Cargo cult Science” Engineering and Science Vol 37, pp 7 (1974).http://calteches.library.caltech.edu/51/2/CargoCult.pdf
2A. Sandoval Villalbazo “Catástrofes naturales sugieren nuevos escenarios de enseñanza en primarias”, Prensa Ibero 3 Oct 2017https://ibero.mx/prensa/analisis-catastrofes-sugieren-nuevos-escenarios-de-ensenanza-en-primarias
*Dr. Alfredo Sandoval Villalbazo, académico del Departamento de Física y Matemáticas de la Universidad Iberoamericana Ciudad de México e Investigador Nacional Nivel II (SNI). Twitter: @Fred_FisMat

Publicado enSociedad
Martes, 02 Abril 2019 06:27

VIH: el eje Berlín-Londres

Recreación del virus de inmunodeficiencia humana (VIH).

El principal propósito de la medicina es curar las enfermedades, es su razón de ser. Por eso la identificación de nuevos caminos para avanzar hacia la cura o la erradicación de alguna patología es una de las noticias más esperadas y deslumbrantes. Y lo es, no sólo para el conocimiento médico, pues constituye una esperanza para las personas que podrían verse libres de males que les provocan sufrimiento. Desde los primeros reportes sobre la identificación de la enfermedad en 1981, el VIH/sida se convirtió en uno de los principales retos de la investigación biomédica en el mundo entero.

El pasado 5 de marzo se publicó en la revista Nature un reporte de Ravindra K. Gupta y su equipo en Londres Inglaterra, informando sobre la segunda persona en el mundo en la que se habría conseguido la erradicación completa del virus. Se trata de un hombre VIH positivo, que presentaba además un tipo particular de cáncer (linfoma de Hodgkin) y que recibió como tratamiento un trasplante de médula ósea (tejido localizado en la matriz de algunos huesos ricos en células primordiales, llamadas troncales o células madres), que remplaza a las células afectadas y da lugar a la formación de nuevos leucocitos o glóbulos blancos. Lo interesante en este caso es que el donador elegido para el trasplante fue una persona con una mutación en un gen llamado CCR5.

La verificación juega un papel central en la ciencia y este sujeto al que podríamos llamar "paciente Londres" es la confirmación (y de alguna manera un homenaje) al trabajo de Gero Hütter realizado hace 10 años en Alemania, también en un hombre VIH positivo conocido como el "paciente Berlín", con un cáncer de la sangre conocido como leucemia mieloide aguda, a quien se le realizó por primera vez el trasplante de células troncales de un donador con la mutación en CCR5 señalada. El resultado fue espectacular, pues en ausencia de tratamiento antirretroviral (ART, por sus siglas en ingés), y habiendo transcurrido más de 10 años, el VIH es indetectable en su cuerpo. Dicho en otras palabras, estaría curado... Pero un solo caso no es suficiente para afirmar algo, de ahí la importancia del "paciente Londres" en el que luego de 18 meses de haberse interrumpido el ART, el virus es también indetectable. Pero es muy poco tiempo, por lo que debe ser tomado con reservas, y así lo reconocen Gupta y sus colegas.

Resulta importante entender el mecanismo de esta nueva ruta para avanzar en la cura del VIH/sida y también para reflexionar sobre sus limitaciones. La respuesta del organismo ante las infecciones (respuesta inmune) requiere de la participación activa de las células de la sangre llamadas leucocitos (glóbulos blancos), entre ellas, un tipo especial de linfocitos llamados T CD4, los cuales coordinan la respuesta inmunitaria al estimular a otras células como los macrófagos y otros linfocitos (entre ellos los B y los T CD8) para enfrentar las infecciones.

El VIH debilita al sistema inmunitario al destruir a los linfocitos T CD4, lo que deja al organismo a merced de éste y otros agentes infecciosos. El virus infecta a estos linfocitos uniéndose a sitios específicos (receptores) localizados en su superficie, entre ellos el receptor llamado CD4 y a dos receptores asociados (correceptores) denominados CCR5 y CXCR4. El primero de éstos correceptores, el CCR5, es una de las principales vías de entrada del VIH y es resultado de la expresión del gen del mismo nombre (CCR5). Una modificación en este gen que pueda inactivarlo, cancela la formación del receptor y en consecuencia cierra esta puerta de entrada al virus. Aproximadamente uno por ciento de la población europea posee una mutación en el gen CCR5 que le confiere inmunidad relativa frente al VIH. En los casos de Berlín y Londres, se eligió esta estrategia y los donantes de médula ósea tenían esta condición.

Los resultados son, hasta ahora, francamente muy buenos, pero no puede llevarnos a pensar que se tiene ya en las manos una cura para el VIH/sida. Lo positivo es que se confirma el papel determinante del gen CCR5 en el desarrollo de la enfermedad y consecuentemente se abre un camino y se justifica orientar buena parte de la investigación científica en la búsqueda de nuevas técnicas para inactivarlo. Existen, sin embargo, algunas limitaciones. Una de ellas es que el virus pueda cambiar (mutar) y emplear como vía de entrada preferente otros receptores, en particular el CXCR4.

Pero la principal limitación de estos avances es que, como se puede comprender, el trasplante de médula ósea (cuya indicación es el cáncer de sangre resistente a la quimio o radioterapia) no puede adoptarse como tratamiento regular contra el VIH, pues es riesgoso y puede incluso poner en peligro la vida del paciente, mientras el actual tratamiento diario antirretroviral es comparativamente más ventajosos no representa mayores riesgos, aunque realmente no representa una cura.

 

Decodifican lenguaje de las abejas de miel; permitirá mejorar su nutrición

Científicos de Virginia Tech decodificaron el lenguaje de las abejas de la miel, de tal manera que permitirá interpretar las comunicaciones altamente elaboradas y complejas de los insectos.

En un artículo en Animal Behavior, los investigadores presentan una calibración universal, o para los aficionados a la ciencia ficción, un pez de babel, que traduce las comunicaciones de las abejas por medio de subespecies y paisajes.

Al descifrar los mensajes instructivos codificados en los movimientos de los insectos, llamados bailes automáticos, el equipo al frente de esta investigación espera conocer mejor los alimentos preferidos de los invertebrados y la ubicación de estas fuentes de los mismos.

"Antes de que podamos alimentar a los polinizadores, necesitamos saber cuándo y dónde necesitan comida. Debemos descifrar las danzas", señaló Roger Schürch, autor principal del artículo. "Entonces, este es un primer paso fundamental". Los investigadores analizaron los bailes de 85 abejas marcadas de tres colmenas.

Resulta que las transmisiones de las abejas de miel tienen repercusiones agrícolas, ambientales y económicas. Se estima que un tercio de los alimentos para humanos en Estados Unidos depende de las abejas y otros polinizadores. En términos monetarios, los polinizadores apoyan los rendimientos de los cultivos y los ecosistemas agrícolas y se cree que contribuyen anualmente con una cantidad estimada de 24 mil millones de dólares a la economía de Estados Unidos.

Los investigadores examinan el comportamiento de los polinizadores en diferentes paisajes para determinar dónde y cuándo plantar alimento adicional para ellos, lo que podría tener el impacto más positivo en la nutrición y salud de esos insectos.

No lo llames censura, llámalo derechos de autor

Con la aprobación en el Parlamento Europeo del texto final de la directiva de Copyright, la Unión Europea ha perdido la oportunidad histórica de desarrollar legislaciones de derechos de autor adaptadas a Internet y al siglo XXI. Finalmente lo que se ha votado es un texto tecnófobo, hecho a medida de los monopolios del copyright y que además no garantiza el derecho de los autores a vivir dignamente de su trabajo. 

Solo servirá para recortar libertades y censurar a destajo, bajo la perspectiva delirante de que todo lo que no produce moneda contante y sonante para las majors –¡ojo! no para los autores– debe ser prohibido y eliminado. Una tragedia para los trabajadores del mundo de la cultura que por otra parte una vez más han sido frivolamente incapaces –salvo contadas, valientes y loables excepciones– de informarse de que va realmente el asunto. Han tragado pasivamente con la versión de sus amos y, con victimismo y gula, han sido el altavoz principal para la propaganda liberticida sin siquiera haberse enterado de que todo esto no beneficiará sus derechos, pero si va de eliminar los de todos.


Las alarmas saltaron hace casi dos años cuando descubrimos que, más allá de ser una propuesta de derechos de autor obsoleta, se estaba usando como caballo de Troya para introducir vigilancia, procesamiento automático de datos, gobierno por algoritmos opacos, censura sin mandato judicial, etc…


Esta amenaza que se ha consumado hoy para derechos tan básicos como la libertad de expresión o el acceso a la cultura y a la información se centra en las trampas ocultas principalmente en dos artículos:


Artículo 13 (luego 17): prohibido subir contenidos sin licencia


Se considerará a las plataformas -desde servicios mediano de alojamiento web hasta gigantes de Internet- responsables de cualquier infracción de derechos de autor que cometan sus usuarios y se les conmina a tomar medidas preventivas: o sea ya no se trata de eliminar contenido sino directamente de impedir que se suba. Naturalmente nadie les obliga a nada. Solo se les hace responsable de lo que suban sus usuarios. Es como si al vendedor de coches se le responsabilizara de los delitos viales comentidos por sus compradores. Esto solo puede desembocar en el filtrado algorítmico de subida (upload filters) de absolutamente todo. Es decir censura previa, automática y masiva de internet. Recientemente Youtube impedía al pianista James Rhodes subir un vídeo suyo tocando a Bach al piano. Este tipo de “errores” que siempre juegan a favor de la privatización del dominio público forman parte del dia a dia de todos los autores que usan Youtube. Y no solo estamos hablando de “errores” que privatizaron el dominio público. Estamos hablando de la dificultad o imposibilidad de subir a internet cualquier tipo de obra derivada: parodias, memes, remezclas, fandom, sátiras… la esencia misma de la cultura y de la libertad política y de expresión.


Artículo 11 (luego 15): Prohibido enlazar sin licencia


La propuesta del artículo 11, conocida como “Linktax” –impuesto al enlace– crea un nuevo “derecho” económico para la patronal de la prensa escrita. Este “derecho” además implica restringir indefinidamente la posibilidad de citarla. Si esto te suena absurdo, arbitrario y contraproducente, te invitamos a leer la propuesta en sí, un texto ambiguo que el jurista Andrej Savin ha definido como “el peor texto legal que he visto en mis 23 años de carrera académica”. Ante esta indefinición, lo más seguro para cualquier plataforma será no enlazar a ningún medio sin permiso explícito.


Esta medida perversa sería el equivalente a nivel europeo al Canon AEDE que ya está vigente en España y Alemania, un canon del que sus propios promotores se lamentaron tras el cierre de Google News en España por su aprobación. El Canon AEDE es paradoxal y los impulsores de esta iniciativa saben que no funcionará en Europa. Por ejemplo, desde Xnet destapamos que el gran grupo editorial Axel Springer se estaba pagando a sí mismo –se enlazaban para pagarse– en una estrambótica simulación de que “todo va bien”.


¿Que pretenden con esto? ¿Qué sentido tiene que la patronal de la prensa presione para aprobar una leyes que impiden que enlaces, difundas y comentes sus contenidos? ¿Se trata solo de la mezcla de ignorancia y avaricia que te llevaría a pegarte un tiro en tu propio pie? Hay un poco de eso sin duda, pero más bien creemos que se trata de la mezcla de ignorancia y avaricia que te lleva a sacarte un ojo para que a tu enemigo le saquen dos. Con leyes de este tipo la patronal de la prensa podría acosar legalmente hasta el cierre a agregadores sociales y comunidades como Meneame o Reddit, eliminando a cualquier nuevo competidor y consolidando su posición monopolística. Convirtiéndose en la única voz en un Internet en el que solo hablaran ellos y que aspiran a convertir en una nueva televisión.


Todo esto que parece una distopía de ciencia ficción, un intento imposible de ponerle puertas al campo o una profecía lúgubre exagerada por activistas preocupados ya se está implementando hoy en día en las grandes plataformas.


De momento existen dos opciones.


• Modelo Spotify


Se trata de que la plataforma adquiera todas las licencias nacionales e internacionales y disponibilice todos los contenidos unidireccionalmente impidiendo a los usuarios la subida. Incluso así, en el caso de Spotify, uno de los pocos gigantes que puede permitírselo hoy en día; pagar a los monopolios de derechos de autor ha encarecido tanto su actividad que su sostenibilidad no está garantizada a medio plazo a pesar de su éxito comercial. Si este es el caso de Spotify, podemos imaginar qué pasará con las medianas empresas en internet. Este modelo tiene otro defecto que ya es obvio para la mayoría de los artistas. La cantidad de dinero final que reciben los autores reales es cero o próxima a cero.


• Modelo Facebook/Google


Estos nuevos monopolios de Internet se niegan a compartir su tarta con los viejos monopolios del copyright así que optan ya por el filtrado masivo y automático de todos los contenidos. Su adaptación al artículo 13 será más fácil. Bastará con que los mecanismo de filtrado sean ahora previos a la subida. Esta tecnología, además de opaca y exclusiva, es muy cara y su obligatoriedad hará casi imposible que surjan y prosperen competidores de estos gigantes. Google gastó unos 100 miliones para crear la tecnología que le ha permitido hasta ahora responder a las reclamanciones por copyright que les llegan de lo que es tan solo el 1% de sus usuarios.

El efecto que tendría estas normas arbitrarias sobre la libre conversación en Internet y sobre la difusión y acceso a la cultura y a la información es devastador.


Los derechos de autor son importantes. ¿Pero de qué derechos hablamos? ¿Y de qué autores? Una propuesta democrática con vocación de consenso amplia que hubiese aspirado a garantizar el trabajo digno de los autores sin vulnerar derechos fundamentales de los ciudadanos debería haberse enfrentado audazmente y por fin a los monopolios del copyright y a entidades de gestión bajo sospecha cuando no directamente investigadas, juzgadas y condenadas como la SGAE. También debería haber partido de la base de que el concepto de autor o medio ha cambiado en los últimos 20 años. Desde el inicio de la web 2.0, el contenido generado por los usuarios ha pasado de ser un interesante experimento social a la realidad digital en la que nos sumergimos cada día. El contenido generado por los que antaño eran “grandes” medios no llega al 5% del tráfico de Internet en una sociedad como la española. La UE a perdido una oportunidad de tratar a sus ciudadanos como generadores de contenido y no como simples ladrones de los contenidos de una élite. Ninguna empresa, medio o autor ha escrito la wikipedia, convertido la Red en el repositorio de todos los videos del mundo o generado millones de tuit al día. Nosotros, la gente, lo hicimos. Internet no es de ellos.


Las amenazas ocultas dentro de la directiva de copyright que se ha aprobado hoy forman parte de un intento de volver a meter el genio dentro de la botella e instaurar una inquisición que permita por fin controlar internet. Nuestros políticos y grandes empresas envidian a China como modelo. La idea inicial de los padres y madres de la World Wide Web y de Internet tal y como lo conocemos, la idea de una arquitectura abierta para compartir enlaces sin cortapisas, fue clave en su éxito. Esta arquitectura se modificará radicalmente si se aplica está directiva tal y como está concebida Ahora la UE quiere crear un Internet con licencia: como somos una sociedad civilizada no se puede llamar censura, así que la llaman Copyright.

En la votación final todo el poder y dinero ha estado de un lado. La gente que nos situemos del otro lado-a favor de la libertad de expresión, de un internet abierto y de un copyright adaptado al s.XXI que permita a los autores vivir dignamente y no de las migajas de las entidades de gestión- en la mayor movilización que ha habido contra una directiva hemos sido vilipendiados, llamados ladrones, piratas y acusados de supuestos absurdos. Nuestra movilización no les ha impedido aprobar esta aberración, pero si hacerlo camuflado como algo positivo.


La ciudadanía activa por los derechos civiles en internet seguiremos cumplirendo con nuestra obligación y dando la batalla. Internet tiene memoria y los eurodiputados que han votado a favor de esta aberración deben asumir las cnsecuencias en las proximas elecciones. Seguiremos luchando ahora y durante la transposición de la normativa en España para preservar un Internet libre, herramienta de democracia y de futuro con o sin ayuda de “los artistas” o la “izquierda parlamentaria”, pero no sin constatar con amargura el peligroso futuro para la libertad de expresión y de información y nuestras libertades todas en el nuevo contexto de la era digital, donde una y otra vez se mata a la herramienta y al mensajero para preservar un statu quo que no debe perdurar.


Actualización del texto publicado en el nº 70 de la Revista Mongolia.


Xnet es el grupo fundador en España de la coalición #SaveYourInternet compuesta por grupos internacionales tan icónicos como la Electronic Frontier Foundation (EFF) y grupos de todos los países de la Unión Europea unidos para coordinar la campaña sobre los peligros ocultos en la nueva Directiva Europea sobre Copyright.

 

Artículo relacionado

Directiva de 'copyright': últimas horas para evitar la censura automatizada en internet

Lunes 25 de marzo 2019

Publicado enSociedad
Una mujer gana por primera vez el ‘Nobel’ de matemáticas

 La estadounidense Karen Uhlenbeck se lleva el Premio Abel por sus revolucionarias investigaciones en la intersección con el mundo de la física

Hace medio siglo, la estadounidense Karen Uhlenbeck, por entonces una joven y prometedora matemática, se puso a buscar un empleo, tras dos breves trabajos temporales como profesora en el Instituto de Tecnología de Massachusetts y en la Universidad de Berkeley. “Me dijeron que nadie contrataba a mujeres, porque las mujeres debían estar en casa y tener bebés”, recordó en un libro en 1997. Hoy, la Academia de Ciencias y Letras de Noruega ha decidido conceder a Uhlenbeck el Premio Abel 2019, dotado con unos 600.000 euros y considerado el Nobel de las matemáticas.


"Apenas me lo puedo creer. Estoy profundamente agradecida", ha explicado Uhlenbeck este martes a EL PAÍS en un correo electrónico. "Pertenezco a la primera generación de mujeres que podían esperar una progresión profesional. Quizá no igual que los hombres, pero las puertas ya no estaban cerradas. En las décadas de 1960 y 1970, cuando se eliminaron las barreras legales para avanzar, esperábamos que las mujeres y las minorías entrarían por las puertas y ocuparían el lugar que les corresponde, al menos en el mundo académico. Quedó demostrado que no era tan fácil, pero se ha conseguido un progreso tremendo, al menos para las mujeres. Las jóvenes matemáticas de hoy son un grupo de talento impresionante y diverso. Espero haber contribuido, a mi manera, junto a otras personas, a abrir estas puertas cerradas y a mantenerlas abiertas de par en par", añade la galardonada.


“Soy matemática. Los matemáticos hacemos investigaciones exóticas, así que es difícil describir exactamente lo que hago en términos sencillos”, reconocía en el mismo libro de 1997 la científica, profesora emérita de la Universidad de Texas en Austin. Uhlenbeck, nacida en Cleveland hace 76 años, ha trabajado con ecuaciones en derivadas parciales, desarrolladas originalmente por la necesidad de describir fenómenos como el electromagnetismo, pero que ahora se utilizan en multitud de contextos, como el estudio de las formas del espacio en varias dimensiones.


La matemática estadounidense es la primera mujer que recibe el Premio Abel, creado en 2002 para celebrar el bicentenario del nacimiento del matemático noruego Niels Henrik Abel. Otros 19 hombres han ganado el galardón desde entonces. Ya en 1988, Uhlenbeck denunciaba que la discriminación explícita no era el único obstáculo en su disciplina. “Uno de los problemas más serios que tienen las mujeres es hacerse a la idea de que existe una sutil falta de aceptación hacia ellas y que tienen que actuar en consecuencia”, alertó. "No puedo pensar en una mujer matemática para quien la vida haya sido fácil. Los esfuerzos heroicos tienden a ser la norma", explicó.


El nombre de soltera de la matemática es Karen Keskulla, pero se quedó con el apellido de su primer marido, el bioquímico estadounidense Olke Uhlenbeck, que le dejó otras huellas. “Los padres de mi primer marido eran viejos intelectuales europeos y mi suegro era un físico famoso [el holandés George Uhlenbeck]. Fueron muy influyentes para mí. Tenían una actitud ante la vida diferente de la de los estadounidenses. Recuerdo a mi suegra leyendo a Proust en francés y dándome la versión en inglés”, ha escrito Uhlenbeck, que también es profesora visitante en el Instituto de Estudios Avanzados de Princeton. “Mis suegros valoraban el mundo intelectual de una manera que mis padres no hacían: mis padres valoraban las cosas intelectuales, pero creían que ganar dinero era más importante”.


La personalidad de Uhlenbeck ha facilitado su éxito en diferentes campos de las matemáticas. “Me aburro con las cosas que ya entiendo”, ha afirmado. “La investigación de Uhlenbeck ha permitido avances revolucionarios en la intersección de las matemáticas y la física”, ha aplaudido en un comunicado el físico Paul M. Goldbart, compañero en la Universidad de Texas. “Sus ideas pioneras tienen aplicaciones en una gran variedad de temas fascinantes, desde la teoría de cuerdas, que puede ayudar a explicar la naturaleza de la realidad, a la geometría del espacio-tiempo”.


La iraní Maryam Mirzajani se convirtió en 2014 en la primera mujer que ganaba la medalla Fields, el otro galardón más prestigioso de las matemáticas. Este premio, reservado a menores de 40 años y por lo tanto menos equiparable al Nobel, es concedido desde 1936 por la Unión Matemática Internacional. Mirzajani, nacida en Teherán en 1977 y profesora en la Universidad de Stanford (EE UU), murió en 2017 por un cáncer de mama. Entonces, el presidente de Irán, Hasan Rohaní, y varios periódicos locales publicaron la noticia con fotos de la fallecida sin el velo obligatorio para las mujeres iraníes, un hecho histórico en el país.


El matemático Daniel Peralta subraya que el trabajo de Karen Uhlenbeck ha sido esencial para entender las superficies mínimas, como las formadas por las pompas de jabón, cuando se consideran muchas dimensiones del espacio. “A partir de cuatro dimensiones, las técnicas clásicas fallan y surgen singularidades”, detalla Peralta, del Instituto de Ciencias Matemáticas (ICMAT), en Madrid. “Las técnicas desarrolladas por Uhlenbeck están en la caja de herramientas de cualquier geómetra. Es una ganadora fabulosa”, celebra Alberto Enciso, también del ICMAT.


“El reconocimiento de los logros de Uhlenbeck debería haber sido infinitamente mayor, ya que su trabajo ha conducido a algunos de los avances en matemáticas más espectaculares de los últimos 40 años”, ha declarado en un comunicado el físico Jim Al-Khalili, miembro de la Royal Society de Londres.


“Soy consciente de que soy un modelo para las mujeres jóvenes en el campo de las matemáticas. Y, en parte, por eso estoy aquí. Sin embargo, es difícil ser un modelo, porque lo que realmente tienes que hacer es mostrar a los estudiantes que una persona imperfecta puede triunfar", reflexionaba Uhlenbeck en el libro Viajes de mujeres en ciencia e ingeniería: no hay constantes universales (Temple University Press, 1997). "Todo el mundo sabe que si una persona es inteligente, divertida, guapa o bien vestida tendrá éxito. Pero también es posible triunfar con todas tus imperfecciones. Yo necesité mucho tiempo para darme cuenta de esto”.

Por MANUEL ANSEDE
19 MAR 2019 - 20:09 CET

Los mitos de la ciencia y la ingenuidad de los científicos

En estos días que se habla con ardor acerca del papel de la ciencia, y de su hija mayor la tecnología, para el futuro del país, conviene recordar apreciaciones básicas sobre la verdadera función de esta institución llamada ciencia, uno de los mayores pilares de la modernidad que padecemos. Con apenas dos siglos de existencia y en plena sinergia con el capitalismo, los combustibles fósiles, la industria, el individualismo y el patriarcado, la ciencia es la culpable mayor de múltiples beneficios pero también de los principales riesgos, lacras, peligros y amenazas que hoy afectan a la humanidad.

Tres son los principales mitos que engalanan a la ciencia contemporánea y que sirven para ocultar su verdadera esencia. El primero atañe a su fetichización. Siempre se tiende a hablar de La Ciencia (con mayúsculas) elevada a una suerte de entidad suprema, en vez de reconocer las diferentes modalidades del quehacer científico cada una de las cuales persigue fines diferentes y hasta antagónicos. Este fetiche se ve acompañado, segundo mito, por la falsa idea de que toda actividad científica es automáticamente benéfica, moralmente buena e ideológica y políticamente neutra. En consecuencia el científico se identifica siempre como un ser virtuoso: santos del conocimiento verdadero, héroes de la objetividad, mártires por la humanidad, abnegados practicantes del experimento. Su mayor virtud, se afirma, es la de haber sometido a la pasión y eliminado a la subjetividad de sus análisis. El tercer mito lo ha descrito con precisión Jorge Reichmann: “El conocimiento científico es un gran bien. Pero ¿cómo pueden tantos investigadores caer en la ingenuidad cientificista de creer que simplemente incrementar el conocimiento conducirá a la mejora de la condición humana? El progreso científico no implica necesariamente progreso humano. Para que se diera progreso humano sería necesario que las comunidades de ese enrevesado simio averiado que se llama Homo sapiens estuviesen en disposición de usar el conocimiento creciente de forma adecuada”.

Estos tres mitos son cada vez menos creíbles por una razón: En los últimos 50 años, la "ciencia desarrollada" ha sido cooptada, influenciada, dirigida y/o financiada por el capital corporativo que hoy domina al mundo. Los datos de la Unesco indican que la inversión privada se incrementó notablemente en Corea del Sur, China, Alemania, Estados Unidos, Turquía y Polonia. En Estados Unidos hacia 1965 la ciencia académica financiada por el gobierno representaba 60 por ciento y la ciencia corporativa 40 por ciento. Para 2015 ya se había invertido a 30-70 por ciento (Unesco, 2015). La ciencia corporativa mantiene un mundo insustentable al generar gases, líquidos y sustancias tóxicas, fertilizantes químicos, pesticidas, plásticos, alimentos dañinos, medicamentos nocivos, organismos transgénicos, gases de efecto invernadero, y especialmente armas cada vez más sofisticadas y complejas. Sólo las 10 mayores corporaciones de la industria bélica tuvieron en conjunto ingresos anuales de 194 mil millones de dólares (2017), con unos 800 mil empleados, de los cuales 10-20 por ciento son científicos, técnicos e ingenieros. Es probable que la mayoría de los casi 8 millones de científicos que existen en el mundo trabajen ya para las corporaciones. De la misma manera que sucede con muchos gobiernos y empresas, partidos políticos, la Iglesia católica, o la realeza europea, hoy la actividad científica esta teñida de corrupción y desprestigio. Por ejemplo, revistas científicas de larga tradición que han cedido a las presiones de las corporaciones farmacéuticas y biotecnológicas, o el gremio de los Premios Nobel que ha escandalizado con los casos de investigadores racistas (como William Schockley, y el descubridor del ADN, James Watson) o con la carta que firmaron 110 premiados en favor de los alimentos transgénicos y contra Greenpeace (ver).

Es en este contexto que sorprenden por ingenuos los reclamos de "más presupuesto para la ciencia" o "libertad de investigación". En México, la política pública en la materia ha carecido de discusión seria y profunda, y ha seguido los vaivenes marcados por los grupos de poder incrustados en puestos clave del gobierno y de la academia. Grupos que imponen sus líneas de investigación y sus visiones anacrónicas y que, como sucede en la UNAM, buscan controlar áreas como la biotecnología, la ecología, la biomedicina, la química y las ingenierías. Hoy hace falta poner sobre la mesa de discusión los objetivos y la orientación de un Programa Nacional de Ciencia y Tecnología que se ocupe de la resolución de las mayores y más urgentes problemáticas de la nación, sin perder de vista el conflicto que se da entre una ciencia mercantilizada y una ciencia comprometida con el bienestar social y ambiental del país y del planeta. Hoy, la verdadera ciencia se mide por su poder para resolver problemas, no para crearlos. Y este desafío atañe por igual a todas las comunidades científicas del mundo.

 

Lunes, 04 Febrero 2019 06:29

Estalla la Guerra Fría tecnológica

Estalla la Guerra Fría tecnológica

EE UU y China libran una batalla que condicionará la evolución de la economía mundial


A principios de semana, el departamento de Justicia de Estados Unidos presentó cargos penales contra el gigante tecnológico Huawei por robo de secretos comerciales, obstrucción a la justicia, fraude bancario y por saltarse las sanciones estadounidenses contra Irán. Acusaciones que pueden dar paso a la extradición a EE UU de la vicepresidenta de Huawei, Meng Wangzhou, retenida en Canadá desde el pasado 1 de diciembre.


Es el último capítulo de un enfrentamiento cada vez más abierto entre EE UU y China a cuenta del desarrollo tecnológico y que ha ido ganando intensidad conforme van pasando los meses. Lo que empezó como los primeros pasos de una guerra comercial entre Estados Unidos y China en 2018, con la imposición de aranceles sobre un número creciente de productos, ha ido evolucionando hasta dejar ver la complejidad de la confrontación entre las dos potencias, donde EE UU ha puesto a las grandes compañías chinas del sector como ZTE, Tencent o Huawei, en el punto de mira de sus acciones. La nueva Guerra Fría es tecnológica.


“La gran diferencia es que 2019 es el año en que todo eso pasa ante el ojo público”, explica Zvika Krieger, director del centro del Foro Económico Mundial (WEF, en sus siglas en inglés) en San Francisco y experto en tecnología. “Hasta ahora, solo los conocedores del sector o las autoridades implicadas en estas cuestiones estaban al tanto de esa guerra tecnológica pero ahora el enfrentamiento es abierto”, reflexiona en una pausa entre reunión y reunión en el Foro de Davos. Tanto que la guerra tecnológica se convirtió en el elefante en la habitación de la cumbre de Davos, el tema no incluido en el programa oficial del que todo el mundo hablaba. “El enfrentamiento entre EE UU y China ha surgido en el 90% de las reuniones a las que yo he asistido”, confesaba en la estación suiza Carlos Pascual, antiguo embajador estadounidense y vicepresidente de la consultora de riesgos IHS Markit, que advertía de que algo ha cambiado para siempre en la relación entre las dos potencias. “Incluso si la guerra comercial se resuelve a lo largo de este mes –el ultimátum vence el 1 de marzo—y China promete comprar muchos más productos estadounidenses y abrir el acceso a su economía a la inversión extranjera, la guerra tecnológica no va a desaparecer”, sentenciaba.


Huawei, inmersa en una campaña global de relaciones públicas inédita en sus algo más de 30 años de historia, defiende su independencia de las autoridades de Pekín. “Somos una empresa que es 100% propiedad de sus empleados y cada año nos sometemos a una auditoría de la mano de KPMG”, clamaba su actual presidente, Liang Hua, en un encuentro poco habitual con los medios de comunicación en Davos. Pero resulta difícil imaginar que Huawei o cualquier otra compañía china puedan resistir las presiones de un régimen como el de Pekín, especialmente en aras de la seguridad nacional.


La emergencia de las empresas tecnológicas chinas en la economía global amenaza el dominio que hasta ahora tenían las empresas estadounidenses del sector. Huawei ya ha superado a Apple como segundo fabricante mundial de smartphones, solo por detrás de la coreana Samsung. Más aún, la compañía de Palo Alto, además, ha tenido que rebajar sus previsiones de ingresos por primera vez desde 2001, en pleno estallido de la burbuja tecnológica, por el impacto que la desaceleración china tiene en sus ventas.


Sistemas antagónicos


Las dimensiones de ese enfrentamiento van más allá de lo puramente sectorial y se adentran de lleno en la geopolítica. El modelo Silicon Valley, el Valle de Santa Clara cercano a San Francisco donde la innovación y el desarrollo tecnológico se han apoyado en una abundante financiación privada capaz de asumir riesgos, puede sucumbir ante el modelo Shenzen, la ciudad china que alberga a algunos de esos gigantes tecnológicos crecidos al amparo de la protección estatal, la transferencia forzosa de tecnología de las multinacionales que quieren hacer negocios en el país y cuantiosa mano de obra barata y formada. Son dos modelos contrapuestos, uno basado en la iniciativa privada y otro impulsado por el sector público, de un régimen autoritario, cabe recordar.


Para dar un impulso definitivo a ese modelo, en 2015 el primer ministro chino Li Keqiang puso en marcha el plan Made in China 2025 para dar un impulso definitivo a la industria del país. Tres años más tarde, el presidente Xi Jinping reformuló el plan para convertir a China en una superpotencia tecnológica —en la industria aeroespacial, la robótica, la biotecnología y la computación— en ese horizonte, con un presupuesto estimado de unos 300.000 millones de dólares (unos 260.000 millones de euros). Un programa que, como reconoce el propio Consejo de Relaciones Internacionales de EE UU en un reciente informe, representa “una amenaza existencial para el liderazgo tecnológico estadounidense”. Y Washington, de la mano de su presidente Donald Trump, ha pasado al ataque. “Los americanos no van a ceder la supremacía tecnológica global sin luchar y el caso Huawei demuestra que esa batalla ya ha comenzado”, aseguraba en una reciente entrevista Michael Pillsbury, director del centro de estudios sobre China del Hudson Institute y asesor de la Administración de Trump. Pillsbury acaba de publicar un libro sobre el tema La maratón de los cien años. La estrategia secreta de China para sustituir a EE UU como superpotencia global.


“A lo largo de 2018 la competición tecnológica se hizo extremadamente política. Este año, los inversores y los mercados van a empezar a pagar el precio de ese cambio”, advertía a principios de enero la consultora de riesgos Eurasia Group que dirige Ian Bremmer. Para Eurasia, de hecho, uno de los diez principales riesgos para este ejercicio es ese invierno en la innovación derivado de las tensiones entre EE UU y China, que van a obligar al resto del mundo a tomar partido por uno de los dos bandos y que van a provocar un freno en las inversiones y el desarrollo tecnológico a nivel global.


En esta ocasión el freno se puede producir en el desarrollo de las redes móviles de 5G, una tecnología que los expertos definen como cuantitativa y cualitativamente diferente a las anteriores generaciones de Internet móvil y que “va a ser radicalmente distinta a nada que le haya precedido, en términos de la innovación que va a propiciar”, explica Paul Triolo, jefe de Geotecnología de Eurasia Group. Si hacemos caso a la teoría que sostiene que cada revolución industrial ha ido precedida y asociada al desarrollo de una tecnología concreta que cambia la sociedad de forma radical, en el caso de la cuarta revolución industrial esa tecnología es el 5G. El desarrollo de coches sin necesidad de conductor o de ciudades inteligentes, por ejemplo, exige una enorme cantidad de datos, con disponibilidad casi inmediata, que solo las redes 5G pueden hacer posible. “La implantación del 5G es la clave para el desarrollo de la economía digital, el Internet de las cosas y determinará la evolución de la industrial. Es una tecnología en una generación”, sostiene Zvika Krieger.


Es ahí donde hay que enmarcar la campaña emprendida a lo largo del año pasado por las autoridades estadounidenses para persuadir a sus socios internacionales de vetar a Huawei del desarrollo de las redes de 5G. Los integrantes de la alianza de los Cinco Ojos [Five Eyes], un acuerdo de inteligencia firmado por EE UU, Canadá, Reino Unido, Australia y Nueva Zelanda, se han comprometido a vetar en sus países al gigante tecnológico chino, líder en el desarrollo de componentes para implantar esas redes, por amenaza a su seguridad nacional. A ese veto evalúan sumarse Alemania, Francia y Noruega por temor a que China pueda llevar a cabo operaciones de espionaje a través de los equipos de Huawei. La británica Vodafone ha anunciado que aplazaría la instalación de nuevo equipamiento de red básica de Huawei en todas sus operaciones europeas, con gran impacto en los países del Este. Previamente, British Telecom había declarado que eliminaría en un plazo de dos años todos los equipos de la empresa china utilizados en la red básica de la operadora móvil. La operadora alemana Deutsche Telekom ha alertado, sin embargo, que esas decisiones pueden provocar una demora en el desarrollo del 5G en Europa, previsto para 2020, de al menos dos años.


“Según ha ido escalando la confrontación comercial y tecnológica entre EE UU y China a lo largo del último año, impulsada por los temores económicos y de seguridad nacional de Estados Unidos y por los ambiciosos objetivos de desarrollo industrial, tecnológico y económico de China, cada decisión asociada con el desarrollo de las redes 5G se ha politizado”, explica Paul Triolo, en su último informe La geopolítica del 5G.


En esas circunstancias cada vez más voces del sector inciden en la necesidad de abordar esta cuestión desde un punto de vista multilateral y supranacional. En el mismo Foro de Davos, la canciller Angela Merkel defendió la necesidad de crear un organismo multilateral, una especie de OTAN tecnológica que aborde tanto las cuestiones de ciberseguridad, como el tratamiento de datos, la ética de la Inteligencia Artificial o la biogenética. “No hay ningún tipo de arquitectura internacional en ese ámbito y no puedo imaginar que cada país vaya en eso por su lado”, aseguró la canciller. “Hemos quedado [Europa] muy a la zaga en el desarrollo de las plataformas tecnológicas pero en cambio la Unión Europea ha sentado las bases para reglamentar el tratamiento de los datos y ese debe ser el rasero europeo para avanzar en la digitalización”, aseguró ante un abarrotado plenario del centro de Congresos.


Merkel se refería a la puesta en marcha del Reglamento General de Protección de Datos (GDPR, en sus siglas en inglés) que entró en vigor a finales de 2018. Una decisión encaminada a proteger el tratamiento de los datos de los consumidores que fue inicialmente rechazada por los gigantes tecnológicos pero que ahora ven como tabla de salvación para recuperar la confianza de los consumidores. “Personalmente pienso que es un fantástico inicio para empezar a tratar la privacidad como un derecho humano. Espero que en Estados Unidos hagamos algo similar y que el mundo avance hacia unos estándares comunes en este ámbito”, confesaba el primer ejecutivo de Microsoft, Satya Nadella, en uno de los debates celebrados en la ciudad suiza. California ha puesto en marcha su propio GDPR pero no hay ninguna iniciativa a nivel estatal en Estados Unidos para garantizar la privacidad de los usuarios y cada vez más voces admiten que en este ámbito no cabe la autorregulación.


“El mercado no discrimina sobre el uso correcto o erróneo de las tecnologías. Por ejemplo, el uso del reconocimiento facial por parte de la Policía de Nueva Delhi ha permitido identificar en apenas cuatro días a casi 3.000 niños desaparecidos. En otros casos, el uso del reconocimiento facial puede utilizarse para invadir la privacidad y con sesgo político”, admitió Nadella. “Apoyamos cualquier tipo de regulación que ayude a que el mercado no se convierta en una carrera hacia el fondo”, afirmó.


Para Krieger, hay cuestiones que se deben abordar sin dilación: “No hay transparencia en cómo se recogen los datos, ni en cómo se usan por parte de las empresas. No se puede monitorizar su uso posterior ni se les puede sacar dinero”. Dos años después de montar el centro del WEF en San Francisco, para este experto tecnológico, que fue el primer representante del Departamento de Estado en Silicon Valley, las empresas son las que tienen ahora más urgencia en establecer reglas claras para su funcionamiento, en línea con la reivindicación de Merkel.


Preocupación añadida


Aunque la canciller tenía en mente la necesidad de proteger la privacidad de los usuarios y de responder a los cada vez más habituales y devastadores ataques informáticos cuando apelaba en Davos a la creación de una OTAN de la ciberseguridad, las empresas tienen otra preocupación añadida. La creación de algún tipo de arquitectura global que haga frente a los desafíos de la nueva realidad tecnológica puede resultar decisivo para evitar lo que los expertos llaman la balcanización de Internet, el temor a una fragmentación de la Red que haga incompatibles unos sistemas con otros. Y el riesgo crece en el actual escenario donde confluyen la confrontación de EE UU y China y el desarrollo de una tecnología disruptiva y revolucionaria como el 5G.


“Un ecosistema del 5G dividido aumentará el riesgo de que la tecnología global se divida en dos esferas de influencia separadas, divididas políticamente y sin posibilidad de que operen entre ellas. Una, impulsada por Estados Unidos y desarrollada tecnológicamente en Silicon Valley, y otra, liderada por China y respaldada por su eficiente red de plataformas digitales”, apunta el informe de Eurasia sobre la geopolítica del 5G.


Una preocupación de primera magnitud para el sector y que Zvika Krieger ratifica. “Lo más preocupante es que la interoperabilidad de la Red se mantenga y ahí el sector público, los Gobiernos, deben asumir la responsabilidad y el liderazgo”. A su juicio, China es la primera interesada en que se proteja la interoperabilidad de Internet y ha mostrado su disposición a cooperar en este ámbito.


Pero no a cualquier precio. En el mismo escenario en el que Merkel había apelado a la cooperación internacional, el vicepresidente chino, Wang Quishan, defendía poco después el modelo chino de desarrollo tecnológico. “Es imprescindible respetar la soberanía nacional y evitar la hegemonía tecnológica, interfiriendo en cuestiones domésticas de otros países y llevando a cabo actividades tecnológicas que minen la seguridad nacional de otros países”, decía al auditorio. “Tenemos que respetar las elecciones independientes sobre el modelo de gestión tecnológica y las políticas públicas que haga cada país y el derecho a participar en el sistema de gobernanza global como iguales”. La Guerra Fría tecnológica sigue en pie.

3 FEB 2019 - 12:59 COT

La inteligencia artificial llega a un problema matemático sin solución

Un sencillo problema de inteligencia artificial se ha topado con una pregunta sin respuesta matemática porque está vinculada a las paradojas lógicas de hace 80 años del científico Kurt Gödel.

Matemáticos que estaban trabajando en un problema de aprendizaje automático llegaron a la conclusión de que la cuestión de la “capacidad de aprendizaje”, si un algoritmo puede extraer un patrón de datos limitados, está vinculada a una paradoja conocida como la hipótesis del continuo.

Gödel, de origen austriaco, demostró que la afirmación no puede probarse como verdadera o falsa, utilizando un lenguaje matemático estándar. El resultado más reciente sobre la cuestión apareció publicado en Nature Machine Intelligence.

“Para nosotros fue una sorpresa”, dice citado por Nature, Amir Yehudayoff, del Instituto de Tecnología Technion-Israel en Haifa, coautor del artículo.

Este especialista dice que aunque hay una serie de preguntas técnicas de matemáticas que se sabe que son igualmente “indecidibles”, no esperaba que este fenómeno apareciera en un problema relativamente simple en el aprendizaje automático.

Los investigadores a menudo definen la capacidad de aprendizaje en términos de si un algoritmo puede generalizar su conocimiento. El algoritmo recibe la respuesta a una pregunta de “sí o no”, como “¿esta imagen muestra un gato?” para un número limitado de objetos y luego tiene que adivinar la respuesta para los nuevos objetos.

Yehudayoff y sus colaboradores llegaron a su resultado mientras investigaban la conexión entre capacidad de aprendizaje y “compresión”, lo que implica encontrar una manera de resumir las características principales de un gran conjunto de datos en uno más pequeño. Los autores descubrieron que la capacidad de la información para comprimirse de manera eficiente se reduce a una cuestión en la teoría de conjuntos: colecciones matemáticas de objetos, como los conjuntos en los diagramas de Venn.

En particular, se relaciona con los diferentes tamaños de conjuntos que contienen infinitos objetos.

Teoría de conjuntos

Georg Cantor, fundador de la teoría de conjuntos, demostró alrededor de 1870 que no todos los conjuntos infinitos son creados iguales: en particular, el conjunto de números enteros es “más pequeño” que el de todos los números reales, también conocido como el continuo. (Los números reales incluyen los números irracionales, así como los racionales y los enteros). Cantor también sugirió que no puede haber conjuntos de tamaño intermedio, es decir, más grandes que los enteros pero más pequeños que el continuo. Pero no pudo probar esta hipótesis de continuidad, y tampoco lo hicieron muchos matemáticos y lógicos que lo siguieron.

Sus esfuerzos fueron en vano. Un resultado de 1940 de Gödel (que fue completado en la década de los 60 por el matemático estadunidense Paul Cohen) mostró que la hipótesis del continuo no se puede probar ni verdadera ni falsa a partir de los axiomas estándares (las afirmaciones que se consideran verdaderas) de la teoría de conjuntos, que se toman comúnmente como la base de todas las matemáticas.

El trabajo de Gödel y Cohen sobre la hipótesis del continuo implica que pueden existir universos matemáticos paralelos que sean compatibles con la matemática estándar, uno en el que la hipótesis del continuo se agrega a los axiomas estándarés y, por lo tanto, se declara verdadero y otro en el que se declara falso.

En su reciente artículo, Yehudayoff y sus colaboradores definen la capacidad de aprendizaje como de hacer predicciones sobre un gran conjunto de datos mediante el muestreo de un pequeño número de puntos de datos.

El vínculo con el problema de Cantor es que hay infinitas formas de elegir el conjunto más pequeño, pero se desconoce el tamaño de ese infinito.

Los autores continúan demostrando que si la hipótesis del continuo es cierta, una pequeña muestra es suficiente para realizar la extrapolación. Pero si es falso, ninguna muestra finita puede ser suficiente. Así muestran que el problema de la capacidad de aprendizaje es equivalente a la hipótesis del continuo. Por lo tanto, el problema de la capacidad de aprendizaje también se encuentra en un estado de limbo que sólo se puede resolver eligiendo el universo axiomático.

El resultado también ayuda a proporcionar una comprensión más amplia de la capacidad de aprendizaje, dice Yehudayoff. “Esta conexión entre la compresión y la generalización es realmente fundamental si quieres entender el aprendizaje”.

 

Página 1 de 4