Rosenell Baud, detalle (Cortesía de la autora)

La inexistencia de una política de ciencia y tecnología en Colombia ha resaltado desde siempre, no obstante la creación de Colciencias. Lo dominante por décadas no es más que una instancia de trámite de becas, gestión de grupos de investigación e investigadores y dineros de apoyo. Con una observación: toda la investigación que ha recibido algún apoyo por parte de Colciencias es fundamentalmente investigación experimental y aplicada. Colombia no ha sabido de apoyo público a la investigación básica.

 

A lo que lleva el realismo político. Unos días antes de su posesión, el presidente electo Iván Duque solicitó una cita ante la Academia de Ciencias –que en Colombia, por imitación de la de España, se llama: Academia de Ciencias Exactas, Físicas y Naturales–. La reunión tuvo lugar efectivamente, y a ella asistió, en la sede de la Academia, el presidente electo en compañía de varios asesores. Por parte de los investigadores y académicos colombianos asistió el Colegio Conjunto de las Academias, y varios destacados investigadores, incluyendo el presidente de la Academia, profesor Enrique Forero.
La reunión fue un hecho inaudito en toda la historia de la República. Durante más de 150 años ningún presidente había visitado la sede de la Academia, y el último registro al respecto fue el general Francisco de Paula Santander, quien también en una ocasión visitó la Academia y tuvo varias entrevistas y encuentros. Jamás, ningún gobernante nacional tuvo sensibilidad alguna ante las Academias colombianas; con la excepción, en muchas ocasiones, de la Academia Colombiana de Medicina, que cumple un papel consultivo, simplemente, ante diversas decisiones y acciones en materia de salud pública.
En la reunión entre Duque y los académicos presentes se mencionaron varios puntos sensibles, como la creación del Ministerio de la Ciencia; incrementar el apoyo económico a la ciencia y la tecnología, con el 1 por ciento del PIB, una promesa incumplida desde siempre; revivir la Misión de Ciencia Tecnología e Innovación (la llamada “Misión de los Sabios”).


El ambiente de la reunión fue cordial, de entendimiento, distendido.


El carácter inaudito de esta cita tiene que ver con el hecho de que históricamente los gobiernos nacionales han desatendido a la ciencia y la tecnología, y si ahora la educación es una preocupación auténtica, se debe principalmente a las presiones por parte de la Ocde para que el país invierta más en educación como una condición de desarrollos social y económico. Tradicionalmente el presupuesto en gasto militar ha sido siempre muy superior al gasto social: educación, vivienda, salud. A título conjetural podría decirse que la jugada del expresidente Santos de solicitar la admisión de Colombia en la Otan puede deberse a camuflar el gasto militar, que ha sido históricamente la principal preocupación económica, financiera y política en el país.


Interpretaciones. Versión 1


Una primera interpretación de este hecho inaudito afirma que o bien la iniciativa del encuentro fue de Duque mismo o bien de alguno de sus asesores, pero que, en cualquier caso, se debe a presiones por parte de la Ocde para que nuestro país asuma a la ciencia y la tecnología como un motivo serio de políticas públicas.


Al respecto, cabe mencionar que ni Duque, ni Petro ni Fajardo, los principales candidatos en las pasadas elecciones, hicieron absolutamente ninguna mención en sus programas, propuestas e iniciativas a la ciencia y la tecnología. Petro fue quien más se acercó, pero indirectamente dado que en una sola ocasión hizo alguna referencia a Colciencias. De suerte que si antes de las elecciones no hubo una declaración explícita del hoy jefe de Estado a la ciencia y la tecnología, por inferencia indirecta cabe concluir que la iniciativa salió de alguno de sus asesores. La inteligencia de Duque estriba en haberlo escuchado y haber seguido sus sugerencias.


Una preocupación pertinente, toda vez que el país está resagado de manera notable en este campo, ocupando, por demás el quinto lugar entre los paises que más invierten en ciencia y tecnologia en nuestra región, antecedidos con olgura por Brasil, Argentina, México y Chile. De hecho, Chile, es el segundo país con mayor impacto y citaciones en sus trabajos en Latinoamérica. Ahora bien, basta una mirada a las políticas de inversión chilenas para reconocer que la distancia entre este país y Colombia tiende a crecer. De esta suerte, si Colombia se desprende del pelotón de punta, sin ofender, quedaría al nivel de Perú, Costa Rica o Venezuela, y con ellos, del pelotón trasero de persecución, como se dice en ciclismo. En los cuadros comparativos es una costumbre omitir siempre el nombre de Cuba, que tiene la mejor educación de América Latina y algunos de cuyos desarrollos científicos estratégicos se acercan a los mejores en el mundo (como biotecnología, investigación clínica, software, por ejemplo).


De esta manera y ante el interés del nuevo Presidente, es indudable que muchas de las decisiones y acciones en política nacional son el resultado de demandas o exigencias de la Ocde. La sujeción o supeditación a esta organización es el precio de haber sido admitidos al “club de los mejores países y las mejores prácticas”. Hay que decir que muchas de las exigencias son mucho más avanzadas y desarrolladas de lo que las élites colombianas jamás llegaron a pensar; tal es el caso, por ejemplo, de las políticas sindicales.


Pues bien, en una primera interpretación, Duque estaría pensando en ciencia y tecnología más por invitación de la Ocde que por iniciativa propia; lo cual no es por sí mismo nada negativo.


Interpretaciones. Versión 2


La ciencia y la tecnología no han desempeñado, ni mucho menos, un papel importante en la historia de la nación colombiana. Ciertamente que existen nombres destacables: a nivel nacional, continental e incluso internacional. Pero todos y cada uno de ellos ha sido, hasta la fecha, el resultado de sus propios esfuerzos y capacidades antes que el producto de políticas de estado y de gobierno. Pues bien, una segunda interpretación apuntaría en la dirección de una auténtica preocupación conjunta por la ciencia y la tecnología, por el conocimiento y la investigación en general. Los académicos e investigadores necesitan fuentes de financiamiento, y a los indicadores macroeconómicos también les interesa tener y mostrar centros, institutos, grupos e investigadores de primer orden. Todo ello implica una radical transformación del aparato global de gestión del conocimiento. Va siendo un imperativo no escrito que cada vez más los rectores de las universidades tengan doctorado; va siendo una exigencia no reclamada que los doctorados deben poder incorporarse al sector público tanto como al sector privado. En diversas instancias esto ya está comenzando a suceder. Y siempre, es indudable a todas luces, que la existencia de doctores se corresponde directamente con el crecimiento económico, y el desarrollo humano y social de un país. Los diagnósticos son conocidos, con suficiencia, por unos y por otros.


Es más, existe cada vez más la conciencia de que tener doctorados no es suficiente, y ya diversas universidades han comenzado a abrir y a crear postdoctorados –la verdad, en ocasiones, más como un tema económico antes que como desarrollo del propio conocimiento. No importa. Son bienvenidos y necesarios los postdoctorados. Este es/sería tema de otro artículo.


Por demás, la eventual recreación de la Misión de Ciencia, Tecnología e Innovación es un fenómeno que conviene a todos, siempre y cuando los compromisos sean sinceros, y siempre y cuando suceda lo que jamás ha tenido lugar en materia de políticas públicas: un respeto sincero y abierto al conocimiento (la idea de competencias en la educación apunta, como ha sido ya dicho reiteradas veces, hacia el mercado laboral antes que hacia el desarrollo humano y social).


Digamos entonces, que hay una constelación propicia que beneficia tanto a académicos y científicos como a gobernantes y tomadores de decisión, para decirlo de manera clásica. Es lo que los gringos llaman: “The right man at the right place”. Los años acumulados de desencuentros y sospechas de lado y lado permiten, en un nuevo contexto nacional e internacional superar distancias y acercar intereses que benefician a todos.


La idea de base entonces, aquí, es que “se debe confiar en la gente, hasta que demuestren lo contrario”, para usar la expresión manida.


Interpretaciones: Versión 3


Una tercera interpretación puede ir en la dirección que indica que de parte del Estado pareciera haber una preocupación sincera por la ciencia y la tecnología en el contexto del postconflicto y la construcción de la paz. La dificultad de este argumento estriba en que en Colombia el Estado ha sido inexistente o imperfecto, particularmente de cara a políticas sociales y de conocimiento. Como es sabido, la primera vez que el presupuesto de educación ha llegado a ser superior al de defensa fue con el gobierno de Juan Manuel Santos, advirtiendo que no es que la diferencia sea verdaderamente grande. Existe un vínculo directo y necesario entre educación y producción de conocimiento e investigación. Aquella sienta las condiciones de posibilidad para estos. Duque sería, así, simplemente la expresión de un interés cuya epidermis es la cienciometría en toda la acepción de la palabra.


La cienciometría es la medición cuantitativa de la ciencia y el conocimiento, desde los propios académicos e investigadores (índice h) hasta las universidades que entran a participar en los más importantes rankings (el de Shanghai, el más prestigioso, y luego también The Times Higher Education, The Web of World Universities, el Center for Higher Education Development, Scimago, y varias más), pasando por la acreditación (nacional e internacional) de programas, y los escalafones de grupos de investigación, por ejemplo.


Las políticas sociales son hoy por hoy una sola y misma cosa con las políticas de educación y las políticas de ciencia y tecnología. Este constituye un conjunto de políticas públicas, si cabe la expresión. Este conjunto define las apuestas de un país y un gobierno en el marco de la sociedad de la información, la sociedad del conocimiento, la sociedad de redes, tres maneras diferentes de señalar a una misma dimensión.


En este campo, la mejor expresión, o el producto más acabado del desarrollo de una sociedad está definido, hoy por hoy, por la cuarta revolución industrial. La llamada genéricamente revolución 4.0. Pues bien, la cienciometría es una realidad inescapable. Existen rankings y escalafones de muchas cosas: hospitales, compañías de aviación, los mejores lugares para trabajar, tanques de pensamiento, y muchos más, y no solamente de universidades. Sin embargo, en cualquier caso, el elemento transversal a todos ellos es el conocimiento, la investigación. Y esto se expresa de muchas maneras: artículos científicos, libros en editoriales reconocidas, registros, patentes.


Amanecerá y veremos


No hay que olvidar nunca que en un mundo diferente de suma cero, esto es, un mundo alta y crecientemente interdependiente, la política es geopolítica. El sistema capitalista se encuentra en un cuello de botella, y no está seguro de cómo salir de allí. Diversas propuestas, diversos pronósticos han sido elaborados, pero ninguna parece ser suficiente o necesario. Sin embargo, un denominador común a las propuestas de salida es el reconocimiento explícito de la ciencia y la tecnología. Sin embargo, este mismo argumento es el que alimenta varias de las propuestas de tipo alternativo a esta civilización, al sistema de libre mercado. La ciencia y la tecnología adquieren su valoración en función de los horizontes de vida que avizoran, que constituyen, a los que apuestan y arriesgan. Es la afirmación y el posibilitamiento de la vida lo que confiere a la ciencia su validez y sentido. No simplemente el crecimiento del mercado, el consumo y el hiperconsumo, que es lo que esclaviza a los seres humanos.


Naturalmente que caben otras interpretaciones. Pretender lo contrario es ingenuo. En cualquier caso es indudable que de ser auténticas las intenciones de Iván Duque, deberán implementarse en los primeros cuatro o seis meses de su gobierno, a más tardar. De lo contrario la sospecha puede aumentar, la desesperanza puede nacer, los recelos y las distancias pueden aumentar. Una parte de la comunidad académica ya ha empezado diversas reuniones en la dirección mencionada. Seguramente lo mismo estará sucediendo del lago del Gobierno. En los próximos cuatro a seis meses “amanecerá y veremos”.


¿Aumentará el presidente Duque la inversión al 1 por ciento del PIB, como fue siempre la aspiración de la comunidad científica? No hay que olvidar que la deuda pública de Colombia asciende ya al 57 por ciento del PIB. ¿Creará el Ministerio de Ciencia y Tecnología? Sería deseable, sin olvidar los problemas de corrupción que entrañó e implican la famosa ley de regalías. ¿Escuchará el gobierno nacional a la comunidad científica, y la tratará de par a par con respeto como en los mejores países de la Ocde? La policía y el ejército, por su parte y tal vez como una luz respecto a lo que viene, andan en una labor de seducción y atracción abierta de profesores e investigadores nacionales para llevarlos a sus escuelas, centros e institutos. Han comenzado, decididamente por la atracción o “captura” de profesores de universidades. Al interior de las propias Fuerzas Armadas y de la Policía hay personas que se están formando en los niveles más altos del conocimiento, con doctorados. Por inferencia, cabe entonces pensar que desde el gobierno de Iván Duque hay una lectura adecuada de las dinámicas en curso, las posibilidades y los horizontes.


Las cartas están echadas. ¿Se trata de una nueva partida, o de la continuación de una partida anterior, algo ya vieja?


Una nota final: la presunta buena actitud del hoy presidente Duque dista mucho de la tradición de su partido, el Centro Democrático. O bien, es quizás una muestra de preocupación. En efecto, como es sabido, Álvaro Uribe logró dividir al país en dos, y ciertamente tiene amplias bases populares entre la sociedad. Sin embargo, nunca, ni en sus ocho años de gobierno ni antes, ni después, hasta la fecha, ningún gran intelectual, académico, o personas de la cultura ha acompañado a Uribe y su equipo. Los dos únicos “intelectuales” que siempre lo acompañaron fueron Luis Carlos Restrepo, hoy prófugo de la justicia, y José Obdulio Gaviria, un personaje oscuro e intelectual de poca monta. ¿Será que el Centro Democrático, hoy en voz de Duque, desea atraer hacia sí a una parte de la comunidad científica y académica? ¿Y a través suyo a académicos y artistas? Mucha agua ha pasado bajo el puente… n

 

*Investigador. Profesor universitario.

 


 

Líneas generales para implementar una política de punta en ciencia y tecnología en Colombia

 

Una política de ciencia y tecnología en Colombia debería incluir los siguientes elementos:

• Creación y fortalecimiento de doctorados y fuerte apoyo a los mismos
• Vinculación de doctores (Ph.D.) al aparato productivo
• Investigación para el desarrollo de tecnologías vernáculas en el país
• Fuerte internacionalización de los doctores e investigadores en el país con apoyo a participación de eventos de primer orden internacional e invitación de destacados investigadores al país
• Reducción significativa de los impuestos a la importación de libros y a su misma edición
• Dedicar no menos del 1 por ciento del PIB a la ciencia y tecnología, con aumento gradual por gobierno de por lo menos medio punto porcentual
• Creación del Ministerio de Ciencia y Tecnología
• Elaboración de un plan decenal de polìticas de ciencia y tecnología a nivel nacional, departamental y municipal
• Creación estratégica de Centros e Institutos de investigación con vistas a un plan nacioanl, latinoamericano e internacional
• Apoyo decidido a las Academias colombianas (de Ciencias, de Historia, de Medicina, de la Lengua, de Pedagogía) para que haya puentes reales con las universidades, con el sector productivo y con la sociedad civil
• Como base y condición para todo esto: diseño de un plan nacional de desarrollo, con enfoque y prioridad sobre la vida, que garantice autonomía y soberanía nacional, como prenda sustancial para poder implementar un proyecto autónomo y de largo plazo en estos campos.

 

¿Fue antes el huevo o la gallina?, la física cuántica nos da la respuesta

Un equipo de físicos de la Universidad de Queensland y el Instituto NÉEL acaban de publicar un estudio donde resuelven esta incógnita

 La paradoja del ‘huevo o la gallina’ fue propuesta por primera vez por los filósofos en la antigua Grecia para describir el problema de determinar la causa y el efecto.

Ahora, un equipo de físicos de la Universidad de Queensland y el Instituto NÉEL ha demostrado que, en lo que se refiere a la física cuántica, tanto el huevo como la gallina son los primeros.


Jacqui Romero, del Centro de Excelencia de ARC para Sistemas de Ingeniería Cuántica explica que en la física cuántica, causa y efecto no siempre es tan sencillo como un evento que causa otro. “La rareza de la mecánica cuántica significa que los eventos pueden suceder sin un orden establecido”, dijo.


‘Orden causal indefinido’


“Tome el ejemplo de su viaje diario al trabajo, donde viaja en parte en autobús y en tren. Normalmente, tomarías el autobús y luego el tren, o al revés. En nuestro experimento, ambos eventos pueden ocurrir primero”, dijo Romero en un comunicado. “Esto se llama ‘orden causal indefinido’ y no es algo que podamos observar en nuestra vida cotidiana”.


Para observar este efecto en el laboratorio, los investigadores usaron una configuración llamada interruptor cuántico fotónico.


Fabio Costa, de la Universidad de Queensland, dijo que con este dispositivo el orden de los eventos -transformaciones en la forma de la luz- depende de la polarización.


“Al medir la polarización de los fotones a la salida del interruptor cuántico, pudimos mostrar que el orden de las transformaciones en la forma de la luz no estaba establecido”.


“Esta es solo una primera prueba de principio, pero a una escala mayor, el orden causal indefinido puede tener aplicaciones prácticas reales, como hacer las computadoras más eficientes o mejorar la comunicación”.


La investigación fue publicada en Physical Reviews Letters por la American Physical Society.

Gabriel Beltrán

Este escrito es una continuación del artículo “¿Qué es Anonymous?”, publicado en Le Monde diplomatique, edición Colombia Nº 174, febrero 2018. Se trata de un estudio sobre la sociedad del conocimiento y las políticas en torno al derecho a la información, que pasa por el conocimiento de redes y lenguajes informáticos.

 

Vivimos una auténtica revolución en varios órdenes en el mundo. Actualmente, como manifestación de un proceso acelerado y dinámico, en donde un cuerpo aún no termina de desplegar todo su potencial y sobre él emana otro, vivimos la tercera revolución industrial, la cuarta revolución industrial, la segunda revolución científica, la tercera revolución científica. La información, el procesamiento de la misma, y la computación se encuentran entre las tres más radicales revoluciones en la historia de la humanidad, después de la invención de la agricultura y de la imprenta. Sólo que la revolución de la información es demasiado reciente y apenas se están llevando a cabo las primeras reflexiones sobre el fenómeno.


Por primera vez la información y el conocimiento dejan de ser un bien privado, para convertirse en un bien común para toda la humanidad. Aunque aún quedan los rezagos de quienes pretenden controlar la educación, la información, el conocimiento. Por ejemplo, la producción de patentes, el registro del conocimiento, los debates en torno a la propiedad intelectual. Todo se gatilla a partir de internet.


Más allá de los rastros primeros de internet hasta Arpanet, como un proyecto militar, Internet fue originariamente la obra del Cern (Centro Europeo de Investigación Nuclear), y puede decirse que nace en los años 1980, específicamente con la creación de la WWW (World Wide Web), la que para 1991 es una realidad social y cultural. Razonablemente, allí comienza la sociedad de la información, y con ella, una inflexión fundamental en la historia de la humanidad.


El mundo de Internet


Primero nace el computador, y luego la computación, la que en general es el trabajo con bases de datos y procesamiento de información. Es lo que comienza a suceder en los años 1980/1990 con el tránsito de los computadores (desktop) hacia la World Wide Web.
Internet es simple y llanamente el televisor, si cabe, en el cual pueden verse canales, programas, series, documentales, noticias, por ejemplo. Lo importante, lo inteligente de internet es la web, y hasta la fecha se han desarrollado tres niveles de la misma, así:

 

• La web 1.0: Es básicamente un sistema de emisión de información, con información estática que está lista sólo para ser leída. Se crean las primeras, y posteriormente numerosas páginas personales (Home pages), generalmente privadas, y aparecen los primeros directorios como motores de búsqueda. La tecnología usada es básicamente Html (Hypertext Markpup Language), que es el lenguaje estándar para crear páginas web y aplicaciones, y FTP (File Transfer Protocol), que es el protocolo estándar de red para la transferencia de archivos. Grosso modo, cubre los años 1990 al 2000.
• La web 2.0: Es una red interactiva, con información dinámica, cuyo foco ya no es una organización determinada sino toda la comunidad (la sociedad), caracterizada por dinámicas en las que se comparten noticias, opiniones, gustos, y demás. Es en este momento que nace Wikipedia y todas las wikis; aparecen Java, Flash y XML (Extensible Markup Language), que es un lenguaje que crea códigos para documentos que permiten que tanto los humanos como las máquinas las puedan leer, y muchos otros lenguajes y protocolos. Todas las redes sociales habituales son hijas de la web 2.0, y proliferan por doquier los blogs de toda índole. Puede decirse que abarca los años 2000 a 2010, en términos generales.


• La web 3.0: Técnicamente, es el momento en el se imponen las tablets y los teléfonos inteligentes, así como los portátiles sobre los computadores de escritorio. Se transmite en vivo toda clase de eventos, surgen las aplicaciones inteligentes y, de manera significativa, nace la web semántica, para designar el uso natural de búsqueda por los usuarios de la web, en la que humanos y máquinas trabajan en colaboración mutua. En términos generales, abarca el período 2010 al 2020, y aparecen las primeras bases de datos semánticas. Las tecnologías de base son RF, Rdfs y OWL, que son básicamente modelos de datos de metadatos, y el trabajo con ontologías, que son la forma como se elaboran y se trabajan con taxonomías y redes de clasificación definiendo estructuras de conocimiento en varios dominios.

 

En los días que cursan nos encontramos en la discusión acerca de la futura web 4.0, que está prevista para ser una realidad a partir de los años 2020, aproximadamente. Consistirá, en lo fundamental, de una web que muestra información (que se le solicita) a una web que ofrece soluciones (como pedir cita al médico, buscar el mejor colegio, reservar un tiquete para un evento, y demás).

Asimismo, desde ya se trabaja en la web 5.0, que ha sido llamada como la web emocional, consistente en la interacción entre humanos y computadoras.

De manera puntual, las anteriores webs han sido llamadas de la siguiente manera: internet (web) de contenidos, internet de comunicaciones, internet de contextos, internet de las cosas (IoT) e internet de pensamientos. Los ritmos son verdaderamente acelerados. Esta es, sin la menor duda, una de las más agudas fronteras del conocimiento.

 

La web profunda

 

Como muchas otras realizaciones de los seres humanos, la web profunda nace sin ninguna conciencia de lo que sucedería posteriormente. La idea surge a partir de un artículo publicado por tres científicos del Laboratorio de Investigación Naval de los E.U., en el que proponían esconder las rutas de información, de tal suerte que sencillamente los usuarios de internet pueden acceder a información sin revelar su identidad, ya sea en ningún servidor de las web o en los routers con los que navegan.
Como resultado, la web profunda (deep web, en inglés) nace en Octubre del 2003. La motivación inicial era poner en marcha un mecanismo de seguridad en el sentido de que la policía podía obtener información de delatores sin que estos corrieran peligro, o explorar sitios de la web sin que se supiera que estaban siendo espiados, por ejemplo.


¿Qué es la web profunda?


Llamada en ocasiones como la web oscura, la web oculta, la web invisible, el nombre genérico es el de “web profunda”. Se trata de una frontera, ampliamente inexplorada, de información. La web profunda es una capa de internet mediante la cual es posible buscar información manteniendo el anonimato, algo que no es posible en la superficie de la web. La inmensa mayoría de la información existente en internet se encuentra en la capa profunda (a veces llamada igualmente como internet escondido); se ha calculado que internet (superficial) constituye alrededor del 5 por ciento de la web. Cerca del 95 restante es web profunda.


Existen dos mitos acerca de internet, pero ambos coinciden en una misma afirmación. Al nivel superficial (WWW), existe la creencia de que la mayoría de la información es superficial, si no, equívoca. Es notablemente la afirmación en la comunidad de médicos o de profesores, acerca del “doctor Google”. Aún prevalece la idea que Wikipedia es espuria, y la mayoría de la información allí contenida carece de validación técnica, por no decir científica.


En el mismo sentido, existe el mito según el cual la mayoría de información en la web profunda es acerca del crimen organizado, mucho vejamen y cosas semejantes.


Pues bien, lo cierto es que en la web hay una amplia corriente de verdades falsas (“post-verdades”), mucha opinión (“opinionitis”), y también que una buena parte de gente mayor de edad es escéptica, crítica y negativa acerca de las redes sociales, internet y toda la sociedad de la información digital (U. Eco con sus críticas a las redes sociales e internet era un buen ejemplo de ello). Es verdad que hay mucha pornografía (páginas xxx), y mucha banalidad. Pero los estudios demuestran que esta es la amplia minoría de la información en la web.


Asimismo, es verdad que en la web profunda hay mucha información propia del mundo del crimen y la oscuridad, y que pueden encontrarse allí prácticamente lo que se desee en el mundo, incluyendo lo más escabroso posible. Sin embargo, sorpresivamente, los estudios evidencian que la mayoría de la información en la profunda puede clasificarse, en escala descendente, de la siguiente manera: empresas y economía (business and economy), computadores e internet (ci), educación (ed), sociedad y cultura (sc), referencias (re), noticias y medios (nm), ciencia (si), salud (he), regional (rg) (estos tres en el mismo nivel), gobierno (go), recreación y deportes (rs), artes y humanidades (ah), y finalmente entretenimiento (en). Al final, en una categoría, otros (ot).


La superficie de la web está vinculada por miles de millones de páginas estáticas Html, pero una cantidad significativamente mayor de información con bases de datos que no son accesibles desde los motores habituales de búsqueda. Para la web profunda hay que acceder a través de otros motores de búsqueda, tales como Tor, The WWW Virtual Library, Surfwax, IceRocket, Stumpedia, Freebase, TechDeepWeb, Onion.City, Onion.to, Not Evil, SilkRoad, Memex Deep Web Search Engine, Disconnect, y varios otros. Sin embargo, hay que advertir que algunos de estos motores no garantizan totalmente el anonimato. Se requiere una experticia y un cierto conocimiento para saber cuáles son enteramente confiables.


Bajar e instalar alguno de estos motores de búsqueda es una operación que toma menos de tres minutos.


¿Qué hay en la web profunda?


Contra todas las apariencias y mitos, en ella encontramos una fuente maravillosa de información. Esto es, una fuente para crear, buscar y procesar información. En este nivel, principalmente por razones de seguridad, se encuentran la mayoría de repositorios, los informes científicos (no simplemente los artículos y revistas), los historiales médicos, la información sobre suscripciones, los recursos gubernamentales y de estado en general, en fin, los documentos legales.


Naturalmente, también se encuentran allí el tráfico de drogas, información ilegal en toda la línea de la palabra, el registro y memoria de todas las comunicaciones privadas por cualquier canal, en fin, incluso las protestas políticas.


Prácticamente cualquier operación es posible en la web profunda, desde conseguir pasaporte de cualquier país, asesinos a sueldo, libros prohibidos, informes clasificados, intercambiar mercancías, y comprar cualquier mercancía que se desee, por ejemplo.


Pero hay que saber navegar por la web profunda. Si en el nivel superficial un link conduce a otro, y este a otro más, de suerte que alguien que busca X termina finalmente encontrándose con Y, por ejemplo, en la navegación por la web profunda es indispensable saber qué se busca, pues de lo contrario resulta terriblemente aburrida, particularmente para quienes esperan links e hiperlinks como sucede con Google, Amazon, Yahoo, Bing o Safari, por ejemplo. La defensa del anonimato es indispensable, con todo y los riesgos y juegos que implica. Es aconsejable que quien se introduzca por esta ruta por primera vez haya idealmente adquirido antes una mentalidad de hacker. La mentalidad que, hoy por hoy, es la mentalidad específica de la sociedad del conocimiento. Mentalidad de hacker con valores morales (¡y políticos!) firmes.


De manera específica, una mentalidad tal hace referencia a cualquier cualidad menos a la pereza mental; en consecuencia, el espíritu crítico y la constancia son elementos propios que caracterizan a quienes no solamente son pasivos ante internet, sino, mejor aún, quienes son activos frente a la información. De manera filosófica, el hacker forma parte del hacktivismo, esto es, ese movimiento que se define por no dejarse bloquear por información secreta, clasificada, cerrada, y que cree que la información es un bien para la humanidad y que las sociedades tienen derecho a estar informadas, a saber y a tomar decisiones consecuentemente.


Son muchas las acciones posibles y reales de los hackers, y ese sería el objeto de un texto aparte.


El hecho es que, análogo a lo que sucede en la web superficial, en la web profunda la información crece a ritmos muy acelerados, y las fuentes de datos se multiplican igualmente. En consecuencia, son numerosos los estudios destinados a mejorar la cualidad de la información en la web oculta.


Tipos de información, tipos de procesamiento de datos


Los motores de búsqueda de internet (Google, Bing, etc.) sólo pueden identificar páginas estáticas (Html) y no páginas dinámicas de la web, que son justamente las bases de datos de la web profunda. Existen dos tipos de datos en esta web: estructurados y no estructurados. Aquellos se encuentran en bases de datos que han sido elaboradas por diversas organizaciones alrededor del mundo. Los datos no-estructurados sólo se puede acceder a ellos a través del link *.onion, por ejemplo.


En el acceso a la web profunda, los usuarios deben someter búsquedas de información a través de interfaces de búsqueda, a fin de acceder a la información existente o disponible. A la solicitud de una información o datos, el usuario recibe en respuesta un gran número de páginas. La minería de datos no funciona en los niveles de la web oculta. En la actualidad, la investigación sobre internet tiene como uno de sus vértices la construcción de mecanismos interactivos o verticales en la web profunda.


Los E.U. han desarrollado un proyecto llamado Memex, desarrollado por Darpa (Defense Advanced Research Projects Agency), que busca quebrar el anonimato de los usuarios de la web profunda, específicamente la de quienes usan el motor TOR.


Mientras que en la internet superficial los datos de búsqueda están disponibles mediante URLs (Uniform Resource Locator; sencillamente, una dirección en internet), en la web profunda los datos están guardados en interfaces de búsqueda. Cada vez que se busca alguna información hay que empezar desde cero, dado el sistema de organización de la web profunda.


De manera puntal, la información en la web superficial se busca (crawling); en la web profunda esa información se le solicita a las bases de datos (query). Dos formas de procesamiento perfectamente distintas. Así, las solicitudes en la web profunda son estructuradas y no-estructuradas.


La web profunda, acción social y acción política


El uso de internet está perfectamente asociado a que la personalidad privada y la personalidad pública estén totalmente asociadas. No existe ninguna distinción entre privacidad e imagen pública, o entre intimidad e información pública. Una manera ingenua de acercarse al tema es a través del habeas data, pero la verdad es que las legislaciones al respecto presentan muchos vacíos. Los escándalos recientes de Google Analytics en Inglaterra con Facebook ponen en evidencia un muy serio problema.


Pues bien, la web profunda existe para que sea posible una separación entre la personalidad privada y la búsqueda y exploración de información. Nada de lo que se haga en la web profunda puede estar asociado con la identidad de cada quien en el mundo real, a menos que la persona desee lo contrario. La defensa de la privacidad no es un asunto menor, y la verdad es que mediante el Machine Learning, el Deep Learning, y numerosos algoritmos sofisticados, las grandes empresas de la información –Amazon, YouTube, Google, Facebook y Apple– (a los que recientemente hay que sumar, entre otros, a Samsung, Huawei, Microsoft, IBM; Sony y Panasonic), acumulan información de los ciudadanos cuyo destino jamás es conocido. No hay que olvidar que el Departamento de Estado de los E.U. declaró a Facebook y a Google como empresas de interés estratégico nacional. Sin ambages, la pretensión de las corporaciones y los estados es la de acumular, procesar y usar a su antojo la información que los ciudadanos libremente ponen al descubierto.


Hay un problema de lado y lado, como se aprecia.


La lucha civil, política y ética es hoy en día la lucha por la libertad de la información, por el respeto a la intimidad y la individualidad, pero como un asunto común, público, y no solamente pertinente para cada quien.


La web profunda es el canal a través del cual se ponen de manifiesto documentos sobre la injusticia en determinados países o prácticas nefastas por parte de algunas compañías. Siempre puede suceder que el trabajo con información llegue a afectar aquello que se denomina “seguridad nacional”. La historia de Anonymous, Wiileaks y muchos otros movimientos es ilustrativa al respecto.


Hay gobiernos que prohíben el uso de Facebook o de Twitter, por ejemplo, para divulgar protestas sociales. El uso entonces de la web profunda resulta vital para acciones de denuncia, información, educación y organización.


Existe una enorme cantidad de datos y de información en internet. Vivimos, literalmente, una era de luz. Pero debe ser posible acceder y procesar dicha información. Mayor información se traduce en mayores grados de libertad, y menos información da lugar a injusticias, inequidades, asimetrías peligrosas en la sociedad. La libertad y las garantías de vida son directamente proporcionales a la información en general que se dispone.


En condiciones de una sociedad, un Estado y una economía y sistemas militares y de policía panópticos, el anonimato garantiza el derecho a la libre opinión, la libertad de acción (digital), la libertad de decisiones y organización. Las consecuencias de la web profunda no son pocas.
Los movimientos sociales y políticos deben poder conocer lo que es la web profunda, y saber usarla. Deben poder establecer conexiones entre sí, cuidando la seguridad de las organizaciones y de sus miembros. La acción colectiva es hoy por hoy acción colectiva con información, conocimiento y mucha educación y ciencia. La dialéctica entre la web superficial y la web profunda debe ser de tal modo que se haga un uso óptimo de la información. Sin más, las organizaciones sociales y políticas, si se ponen al día en materia de conocimiento, deben poder conocer y trabajar con la web profunda. Es un asunto básico de inteligencia organizacional.


En dos palabras, a mayor y mejor información, más libertad, autonomía y vida. En eso exactamente consiste todo el debate en torno al deseo, de unos, de controlar internet; y de otros, por hacer común la información existente. Acaso la expresión puntual del problema, se denomina: democracia digital.

 

Bibliografía (selecta)

Ehney, R., Shorter, J. D., (2016). “Deep web, dark, web, invisible web and the post isis world”, en: Issues in Information Systems, Volume 17, Issue IV, pp. 36 – 41
Grossman, L., Newton-Small, J. Roy, J., Stampler, L. (2013). “The Deep Web”, en: Time International (South Pacific Edition), Noviembre 11, 08180628, Vol. 182, Fascículo 20
He, B., Patel, M., Zhang, Z., y Chang, K Ch.-Ch., (2007). “Accessing the Deep Web. Attempting to locate and quantify material on the Web that is hidden from typical search engines”, en: Communications of the ACM, Mayo, vol. 50, No. 5, pp. 95-101
Huang Q., Li, Q., Li, H., Yan, Z., (2012). “An Approach to Incremental Deep Web Crawling Based on Incremental Harvest Model”, en: Procedia Engineering 29, pp. 1081 – 1087
Tapia, M. G., Shorter, J., (2015). “Into the depths of the internet: the deep web”, en: Issues in Information Systems, Volume 16, Issue III, pp. 230 - 237

 

*Investigador. Profesor universitario.

Virtual adicción. ¿Es un mito la adicción a los teléfonos móviles?

La psicología trata de investigar los comportamientos potencialmente adictivos en el uso de aplicaciones y juegos. No es fácil establecer patrones a la hora de hablar de ‘adicción’.

Un millón de personas hacen o han hecho terapia a través de Talkspace, una de las apps de moda entre pacientes que buscan ayuda, psicoterpeutas que buscan clientes e inversores que buscan una startup en la que poner su dinero: el año pasado levantó 31 millones de dólares entre fondos de capital riesgo, quienes estiman el valor de esta compañía neoyorquina en unos 130 millones de dólares. Talkspace funciona como un servicio de mensajería instantánea que reúne a pacientes y terapeutas; quienes la usan pueden enviar mensajes todos los días y a cualquier hora a su terapeuta, que suele responder una o dos veces al día. En caso de necesidad, se puede agendar una videollamada entre especialista y paciente. Todo desde 49 dólares por semana.

 

Aparte de la terapia genérica, Talkspace tiene solo dos especialidades diferenciadas. Una es la terapia de pareja porque los fundadores de la compañía montaron el negocio después de salvar su matrimonio haciendo terapia —si no tienes una historia, no tienes una startup—. La otra única especialidad de terapia online es para retomar el control de tu vida online; Social Media Dependency Therapy: “El primer programa de su clase diseñado para ayudarte a controlar tu uso y tus reacciones a Facebook, Instagram, Twitter y más”.


Se calcula que miramos el móvil unas 150 veces al día y que, a diario, la población adolescente pasa unas seis horas y cuarenta minutos delante de una pantalla. Sí, seis horas y cuarenta minutos. Las redes sociales se tragan buena parte del pastel. Según el Estudio Anual de Redes Sociales IAB 2018, podemos entregar una hora y media al día a Whatsapp, y más de una hora a YouTube o a Facebook. Otras apps menos extendidas son igual de absorbentes: Musically, la app de coreografías caseras, puede retenernos durante una hora y doce minutos; Twitch, que retransmite partidas de videojuegos, ocupa una hora y nueve minutos diarios entre su afición; otra red social en ascenso, Vero, se acerca a los sesenta minutos diarios de dedicación entre su creciente comunidad; y la española 21 Buttons, consagrada a influencers de la moda, requiere 53 minutos diarios a sus fans . ¿Estamos ante verdaderas adicciones o, tal vez, usamos este término a la ligera?

Daria Kuss y Olatz López-Fernández, del departamento de Psicología de la Universidad de Nottingham Trent, investigan comportamientos potencialmente adictivos vinculados al uso de las nuevas tecnologías. “La adicción parece ser la relación entre una persona y un objeto —sustancia— o actividad —comportamiento— que progresivamente resulta ser más importante, a la vez que otros objetos o actividades lo son menos; hasta que llega un momento en que es lo prioritario y causa serios problemas a la persona que la sufre, pues se entra en un conflicto entre el consumo impulsivo y el intento de no consumir. Ello causa gran sufrimiento relacionado con la salud, la familia, los amigos, el trabajo, los estudios, etc.”, explica López-Fernández. Además, recalca, debe darse durante un periodo prolongado de tiempo, que se ha descrito como de seis a doce meses.

Tal como recuerda esta investigadora, “a mediados de los años noventa se empezó a utilizar el término 'adicción a internet' en el entorno clínico y académico, con la finalidad de referirse al comportamiento de carácter adictivo que presentaban algunas personas que utilizaban internet de forma excesiva, durante mucho tiempo, y de forma problemática, con sintomatología adictiva”. Más tarde, “el espectro de posibles comportamientos adictivos se extendió a las tecnologías en sí mismas —ordenadores, consolas, teléfonos móviles, etc.—, a internet y a otros comportamientos más concretos en internet —jugar con videojuegos, comunicarse por redes sociales, consumir contenidos pornográficos, comprar en tiendas en línea, apuestas en línea...—”, añade.

 

¿EXISTE LA ADICCIÓN A FORTNITE?

Desde hace meses millones de pantallas alternan despiadadas masacres multitudinarias y bailoteos burlones bajo un mismo título, Fortnite, el juego en red que domina el mercado desde hace meses, especialmente en su versión Battle Royale. La compañía creadora de este videojuego, Epic Games, mantiene una vertiginosa política de actualizaciones y parches que no dejan de ampliar y modificar este videojuego, esencialmente gratis. El resultado es que unos 40 millones de personas lo han probado y en algunos momentos ha llegado a congregar a dos millones de personas jugando al mismo tiempo durante horas y horas. A medida que el juego ganaba popularidad, los testimonios de familias preocupadas por las largas partidas de algunas criaturas se multiplicaban.
El alarmismo se encendió en los medios cuando se conoció el caso de una niña británica de nueve años que se había orinado encima para no interrumpir una de sus sesiones de hasta 10 horas seguidas de Fortnite. La pequeña está acudiendo a terapia para desengancharse del videojuego. ¿Es esto una adicción?

Durante años, la comunidad científica ha seguido alternando la investigación con la prudencia a la hora de considerar el abuso de nuevas tecnologías como una verdadera adicción. Solo hace apenas unas semanas, el 18 de junio, la OMS publicaba la última actualización de su clasificación de enfermedades, el ICD-11, que no se tocaba desde 1990. En esta nueva versión se recoge finalmente el trastorno por videojuegos como un posible diagnóstico dentro del apartado de comportamientos adictivos: “El trastorno de juego, predominantemente online, se caracteriza por un patrón de comportamiento de juego —"juego digital" o "videojuego"— persistente o recurrente, que se realiza principalmente a través de internet”, según la OMS.

 

No obstante, han de darse más características, como un control alterado sobre la frecuencia o el tiempo de juego, un aumento de la prioridad que se da al juego en detrimento de otras actividades diarias, una continuación del hábito a pesar de que desencadene consecuencias negativas, un deterioro del funcionamiento familiar, social, académico o laboral y, además, una perpetuación del problema durante al menos 12 meses.


72 MILLONES DE PERFILES ADICTOS A FACEBOOK


Hacen falta años de literatura académica sólida para que la OMS o la Asociación Americana de Psiquiatría —autora del venerado, y también discutido, CDI, el otro gran catálogo de enfermedades mentales— den el paso de añadir un nuevo diagnóstico a sus clasificaciones, pero antes, la investigación y la práctica clínica suelen detectar indicios problemáticos. Eso es lo que parece estar pasando con las redes sociales.


Hace cuatro años, un equipo chino sugirió las bases para definir usos potencialmente problemáticos de apps de microblogging como Twitter: según sus cálculos, entre un 4 y un 15 por ciento del alumnado universitario en China estaría haciendo un uso excesivo de Twitter y, especialmente, Weibo, su masivo equivalente chino. Facebook también levanta sus propias sospechas: en 2012 un equipo liderado por la noruega Cecilie Schou Andreassen sentó las bases de la Escala de Adicción a Facebook de Bergen —llamada así por la Universidad donde nació—, que hoy es un referente.

Uno de los más recientes estudios que ha usado esta escala, publicado en mayo, ha detectado un 3,3 por ciento de personas con rasgos de adicción a Facebook: es un porcentaje pequeño, pero si se confirma y se extrapola a la comunidad global de 2.200 millones de perfiles en Facebook, estaríamos hablando de más de 72 millones de personas virtualmente adictas a la red de Mark Zuckerberg en el mundo. Para el caso de Instagram, otro estudio recién publicado estima que puede haber un seis por ciento de instagramers con adicción moderada y un uno por ciento con adicción severa.

¿Por qué nos enganchan las redes sociales? Todavía no han entrado en el paquete de trastornos adictivos reconocidos, a diferencia del juego online, pero ¿es posible que la progresiva gamificación de estas webs y apps compartan rasgos comunes con el juego problemático online? ¿Pueden los likes y los retuits funcionar como recompensas cada vez más deseables, generar tolerancia como otras sustancias o comportamientos adictivos? Daria Kuss explica que “cada vez que recibimos un retuit, un like o tenemos un nuevo seguidor, una pequeña cantidad de dopamina está siendo liberada en el centro del placer del cerebro y ese tipo de placer, a lo largo del tiempo, es aprendido por el propio cerebro y si se vincula con el uso de redes sociales, cada vez requerirá más y más de ese vínculo, y esta es la razón por la que se desarrollan comportamientos potencialmente problemáticos”.


WHATSAPP, ALUCINACIONES Y PROZAC

 

Mientras pulimos nuestra relación con las redes sociales o los videojuegos, la comunidad sanitaria busca sus propios diagnósticos y experimenta con posibles tratamientos para los casos más extremos. ¿Alguna vez has jurado que tu móvil había vibrado en el bolsillo sin que nadie te hubiera mandado nada? Si pasamos, literalmente, una hora y media al día pendientes de las notificaciones de WhatsApp, nuestra mente espera su dosis de notificaciones cada cierto tiempo. Varios estudios llevan años analizando el 'síndrome de la vibración fantasma' y el 'síndrome de la llamada fantasma'. O si prefieres un refrito de anglicismo y neologismo, vibranxiety o ringxiety.


Se trata de dos tipos de alucinación bastante comunes: diferentes estudios han detectado una prevalencia del síndrome de la vibración fantasma, que afectaría a entre el 68 y el 89 por ciento de la población con teléfono móvil. La segunda alucinación afectaría menos: entre el 27 y el 54 por ciento de las personas creen oír tonos y notificaciones que no han sonado realmente. ¿Hasta qué punto podemos engancharnos a WhatsApp?

En 2016 el Indian Journal of Psychiatry publicaba el caso de una mujer de 26 años, diagnosticada con un trastorno límite de la personalidad, que se había vuelto adicta a WhatsApp: la consecuencia fue que acabó sometida a un tratamiento con fluoxetina (Prozac), ácido valproico (antiepiléptico y estabilizador del estado de ánimo) y lorazepam para dormir. Un cóctel de fármacos con un claro efecto secundario: la controversia. ¿Podremos identificar claramente los casos realmente problemáticos de malos usos de apps, juegos o redes sociales? ¿O corremos el riesgo de patologizar y psiquiatrizar conductas no alarmantes?

 “Above The Polar Bear” , la fotografía ganadora del gran premio, muestra el hábitat del oso polar durante el verano en el Área Marina Protegida de Lancaster Sound. Foto: Florian Ledoux/ Drone Awards 2018.

La manera de hacer fotografías ha cambiado. Este arte ha ido evolucionando gracias a los diversos avances tecnológicos. Uno de ellos ha sido la aparición de drones. Estas naves no tripuladas permiten conseguir imágenes a decenas de kilómetros del suelo. Con la ayuda de este invento, la forma de captar instantes ha vivido una auténtica revolución.

 

Antes los fotógrafos tenían que ingeniárselas para lograr una vista aérea perfecta, utilizando cometas o globos de hilo. Ahora, los drones permiten capturar una imagen desde el cielo solo con un botón: la aeronave sube hasta las nubes y dispara en el momento preciso.

 

El auge de estas naves ha creado una nueva categoría artística, imágenes realizadas a vista de pájaro. Sin embargo, solo las mejores consiguen formar parte de los Drone Awards, concurso que premia a las mejores fotografías realizadas con drones en 2018. La que ha alcanzado el primer puesto ha sido un oso polar caminando por una superficie que se encuentra en deshielo. Esta instantánea ha sido realizada por Florian Ledoux.

 

El resto de las imágenes ganadoras se han dividido en distintas categorías: Naturaleza, Abstracto, Gente, Deportes, Vida Salvaje y Urbano. Un nadador en pleno salto de trampolín, una mujer relajada en un campo de césped o un banco de peces huyendo de lo que parece un tiburón son algunas de las mejores fotografías captadas con el objetivo de un dron.

 

“La serpiente del tiempo” obtuvo el primer premio en la categoría Abstract, un camino en el medio del bosque cerca de Derna, el condado de Bihor, Rumania. Foto: Ovi D. Pop/ Drone Awards 2018.

 

“Der Kratera” fue tomada en Landmannalaugar, las tierras altas de Islandia. La imagen muestra un volcán extinto, todavía se puede ver la apertura del cráter. Foto: Florian Ledoux/ Drone Awards 2018.

Un Iceberg extrañamente formado, visto desde el cenit. La foto es parte de mi colección “90 ° Groenlandia” y fue tomada con un dron DJI Inspire 1 Pr. Foto: Stephan Fürnrohr/ Drone Awards 2018.

 

“El responsable papa Garial con sus bebés”, el Garial -Gavialis gangeticus- está en peligro crítico de extinción. Esta imagen fue tomada en Santuario de vida salvaje de Chambal en La India. Foto: Stephan Fürnrohr/ Drone Awards 2018.

 

“Núcleo”, un bote “talla” las frías aguas de Alaska. Parece como si se moviera a través de una sábana de tela. Foto: Casey McCallister/ Drone Awards 2018.

 

“La Gran Sombra”, el autor esperó 2 largos días para obtener una imagen a tamaño natural de una jirafa. El ángulo de disparo y la hora del día fueron muy importantes para obtener esta sombra perfecta de tamaño natural. En una mirada sentirás que la sombra es la jirafa real, pero en realidad es de otra manera. Foto: Thomas Vijayan/ Drone Awards 2018.

 

“Silvia” , el verano se aproxima, la hierba crece en los campos, el primer calor, la naturaleza se despierta, todo es verano. Foto: Davide Lopresti/ Drone Awards 2018.

 

“Caos”, un día temprano y por la mañana en el mercado de Corabastos Bogotá. Colores y texturas de un caos contenido de personas, camiones, automóviles, frutas, verduras, etc.Foto: Alex Visbal/ Drone Awards 2018.

 

“Sombras Patinadoras”, el pelotón de patinaje sobre ruedas se representa proyectando sombras sobre el hielo natural del Weissensee austriaco durante el maratón Open Dutch Championships de más de 100 kilómetros.Foto: Vincent Riemersma/ Drone Awards 2018.

“Mada’in Saleh”, una escena increíble. Este antiguo sitio arqueológico se llama Mada’in Saleh y se remonta al siglo I d. Tuve la suerte de poder pasar un corto tiempo de pie ante esta tumba real y los miles de años de historia que tiene. Es un honor compartir esta imagen contigo desde una perspectiva nunca antes vista.Foto: Gabriel Scanu/ Drone Awards 2018.

 

“Tiburón de Punta Negra”, un tiburón punta negra persigue una escuela de macabijos en desove frente a la costa de la isla de Abaco, Bahamas.Foto: Adam Barker/ Drone Awards 2018.

 

“Asís sobre las Nubes”, la maravillosa Basílica de San Francisco de Asís, al atardecer con la ciudad inmersa en la niebla.Foto: Francesco Cattuto/ Drone Awards 2018.
(Tomado de europa press)

Publicado enFotorreportajes
"No hay que tener miedo de los robots. Hay que tener miedo de los humanos usando esta tecnología de un modo no ético o destructivo"

Frente a los estudios que aseguran que se perderán millones de empleos en la próxima década por culpa de los robots, defiende que la tecnología, más que una amenaza, constituye una oportunidad si se pone al servicio de los trabajadores

"Mucha gente famosa especula sobre los riesgos de la Inteligencia Artificial, diciendo que puede ser peligrosa si escapa a nuestro control, si se hace más inteligente que los humanos. Pero todo eso es ciencia ficción"

La intelectual estadounidense Shannon Vallor es profesora en la Universidad de Santa Clara (California), en el corazón del Silicon Valley. Es una reputada investigadora de la ética y la filosofía de la tecnología. Trabaja muy cerca de donde vienen surgiendo muchos de los avances tecnológicos que han revolucionado la realidad económica y social.

La robotización y la automatización, por ejemplo, son dos procesos en los que se avanza en este área del este de Estados Unidos. Eso, pese a los muchos miedos que genera en la clase trabajadora la robotización del mundo laboral. Son recurrentes los estudios que aseguran que se perderán millones de empleos en la próxima década por culpa de los robots.

Como integrante de la dirección de la Fundación para la Robótica Responsable, Vallor se esfuerza en aclarar cómo la tecnología, más que una amenaza, constituye una oportunidad, siempre y cuando se ponga al servicio de los trabajadores."El problema está en no usar esas tecnología al servicio de los trabajadores", dice Vallor en esta entrevista con eldiario.es.

De ahí que anime a realizar reformas en el actual sistema económico, para que sea posible la convivencia de robot y trabajador en los empleos del futuro, y que inste a presionar a las empresas para que desarrollen "productos y aplicaciones más compatibles con los intereses de los humanos".

 

¿Qué piensa usted del miedo que genera la robotización, según muestran las encuestas, en buena parte de la clase trabajadora?

Es un tema complicado. Hay una gran probabilidad de que la robotización continúe significando la automatización de algunos sectores de la economía. En consecuencia, algunas categorías laborales van a estar en peligro. Aquí, lo problemático es el uso que se pueda hacer de esos miedos. Mucho de lo que se escucha puede llevar a la gente, si no está informada, a pensar que vamos a tener robots que van a tomar todos los trabajos que hoy hacen los humanos.

Eso no es realista, al menos en las próximas dos décadas y probablemente para muchas más. Los avances en robótica y en inteligencia artificial son reales e impresionantes pero no están teniendo lugar tan rápido como mucha gente cree. Hay muchos límites a la hora de asignar tareas a esas máquinas y de determinar qué son capaces de hacer.

 

¿La robotización no es tan peligrosa para los trabajadores?

Desde un punto de vista laboral, no se puede decir que no haya de qué preocuparse. Pero tampoco hay que exagerar la amenaza.

 

¿Hasta qué punto le preocupa el uso político que puede darse a los miedos que generan la robotización y la inteligencia artificial?

Me preocupa mucho dejar claro que no es la tecnología la que va a suponer una amenaza para los trabajadores. Es el sistema económico, sus incentivos y los poderes económicos, los que controlan realmente cómo esa tecnología se va a utilizar.

Hay muchos modos en los que los robots y la inteligencia artificial pueden mejorar las condiciones laborales, acabando incluso con los trabajos más peligrosos, aburridos, degradantes o sucios. Hay muchas tareas por las que se paga a gente para que se expongan. Estarían mejor sin hacerlas, haciendo otra cosa. Diseñar máquinas para hacer esos trabajos no es inherentemente malo. Hay mucha confusión en la opinión pública cuando hay encuestas sobre el miedo a las máquinas.

Mucha gente famosa, como Elon Munsk, Stephen Hawking o Bill Gates, que no son investigadores de Inteligencia Artificial, han especulado o especulan sobre los riesgos de la Inteligencia Artificial, diciendo que puede ser peligrosa si escapa a nuestro control, si se hace más inteligente que los humanos. Pero todo eso es ciencia ficción. No estamos ni mucho menos cerca de que haya una inteligencia artificial comparable a la inteligencia de un humano. Ni siquiera se sabe cómo hacer algo así.

 

¿Dónde está el problema entonces?

No hay que tener miedo de los robots. Hay que tener miedo de los humanos usando estas tecnologías de un modo no ético o destructivo. El problema está en no usar esas tecnologías al servicio de los trabajadores. La clave está en que las máquinas estén al servicio de los trabajadores en lugar de tener como objetivo maximizar los beneficios y la eficiencia. Pero en un sistema económico donde esos son los únicos objetivos, muchas de las oportunidades para que los robots estén ahí para ayudar a los trabajadores y hacer sus trabajos más seguros, más disfrutables y de modo que se sientan más realizados, van a ser ignoradas. Todo esto debido a los intereses económicos, que van en contra de la gente.

 

¿Hay que cambiar el sistema para implementar esta otra idea de la tecnología?

No hay que cambiar todo el sistema para reformar las partes que no funcionan. Estamos hablando, en realidad, de la necesidad de un cierto cambio sistemático en la economía moderna. El sistema ahora mismo parece tan brutal que no parece posible ver cómo cambiarlo. Además de empujar hacia una reforma económica y política, algo que creo que es muy importante es pensar que hay formas del capitalismo, de hace 50 ó 60 años, que hacen posible la promoción de los intereses de los trabajadores. Hay ejemplos en varios países.

En Estados Unidos tuvimos un movimiento que llevó a la imposición de la semana laboral de 48 horas, la instauración de regulaciones sanitarias y de seguridad, la obligatoriedad de introducir pausas en el trabajo y las bajas. En el Siglo XX ha habido todo tipo de reformas que han cambiado el trabajo. El lugar de trabajo pasó de ser un lugar donde los trabajadores eran explotados y se abusaba de ellos a ser un lugar donde hay ahora una mayor protección. Desafortunadamente, en Estados Unidos, hemos ido ahora en la dirección opuesta respecto a esos avances, acabando con mucha de esa protección.

 

¿Qué más se puede hacer, más allá de empujar hacia una reforma del sistema?

También se puede presionar a las compañías tecnológicas para que desarrollen productos y aplicaciones que sean más compatibles con los intereses de los humanos. Se les puede presionar para que la tecnología sea concebida como una ayuda para los trabajadores, para que su diseño haga a los trabajadores sentirse más seguros, más felices y menos degradados y explotados por su trabajo. Ahora mismo, las compañías tecnológicas, en muchos países, han sufrido grandes golpes en su reputación. Y están trabajando para restaurar la fe del público en ellos y en el sector tecnológico. Muchas compañías, por esto mismo, están ahora moviéndose hacia el diseño de procesos y aplicaciones más éticos.

Por ejemplo, ahora, en el sector tecnológico, están promoviendo la idea de que los humanos no deben ser reemplazados por dispositivos de Inteligencia Artificial sino apoyados por estos sistemas. Pero no está claro si éste será el modelo que triunfe o si todas las empresas lo adoptarán. No se sabe si el trabajador mantendrá, por ejemplo, el sueldo de alguien asistido por un sistema de Inteligencia Artificial o si el empresario caerá en la tentación de echar al trabajador.

En Estados Unidos, hay un debate sobre si los populistas, como el presidente Donald Trump, sustituirán a la inmigración, objetivo de muchas de sus reformas, por los robots."Primero vinieron a por los inmigrantes. Luego vinieron a por los robots" es un reciente titular de la revista Foreign Policy. ¿Qué piensa usted?

Pienso que no hemos visto algo así todavía. De hecho, en 2017, el Secretado de Estado para el Tesoro, Steven Mnuchin, dijo básicamente que la amenaza de la robotización "no está ni siquiera en nuestro radar", según sus términos. Él cree que incluso dos décadas era una exageración, y que la amenaza de la robotización a los puestos de trabajo llegaría, tal vez, en 50 ó 100 años. Ésto es lo que la administración Trump dice al respecto. No están centrados, ahora mismo, en la automatización.

 

¿Por qué motivo?

Porque el populismo de Trump está principalmente inspirado por la xenofobia, y no por una sincera preocupación por los intereses de los trabajadores. De hecho, las políticas de Trump hasta ahora han sido bastante dañinas para los trabajadores. Creo que este tipo de populismo de Trump sólo es superficialmente favorable a los trabajadores. En realidad, en su sustancia, es anti-trabajadores. La reacción de Trump diciendo que los inmigrantes están tomando empleos de los estadounidenses está fundamentada en la xenofobia y en el racismo, más que en una verdadera preocupación por los trabajadores del país. Yo no creo que los robots vayan a entrar en esa retórica. Pero esto puede ocurrir en otros países.

En Los Países Bajos, en el puerto de Rotterdam, los sindicatos alertaron de que muchos trabajadores se inclinaban allí el año pasado a votar por el Partido de la Libertad del populista de ultraderecha Geert Wilders. Los líderes sindicales hablaban de enfado por la robotización del sector. Al menos así lo contó la agencia Bloomberg.

Estoy en contacto con numerosos académicos de Los Países Bajos, que trabajan ahora mismo sobre las implicaciones sociales que despiertan la robotización y la inteligencia artificial. En general, yo diría que Los Países Bajos es un país muy favorable a la robotización. Tienen más universidades centradas en tecnología que otros muchos países de similar tamaño. Pero cada país tiene una respuesta diferente a la robotización.

En Japón, por ejemplo, la robotización es algo que está siendo bienvenido. Porque no tienen, fundamentalmente, suficientes trabajadores para sustituir su mano de obra en una sociedad que está envejeciendo y que sigue siendo muy poco favorable a la inmigración. La respuesta a la robotización va a depender de muchos factores, como la situación económica del país, cómo es la situación del desempleo o si hay o no dificultades para ofrecer empleo a la gente. Ahí está la clave de que pueda haber resentimiento contra los robots, especialmente si hay clases de trabajadores que se vean afectadas.

 

¿Dónde es más probable que afecte la robotización?

Es más fácil ver que la automatización del trabajo tenga lugar en fábricas, pero también en la venta o en atención al cliente, como en los centros de llamadas. En muchos países, la venta y la atención al cliente son la primera categoría de empleo para gente sin educación universitaria o que, simplemente, están empezando en su vida laboral. Son trabajos típicos de estudiantes, por ejemplo.

En Estados Unidos, esto ocurre mucho en el sector de la venta. Si se elimina el empleo de personas en ese sector, se va a dificultar mucho la integración de mucha población en el mercado laboral. Se sabe que, cuando una persona tarda en conseguir su primer empleo, luego es muy difícil desarrollar una historia laboral sólida. Pienso que hay peligros asociados a la automatización de según qué sectores. Sin embargo, tampoco podemos determinar el impacto de la automatización, porque es algo relacionado con la cultura del consumidor.

 

¿A qué se refiere?

No sabemos en realidad cuánta demanda hay de gente queriendo interactuar con un robot, por ejemplo, en un centro de atención al cliente. En este sector, mucho depende de si el consumidor sabe que está interactuando con una máquina o una persona y de si la persona quiere o no tener esa interacción. Por ejemplo, se puede sustituir al personal de un restaurante por robots. Pero puede ser que la gente no responda positivamente a esa propuesta. Puede ser que esa experiencia para el consumidor resulte frustrante, debido a los límites de la tecnología. Este tipo de situaciones puede que ralenticen la automatización. Ser capaz de hacer una máquina que haga un trabajo no significa que eso sea una ventaja.

Domingo, 05 Agosto 2018 08:50

La Ciencia que financiamos y repagamos

La Ciencia que financiamos y repagamos

¿Devolvemos a la sociedad los resultados del sistema científico? Esta pregunta tiene dos posibles respuestas, que no opciones. Una respuesta larga, para aquellas que no conocemos de qué va el asunto, o la corta, para los que no lo conocen o no les interesa. Por economía lingüística, por escribir menos, empezamos a responder en primer lugar por la opción corta: por lo general, sí se devuelve a la sociedad lo generado por los científicos, eso sí, cobrando dinero por ello.

 

 

Los que seguimos leyendo parece que queremos reflexionar, analizar, cómo es posible que aquellos conocimientos generados con dinero público acaben en manos privadas, en empresas que después venden esos contenidos a las mismas instituciones públicas que lo han generado.

El negocio en el que se mueven muchos millones de euros es redondo, donde siempre gana la banca (sino de forma directa, sus filiales en el mundo de la edición y distribución de la ciencia). Voy a intentar contaros de forma breve cómo nos dejamos manejar.

La producción científica está en manos básicamente de instituciones públicas; instituciones de investigación, organismos públicos y universidades. Las privadas, las que investigan, no creáis que difunden dicho contenido, lo que en cierta manera pudiera entenderse como normal, si lo generan únicamente con dinero privado no van a compartirlo con la “competencia”. Estas investigaciones no salen de la nada, sino del mucho trabajo y esfuerzo de investigadores y de grupos de investigación que, o bien consiguen los fondos de proyectos financiados por organismos públicos, o bien de su actividad laboral cotidiana, y por lo tanto, se dedican a la investigación, ya que tenemos una nómina y un trabajo que nos lo facilita. No toda la investigación se realiza dentro de un proyecto de investigación. Los investigadores y profesores universitarios generan gran cantidad de producción científica, ya que de dicha publicación depende el desarrollo de su carrera profesional y algunos complementos retributivos.

Y aquí es donde viene el truco, donde el sistema ha conseguido envenenarlo, donde han logrado hacer bueno lo retorcido, donde conseguir “los dineros” sin invertir se ha convertido en un arte.

Los investigadores y profesores universitarios difunden sus contenidos –siempre que pueden, y en un gran número- en revistas de pago, revistas que no son de la institución donde trabajan, revistas que después la propia institución o el propio sistema de investigación debe pagar para conseguir, porque “evidentemente” se ceden los derechos a dicha revista. Es decir, investigaciones financiadas con dinero público, trabajadores con salarios públicos, ceden el conocimiento desarrollado en esas investigaciones a instituciones privadas, cediéndoles los derechos de explotación. ¿Somos tontos? Otra nueva pregunta con respuesta más compleja que la anterior.

Tal y como os decíamos, las publicaciones científicas no son un mero elemento de difusión de la Ciencia, sino que es la variable fundamental para analizar la valía, “la calidad” que decimos ahora, de la investigación y del investigador. Esto supone medirnos constantemente, evaluarnos de manera cortoplacista para determinar nuestra carrera profesional y para determinar si podemos conseguir los tramos de investigación. Y todos estos elementos son valorados por la Agencia Nacional de Evaluación de la Calidad y la Acreditación (ANECA), organismo estatal que funciona con normativa y legislación estatal. ¿Y qué parámetro utilizan? Utilizan como medida el factor de impacto, una medida que evalúa la calidad de las revistas por medio del análisis métrico de las citas bibliográficas obtenidas por los trabajos y que fue creada con un fin distinto al de la evaluación de la calidad. Las herramientas para valorar este factor de impacto son dos: Scopus de Elsevier y Web of Science de Clarivate. Dos empresas privadas donde, ¡qué curioso!, están presentes las revistas de la propia compañía (Elsevier). Herramientas que nos cuestan millones de euros el poder acceder a sus índices, y que además nos obligan posteriormente a pagar los contenidos por las revistas que ellas han determinado que son “de calidad”.

Financiamos la investigación con dinero público, los resultados en forma de artículos científicos son enviados a revistas de pago por acceso a los contenidos, que las revistas que se consideran importante son tomadas de una serie de herramientas privadas que controlan un buen número de estas revistas, y que el propio sistema español de ciencias “obliga” a publicar en dichas revistas para el desarrollo profesional de los investigadores. Puede llegar a pasar, y pasa, que una universidad tenga que pagar a una revista por los contenidos generados por un profesor de plantilla. Pagamos por la investigación, y repagamos por acceder a los índices de impacto y a los contenidos de las revistas.

Ahora ya podemos contestar a la pregunta de si somos tontos, y mi respuesta es que no (opinión muy personal y discutible, sobre todo al ser parte implicada que no contempla el autoinsulto como opción); lo que pasa es que todo este sistema está montado sobre un gran negocio y sobre un círculo vicioso que lejos de ser desinflado por lo público es potenciado. Como dijo un gran referente intelectual (no hay ironía en mis palabras) “Veo, veo, mamoneo”. ¡Que grande eres, Rosendo!

 

¿Cómo rompemos esta tendencia? ¿cómo devolvemos los resultados de la investigación a los investigadores, a todos?

Primero, recordando a los investigadores que sus intereses personales no pueden ser los prioritarios, que lo generado con dinero público debe revertir en el sistema público, y que no son libres para hacer lo que quieran con sus investigaciones. Este cambio de visión es fundamental.

Entender que deben poner a disposición de la comunidad científica los resultados de sus estudios, aportando de verdad en el “carácter acumulativo de la Ciencia”, lo que supone un intercambio de conocimientos. Newton señaló; “si he visto más lejos es porque estoy sentado sobre hombros de gigantes”. Hoy, seguramente, tendría que pagar por dichos contenidos y a otros no tendría acceso por los altos costes. Para ello, hemos de dar un empujón a los investigadores, buscar métodos alternativos a los estudios métricos para valorar e incentivar su labor profesional.

Segundo, cambiando el sistema de evaluación a todos los niveles, desde el europeo al autonómico, pasando por la financiación cambiando el sistema de evaluación a todos los niveles, desde el europeo al autonómico, pasando por la financiación estatal. Toda inversión pública debería estar sujeta a la obligación de difundirse por medio de revistas abiertas, de repositorios públicos, etc..., en plataformas que aseguren su disponibilidad para todas.

H2020, programa de financiación de la Ciencia de la Unión Europea, apuesta claramente por el acceso abierto (cuestión aparte es que los esfuerzos son escasitos), y el sistema español apuesta tímidamente por ello. Dicho sistema de evaluación debería comenzar, tal y como decimos, desde Europa, y que “chorree” por todos los estados miembros, para obligar a difundir públicamente los contenidos de investigación.


Tercero, y para España, “dinamitemos” intelectualmente la ANECA, volvamos a la evaluación tradicional, donde la evaluación de experto sea la piedra angular, y dejemos de medir tanto la calidad por parámetros estadísticos (dejemos la ANECA para otro día, ¿os parece?).

En definitiva, tenemos que hacer Política, un cambio legislativo integral que se enmarque en la lógica, fuera de los intereses del mercado y de las grandes empresas editoriales, cambio de políticas que debiera ser abanderado por la Unión Europea, quien cree un sistema general con subsistemas nacionales, donde se garantice que todo trabajo generado por asalariados o por financiación de lo público acabe en repositorios públicos o revistas de acceso abierto, sin pagos de cuotas de ningún tipo (ni por publicar ni por acceder), y generar una estructura en la cual aquellos trabajos más relevantes estén en repositorios más exclusivos, y que sea la presencia en dichos repositorios la que marque la calidad de la investigación y por lo tanto del investigador.

No estamos solos, existen plataformas que defienden esta tendencia, que apuestan por este cambio en la forma de difusión de la Ciencia (ejemplo claro es la Declaración de San Francisco, apoyada por importantes instituciones), en pensar que otra forma de hacer Ciencia es imprescindible para el desarrollo de la misma. Tenemos que ver la difusión de la Ciencia como una herramienta estratégica para el desarrollo de la sociedad, no un gasto, ni un coste, ni una carga, sino como una oportunidad.

 

¡Recuperemos el conocimiento! ¡No paguemos por las ideas!

Expertos de EU descubren por casualidad otras 12 lunas de Júpiter

Para confirmar su existencia se utilizaron telescopios en Chile, Hawái y Arizona.

  

Cuatrocientos años después de que Galileo utilizó su primitivo telescopio para hallar las primeras lunas en Júpiter, los astrónomos siguen descubriendo más. El reciente descubrimiento de otros 12 cuerpos satelitales alrededor del gigantesco planeta deja el total en 79, la mayor cantidad de lunas de cualquier planeta en nuestro sistema solar.

Los expertos buscaban objetos fuera de nuestro sistema solar el año pasado cuando orientaron sus telescopios a la cercanía de Júpiter, dijo Scott Sheppard, del Instituto Científico Carnegie en Washington. Detectaron una hilera de objetos merodeando cerca del enorme planeta gaseoso, pero no sabían si eran lunas o asteroides.

“No fue un descubrimiento repentino, sino que tardó un año determinar qué eran esos objetos”, explicó Sheppard, quien dirigió el equipo que hizo el descubrimiento. Resultó que eran lunas de Júpiter. El año pasado se confirmó la identidad de dos de ellas y ayer la de las otras 10.

Para confirmar su existencia se usaron telescopios en Chile, Hawái y Arizona.


Las lunas pasaron tanto tiempo inadvertidas porque son sumamente pequeñas, con un diámetro de uno o dos kilómetros, dijo Gareth Williams, del Centro de Planetas Menores del Instituto Astronómico, quien cree que Júpiter tiene incluso más de esas lunas diminutas que no han sido descubiertas.

“Simplemente no hemos observado esa área lo suficiente”, añadió Williams, quien contribuyó a confirmar las órbitas de las lunas.

Galileo detectó las cuatro lunas más grandes de Júpiter –Io, Europa, Ganímedes y Calisto– en 1610. El total actual incluye ocho que no han sido vistas en años recientes. Entre los otros planetas que más lunas tienen están Saturno con 61, Urano con 27 y Neptuno con 14. Marte tiene dos, la Tierra tiene una, Mercurio y Venus no tienen ninguna.

 

Cuerpo celeste extravagante

 

Una de esas diminutas lunas, de apenas un kilómetro de diámetro, fue descrita como una “verdadera extravagancia” por Sheppard. Es "probablemente la luna más pequeña conocida de Júpiter", agregó.

Los expertos la apodaron “la rara”, por su órbita inusual. Pero fue a la novia de Sheppard a quien se le ocurrió el nombre oficial: Valetudo, la bisnieta del dios romano Júpiter, diosa de la salud y la higiene.

Valetudo está en el anillo más distante de Júpiter, girando en dirección contraria a la rotación del planeta y en contra de las demás lunas. “Es como si estuviera yendo por una calle en sentido contrario”, señaló Sheppard.

“Esta es una situación inestable”, aseveró Sheppard. “Las colisiones frontales podrían desintegrar los objetos rápidamente y reducirlos a polvo”.

A esta rareza le lleva alrededor de un año y medio dar la vuelta a Júpiter. Las lunas internas tardan alrededor de un año en dar la vuelta a Júpiter, mientras que las externas el doble.

La hipótesis es que Valetudo y las lunas parecidas surgieron poco después de la formación del planeta. Probablemente al inicio Júpiter actuó como imán y atrajo toda la materia a su alrededor. Alguna de esa materia se coaguló y quedó dando vueltas, convirtiéndose en sus lunas.

Las ciencias como asunto de la revolución

En 1917, toda Rusia era un marasmo social, económico y político. Pero en el campo de la ciencia la cosa era distinta. Catalina II la Grande (1729-1796) había dejado unos pilares bien cimentados que trascendieron su muerte y sembraron sólidas bases, en las artes y en la ciencia. De un lado, crea el museo del Hermitage en San Petersburgo, funda la Academia de la Lengua Rusa, e instaura la Academia Real de las Artes. De otra parte, apoya de manera decidida el fortalecimiento de la Academia de Ciencias de San Petersburgo, fundada en 1724 por Pedro I.

Con el paso de las décadas tales pilares habían ganado cuerpo. De ahí que para el año 1917, las artes y la ciencia eran boyantes en la Rusia zarista; sí: en medio de la pobreza, la violencia, la guerra y el hambre. No solamente Rusia tenía poco que envidiarle al mundo, sino que, en muchas ocasiones, el mundo mismo miraba a Rusia como motivo de reflexión por la investigación y la creatividad allí existentes.

Los retos abiertos por los cambios políticos acontecidos en 1917 no fueron inferiores a los abiertos por el saber científico. La idea central de la revolución era que la ciencia debía practicarse como nunca antes había sucedido. Nuevas metodologías, nuevos lenguajes, nuevas ideas podrían tener lugar. De manera singular, la revolución de 1917 hizo un llamado a romper la disciplinariedad de las ciencias, y a adoptar enfoques cruzados, interdisciplinares. Y este nuevo enfoque logró resultados prontos y legó enseñanzas. En este texto nos acercamos a parte de los unos y de las otras.

China: Robot vence a 15 prestigiosos médicos en el diagnóstico de tumores cerebrales

Un sistema de inteligencia artificial chino ganó 2-0 a un equipo de quince prestigiosos médicos del país en una competición a dos rondas en las que tenían que diagnosticar tumores cerebrales y hematomas a pacientes enfermos, en un concurso organizado en el Tiantan Hospital de Pekín.

El sistema BioMind AI, desarrollado por el centro de investigación en inteligencia artificial para desórdenes neurológicos de ese hospital y por un equipo de la universidad Capital Medical University, hizo en quince minutos un 87 % de diagnósticos correctos (de un total de 225 casos), frente al 66 % que consiguió el equipo de doctores.

En cuanto a la predicción de hematoma cerebral, su precisión fue del 83 %, mientras que los médicos -procedentes de prestigiosos hospitales del país- acertaron en un 63 % de los casos.

En ambas pruebas el nivel de precisión de los humanos fue “bastante normal e inclusión mejor que la media de precisión que se consigue en hospitales ordinarios”, defendió Gao Peiyi, responsable del departamento de radiología del Tiantan Hospital, puntero en neurología y neurocirugía.

El robot ha sido entrenado durante los últimos diez años mediante el almacenamiento de decenas de miles de imágenes de enfermedades relacionadas con el sistema nervioso, lo que le hace capaz de diagnosticar enfermedades neurológicas comunes como meningioma y glioma con una tasa de precisión de más del 90 %.

El vicepresidente del hospital, Wang Yongjun, señaló que lo importante no es quién saliera ganador, porque “el concurso no pretende enfrentar a humanos con la tecnología sino ayudar a los médicos a aprender y mejorar mediante la interacción” con ella, especialmente a aquellos más “escépticos”.

Una de las doctoras participantes y que fue eliminada en la segunda ronda, Lin Yi, dijo que da la bienvenida al uso de la inteligencia artificial, a la que no considera un amenaza sino “una amiga”.

El jurado por su parte señaló que la inteligencia artificial nunca reemplazará a los profesionales, sino que funcionará de forma similar al uso que un conductor le da a un GPS.

(Con información de EFE)