Gabriel Beltrán

Este escrito es una continuación del artículo “¿Qué es Anonymous?”, publicado en Le Monde diplomatique, edición Colombia Nº 174, febrero 2018. Se trata de un estudio sobre la sociedad del conocimiento y las políticas en torno al derecho a la información, que pasa por el conocimiento de redes y lenguajes informáticos.

 

Vivimos una auténtica revolución en varios órdenes en el mundo. Actualmente, como manifestación de un proceso acelerado y dinámico, en donde un cuerpo aún no termina de desplegar todo su potencial y sobre él emana otro, vivimos la tercera revolución industrial, la cuarta revolución industrial, la segunda revolución científica, la tercera revolución científica. La información, el procesamiento de la misma, y la computación se encuentran entre las tres más radicales revoluciones en la historia de la humanidad, después de la invención de la agricultura y de la imprenta. Sólo que la revolución de la información es demasiado reciente y apenas se están llevando a cabo las primeras reflexiones sobre el fenómeno.


Por primera vez la información y el conocimiento dejan de ser un bien privado, para convertirse en un bien común para toda la humanidad. Aunque aún quedan los rezagos de quienes pretenden controlar la educación, la información, el conocimiento. Por ejemplo, la producción de patentes, el registro del conocimiento, los debates en torno a la propiedad intelectual. Todo se gatilla a partir de internet.


Más allá de los rastros primeros de internet hasta Arpanet, como un proyecto militar, Internet fue originariamente la obra del Cern (Centro Europeo de Investigación Nuclear), y puede decirse que nace en los años 1980, específicamente con la creación de la WWW (World Wide Web), la que para 1991 es una realidad social y cultural. Razonablemente, allí comienza la sociedad de la información, y con ella, una inflexión fundamental en la historia de la humanidad.


El mundo de Internet


Primero nace el computador, y luego la computación, la que en general es el trabajo con bases de datos y procesamiento de información. Es lo que comienza a suceder en los años 1980/1990 con el tránsito de los computadores (desktop) hacia la World Wide Web.
Internet es simple y llanamente el televisor, si cabe, en el cual pueden verse canales, programas, series, documentales, noticias, por ejemplo. Lo importante, lo inteligente de internet es la web, y hasta la fecha se han desarrollado tres niveles de la misma, así:

 

• La web 1.0: Es básicamente un sistema de emisión de información, con información estática que está lista sólo para ser leída. Se crean las primeras, y posteriormente numerosas páginas personales (Home pages), generalmente privadas, y aparecen los primeros directorios como motores de búsqueda. La tecnología usada es básicamente Html (Hypertext Markpup Language), que es el lenguaje estándar para crear páginas web y aplicaciones, y FTP (File Transfer Protocol), que es el protocolo estándar de red para la transferencia de archivos. Grosso modo, cubre los años 1990 al 2000.
• La web 2.0: Es una red interactiva, con información dinámica, cuyo foco ya no es una organización determinada sino toda la comunidad (la sociedad), caracterizada por dinámicas en las que se comparten noticias, opiniones, gustos, y demás. Es en este momento que nace Wikipedia y todas las wikis; aparecen Java, Flash y XML (Extensible Markup Language), que es un lenguaje que crea códigos para documentos que permiten que tanto los humanos como las máquinas las puedan leer, y muchos otros lenguajes y protocolos. Todas las redes sociales habituales son hijas de la web 2.0, y proliferan por doquier los blogs de toda índole. Puede decirse que abarca los años 2000 a 2010, en términos generales.


• La web 3.0: Técnicamente, es el momento en el se imponen las tablets y los teléfonos inteligentes, así como los portátiles sobre los computadores de escritorio. Se transmite en vivo toda clase de eventos, surgen las aplicaciones inteligentes y, de manera significativa, nace la web semántica, para designar el uso natural de búsqueda por los usuarios de la web, en la que humanos y máquinas trabajan en colaboración mutua. En términos generales, abarca el período 2010 al 2020, y aparecen las primeras bases de datos semánticas. Las tecnologías de base son RF, Rdfs y OWL, que son básicamente modelos de datos de metadatos, y el trabajo con ontologías, que son la forma como se elaboran y se trabajan con taxonomías y redes de clasificación definiendo estructuras de conocimiento en varios dominios.

 

En los días que cursan nos encontramos en la discusión acerca de la futura web 4.0, que está prevista para ser una realidad a partir de los años 2020, aproximadamente. Consistirá, en lo fundamental, de una web que muestra información (que se le solicita) a una web que ofrece soluciones (como pedir cita al médico, buscar el mejor colegio, reservar un tiquete para un evento, y demás).

Asimismo, desde ya se trabaja en la web 5.0, que ha sido llamada como la web emocional, consistente en la interacción entre humanos y computadoras.

De manera puntual, las anteriores webs han sido llamadas de la siguiente manera: internet (web) de contenidos, internet de comunicaciones, internet de contextos, internet de las cosas (IoT) e internet de pensamientos. Los ritmos son verdaderamente acelerados. Esta es, sin la menor duda, una de las más agudas fronteras del conocimiento.

 

La web profunda

 

Como muchas otras realizaciones de los seres humanos, la web profunda nace sin ninguna conciencia de lo que sucedería posteriormente. La idea surge a partir de un artículo publicado por tres científicos del Laboratorio de Investigación Naval de los E.U., en el que proponían esconder las rutas de información, de tal suerte que sencillamente los usuarios de internet pueden acceder a información sin revelar su identidad, ya sea en ningún servidor de las web o en los routers con los que navegan.
Como resultado, la web profunda (deep web, en inglés) nace en Octubre del 2003. La motivación inicial era poner en marcha un mecanismo de seguridad en el sentido de que la policía podía obtener información de delatores sin que estos corrieran peligro, o explorar sitios de la web sin que se supiera que estaban siendo espiados, por ejemplo.


¿Qué es la web profunda?


Llamada en ocasiones como la web oscura, la web oculta, la web invisible, el nombre genérico es el de “web profunda”. Se trata de una frontera, ampliamente inexplorada, de información. La web profunda es una capa de internet mediante la cual es posible buscar información manteniendo el anonimato, algo que no es posible en la superficie de la web. La inmensa mayoría de la información existente en internet se encuentra en la capa profunda (a veces llamada igualmente como internet escondido); se ha calculado que internet (superficial) constituye alrededor del 5 por ciento de la web. Cerca del 95 restante es web profunda.


Existen dos mitos acerca de internet, pero ambos coinciden en una misma afirmación. Al nivel superficial (WWW), existe la creencia de que la mayoría de la información es superficial, si no, equívoca. Es notablemente la afirmación en la comunidad de médicos o de profesores, acerca del “doctor Google”. Aún prevalece la idea que Wikipedia es espuria, y la mayoría de la información allí contenida carece de validación técnica, por no decir científica.


En el mismo sentido, existe el mito según el cual la mayoría de información en la web profunda es acerca del crimen organizado, mucho vejamen y cosas semejantes.


Pues bien, lo cierto es que en la web hay una amplia corriente de verdades falsas (“post-verdades”), mucha opinión (“opinionitis”), y también que una buena parte de gente mayor de edad es escéptica, crítica y negativa acerca de las redes sociales, internet y toda la sociedad de la información digital (U. Eco con sus críticas a las redes sociales e internet era un buen ejemplo de ello). Es verdad que hay mucha pornografía (páginas xxx), y mucha banalidad. Pero los estudios demuestran que esta es la amplia minoría de la información en la web.


Asimismo, es verdad que en la web profunda hay mucha información propia del mundo del crimen y la oscuridad, y que pueden encontrarse allí prácticamente lo que se desee en el mundo, incluyendo lo más escabroso posible. Sin embargo, sorpresivamente, los estudios evidencian que la mayoría de la información en la profunda puede clasificarse, en escala descendente, de la siguiente manera: empresas y economía (business and economy), computadores e internet (ci), educación (ed), sociedad y cultura (sc), referencias (re), noticias y medios (nm), ciencia (si), salud (he), regional (rg) (estos tres en el mismo nivel), gobierno (go), recreación y deportes (rs), artes y humanidades (ah), y finalmente entretenimiento (en). Al final, en una categoría, otros (ot).


La superficie de la web está vinculada por miles de millones de páginas estáticas Html, pero una cantidad significativamente mayor de información con bases de datos que no son accesibles desde los motores habituales de búsqueda. Para la web profunda hay que acceder a través de otros motores de búsqueda, tales como Tor, The WWW Virtual Library, Surfwax, IceRocket, Stumpedia, Freebase, TechDeepWeb, Onion.City, Onion.to, Not Evil, SilkRoad, Memex Deep Web Search Engine, Disconnect, y varios otros. Sin embargo, hay que advertir que algunos de estos motores no garantizan totalmente el anonimato. Se requiere una experticia y un cierto conocimiento para saber cuáles son enteramente confiables.


Bajar e instalar alguno de estos motores de búsqueda es una operación que toma menos de tres minutos.


¿Qué hay en la web profunda?


Contra todas las apariencias y mitos, en ella encontramos una fuente maravillosa de información. Esto es, una fuente para crear, buscar y procesar información. En este nivel, principalmente por razones de seguridad, se encuentran la mayoría de repositorios, los informes científicos (no simplemente los artículos y revistas), los historiales médicos, la información sobre suscripciones, los recursos gubernamentales y de estado en general, en fin, los documentos legales.


Naturalmente, también se encuentran allí el tráfico de drogas, información ilegal en toda la línea de la palabra, el registro y memoria de todas las comunicaciones privadas por cualquier canal, en fin, incluso las protestas políticas.


Prácticamente cualquier operación es posible en la web profunda, desde conseguir pasaporte de cualquier país, asesinos a sueldo, libros prohibidos, informes clasificados, intercambiar mercancías, y comprar cualquier mercancía que se desee, por ejemplo.


Pero hay que saber navegar por la web profunda. Si en el nivel superficial un link conduce a otro, y este a otro más, de suerte que alguien que busca X termina finalmente encontrándose con Y, por ejemplo, en la navegación por la web profunda es indispensable saber qué se busca, pues de lo contrario resulta terriblemente aburrida, particularmente para quienes esperan links e hiperlinks como sucede con Google, Amazon, Yahoo, Bing o Safari, por ejemplo. La defensa del anonimato es indispensable, con todo y los riesgos y juegos que implica. Es aconsejable que quien se introduzca por esta ruta por primera vez haya idealmente adquirido antes una mentalidad de hacker. La mentalidad que, hoy por hoy, es la mentalidad específica de la sociedad del conocimiento. Mentalidad de hacker con valores morales (¡y políticos!) firmes.


De manera específica, una mentalidad tal hace referencia a cualquier cualidad menos a la pereza mental; en consecuencia, el espíritu crítico y la constancia son elementos propios que caracterizan a quienes no solamente son pasivos ante internet, sino, mejor aún, quienes son activos frente a la información. De manera filosófica, el hacker forma parte del hacktivismo, esto es, ese movimiento que se define por no dejarse bloquear por información secreta, clasificada, cerrada, y que cree que la información es un bien para la humanidad y que las sociedades tienen derecho a estar informadas, a saber y a tomar decisiones consecuentemente.


Son muchas las acciones posibles y reales de los hackers, y ese sería el objeto de un texto aparte.


El hecho es que, análogo a lo que sucede en la web superficial, en la web profunda la información crece a ritmos muy acelerados, y las fuentes de datos se multiplican igualmente. En consecuencia, son numerosos los estudios destinados a mejorar la cualidad de la información en la web oculta.


Tipos de información, tipos de procesamiento de datos


Los motores de búsqueda de internet (Google, Bing, etc.) sólo pueden identificar páginas estáticas (Html) y no páginas dinámicas de la web, que son justamente las bases de datos de la web profunda. Existen dos tipos de datos en esta web: estructurados y no estructurados. Aquellos se encuentran en bases de datos que han sido elaboradas por diversas organizaciones alrededor del mundo. Los datos no-estructurados sólo se puede acceder a ellos a través del link *.onion, por ejemplo.


En el acceso a la web profunda, los usuarios deben someter búsquedas de información a través de interfaces de búsqueda, a fin de acceder a la información existente o disponible. A la solicitud de una información o datos, el usuario recibe en respuesta un gran número de páginas. La minería de datos no funciona en los niveles de la web oculta. En la actualidad, la investigación sobre internet tiene como uno de sus vértices la construcción de mecanismos interactivos o verticales en la web profunda.


Los E.U. han desarrollado un proyecto llamado Memex, desarrollado por Darpa (Defense Advanced Research Projects Agency), que busca quebrar el anonimato de los usuarios de la web profunda, específicamente la de quienes usan el motor TOR.


Mientras que en la internet superficial los datos de búsqueda están disponibles mediante URLs (Uniform Resource Locator; sencillamente, una dirección en internet), en la web profunda los datos están guardados en interfaces de búsqueda. Cada vez que se busca alguna información hay que empezar desde cero, dado el sistema de organización de la web profunda.


De manera puntal, la información en la web superficial se busca (crawling); en la web profunda esa información se le solicita a las bases de datos (query). Dos formas de procesamiento perfectamente distintas. Así, las solicitudes en la web profunda son estructuradas y no-estructuradas.


La web profunda, acción social y acción política


El uso de internet está perfectamente asociado a que la personalidad privada y la personalidad pública estén totalmente asociadas. No existe ninguna distinción entre privacidad e imagen pública, o entre intimidad e información pública. Una manera ingenua de acercarse al tema es a través del habeas data, pero la verdad es que las legislaciones al respecto presentan muchos vacíos. Los escándalos recientes de Google Analytics en Inglaterra con Facebook ponen en evidencia un muy serio problema.


Pues bien, la web profunda existe para que sea posible una separación entre la personalidad privada y la búsqueda y exploración de información. Nada de lo que se haga en la web profunda puede estar asociado con la identidad de cada quien en el mundo real, a menos que la persona desee lo contrario. La defensa de la privacidad no es un asunto menor, y la verdad es que mediante el Machine Learning, el Deep Learning, y numerosos algoritmos sofisticados, las grandes empresas de la información –Amazon, YouTube, Google, Facebook y Apple– (a los que recientemente hay que sumar, entre otros, a Samsung, Huawei, Microsoft, IBM; Sony y Panasonic), acumulan información de los ciudadanos cuyo destino jamás es conocido. No hay que olvidar que el Departamento de Estado de los E.U. declaró a Facebook y a Google como empresas de interés estratégico nacional. Sin ambages, la pretensión de las corporaciones y los estados es la de acumular, procesar y usar a su antojo la información que los ciudadanos libremente ponen al descubierto.


Hay un problema de lado y lado, como se aprecia.


La lucha civil, política y ética es hoy en día la lucha por la libertad de la información, por el respeto a la intimidad y la individualidad, pero como un asunto común, público, y no solamente pertinente para cada quien.


La web profunda es el canal a través del cual se ponen de manifiesto documentos sobre la injusticia en determinados países o prácticas nefastas por parte de algunas compañías. Siempre puede suceder que el trabajo con información llegue a afectar aquello que se denomina “seguridad nacional”. La historia de Anonymous, Wiileaks y muchos otros movimientos es ilustrativa al respecto.


Hay gobiernos que prohíben el uso de Facebook o de Twitter, por ejemplo, para divulgar protestas sociales. El uso entonces de la web profunda resulta vital para acciones de denuncia, información, educación y organización.


Existe una enorme cantidad de datos y de información en internet. Vivimos, literalmente, una era de luz. Pero debe ser posible acceder y procesar dicha información. Mayor información se traduce en mayores grados de libertad, y menos información da lugar a injusticias, inequidades, asimetrías peligrosas en la sociedad. La libertad y las garantías de vida son directamente proporcionales a la información en general que se dispone.


En condiciones de una sociedad, un Estado y una economía y sistemas militares y de policía panópticos, el anonimato garantiza el derecho a la libre opinión, la libertad de acción (digital), la libertad de decisiones y organización. Las consecuencias de la web profunda no son pocas.
Los movimientos sociales y políticos deben poder conocer lo que es la web profunda, y saber usarla. Deben poder establecer conexiones entre sí, cuidando la seguridad de las organizaciones y de sus miembros. La acción colectiva es hoy por hoy acción colectiva con información, conocimiento y mucha educación y ciencia. La dialéctica entre la web superficial y la web profunda debe ser de tal modo que se haga un uso óptimo de la información. Sin más, las organizaciones sociales y políticas, si se ponen al día en materia de conocimiento, deben poder conocer y trabajar con la web profunda. Es un asunto básico de inteligencia organizacional.


En dos palabras, a mayor y mejor información, más libertad, autonomía y vida. En eso exactamente consiste todo el debate en torno al deseo, de unos, de controlar internet; y de otros, por hacer común la información existente. Acaso la expresión puntual del problema, se denomina: democracia digital.

 

Bibliografía (selecta)

Ehney, R., Shorter, J. D., (2016). “Deep web, dark, web, invisible web and the post isis world”, en: Issues in Information Systems, Volume 17, Issue IV, pp. 36 – 41
Grossman, L., Newton-Small, J. Roy, J., Stampler, L. (2013). “The Deep Web”, en: Time International (South Pacific Edition), Noviembre 11, 08180628, Vol. 182, Fascículo 20
He, B., Patel, M., Zhang, Z., y Chang, K Ch.-Ch., (2007). “Accessing the Deep Web. Attempting to locate and quantify material on the Web that is hidden from typical search engines”, en: Communications of the ACM, Mayo, vol. 50, No. 5, pp. 95-101
Huang Q., Li, Q., Li, H., Yan, Z., (2012). “An Approach to Incremental Deep Web Crawling Based on Incremental Harvest Model”, en: Procedia Engineering 29, pp. 1081 – 1087
Tapia, M. G., Shorter, J., (2015). “Into the depths of the internet: the deep web”, en: Issues in Information Systems, Volume 16, Issue III, pp. 230 - 237

 

*Investigador. Profesor universitario.

Virtual adicción. ¿Es un mito la adicción a los teléfonos móviles?

La psicología trata de investigar los comportamientos potencialmente adictivos en el uso de aplicaciones y juegos. No es fácil establecer patrones a la hora de hablar de ‘adicción’.

Un millón de personas hacen o han hecho terapia a través de Talkspace, una de las apps de moda entre pacientes que buscan ayuda, psicoterpeutas que buscan clientes e inversores que buscan una startup en la que poner su dinero: el año pasado levantó 31 millones de dólares entre fondos de capital riesgo, quienes estiman el valor de esta compañía neoyorquina en unos 130 millones de dólares. Talkspace funciona como un servicio de mensajería instantánea que reúne a pacientes y terapeutas; quienes la usan pueden enviar mensajes todos los días y a cualquier hora a su terapeuta, que suele responder una o dos veces al día. En caso de necesidad, se puede agendar una videollamada entre especialista y paciente. Todo desde 49 dólares por semana.

 

Aparte de la terapia genérica, Talkspace tiene solo dos especialidades diferenciadas. Una es la terapia de pareja porque los fundadores de la compañía montaron el negocio después de salvar su matrimonio haciendo terapia —si no tienes una historia, no tienes una startup—. La otra única especialidad de terapia online es para retomar el control de tu vida online; Social Media Dependency Therapy: “El primer programa de su clase diseñado para ayudarte a controlar tu uso y tus reacciones a Facebook, Instagram, Twitter y más”.


Se calcula que miramos el móvil unas 150 veces al día y que, a diario, la población adolescente pasa unas seis horas y cuarenta minutos delante de una pantalla. Sí, seis horas y cuarenta minutos. Las redes sociales se tragan buena parte del pastel. Según el Estudio Anual de Redes Sociales IAB 2018, podemos entregar una hora y media al día a Whatsapp, y más de una hora a YouTube o a Facebook. Otras apps menos extendidas son igual de absorbentes: Musically, la app de coreografías caseras, puede retenernos durante una hora y doce minutos; Twitch, que retransmite partidas de videojuegos, ocupa una hora y nueve minutos diarios entre su afición; otra red social en ascenso, Vero, se acerca a los sesenta minutos diarios de dedicación entre su creciente comunidad; y la española 21 Buttons, consagrada a influencers de la moda, requiere 53 minutos diarios a sus fans . ¿Estamos ante verdaderas adicciones o, tal vez, usamos este término a la ligera?

Daria Kuss y Olatz López-Fernández, del departamento de Psicología de la Universidad de Nottingham Trent, investigan comportamientos potencialmente adictivos vinculados al uso de las nuevas tecnologías. “La adicción parece ser la relación entre una persona y un objeto —sustancia— o actividad —comportamiento— que progresivamente resulta ser más importante, a la vez que otros objetos o actividades lo son menos; hasta que llega un momento en que es lo prioritario y causa serios problemas a la persona que la sufre, pues se entra en un conflicto entre el consumo impulsivo y el intento de no consumir. Ello causa gran sufrimiento relacionado con la salud, la familia, los amigos, el trabajo, los estudios, etc.”, explica López-Fernández. Además, recalca, debe darse durante un periodo prolongado de tiempo, que se ha descrito como de seis a doce meses.

Tal como recuerda esta investigadora, “a mediados de los años noventa se empezó a utilizar el término 'adicción a internet' en el entorno clínico y académico, con la finalidad de referirse al comportamiento de carácter adictivo que presentaban algunas personas que utilizaban internet de forma excesiva, durante mucho tiempo, y de forma problemática, con sintomatología adictiva”. Más tarde, “el espectro de posibles comportamientos adictivos se extendió a las tecnologías en sí mismas —ordenadores, consolas, teléfonos móviles, etc.—, a internet y a otros comportamientos más concretos en internet —jugar con videojuegos, comunicarse por redes sociales, consumir contenidos pornográficos, comprar en tiendas en línea, apuestas en línea...—”, añade.

 

¿EXISTE LA ADICCIÓN A FORTNITE?

Desde hace meses millones de pantallas alternan despiadadas masacres multitudinarias y bailoteos burlones bajo un mismo título, Fortnite, el juego en red que domina el mercado desde hace meses, especialmente en su versión Battle Royale. La compañía creadora de este videojuego, Epic Games, mantiene una vertiginosa política de actualizaciones y parches que no dejan de ampliar y modificar este videojuego, esencialmente gratis. El resultado es que unos 40 millones de personas lo han probado y en algunos momentos ha llegado a congregar a dos millones de personas jugando al mismo tiempo durante horas y horas. A medida que el juego ganaba popularidad, los testimonios de familias preocupadas por las largas partidas de algunas criaturas se multiplicaban.
El alarmismo se encendió en los medios cuando se conoció el caso de una niña británica de nueve años que se había orinado encima para no interrumpir una de sus sesiones de hasta 10 horas seguidas de Fortnite. La pequeña está acudiendo a terapia para desengancharse del videojuego. ¿Es esto una adicción?

Durante años, la comunidad científica ha seguido alternando la investigación con la prudencia a la hora de considerar el abuso de nuevas tecnologías como una verdadera adicción. Solo hace apenas unas semanas, el 18 de junio, la OMS publicaba la última actualización de su clasificación de enfermedades, el ICD-11, que no se tocaba desde 1990. En esta nueva versión se recoge finalmente el trastorno por videojuegos como un posible diagnóstico dentro del apartado de comportamientos adictivos: “El trastorno de juego, predominantemente online, se caracteriza por un patrón de comportamiento de juego —"juego digital" o "videojuego"— persistente o recurrente, que se realiza principalmente a través de internet”, según la OMS.

 

No obstante, han de darse más características, como un control alterado sobre la frecuencia o el tiempo de juego, un aumento de la prioridad que se da al juego en detrimento de otras actividades diarias, una continuación del hábito a pesar de que desencadene consecuencias negativas, un deterioro del funcionamiento familiar, social, académico o laboral y, además, una perpetuación del problema durante al menos 12 meses.


72 MILLONES DE PERFILES ADICTOS A FACEBOOK


Hacen falta años de literatura académica sólida para que la OMS o la Asociación Americana de Psiquiatría —autora del venerado, y también discutido, CDI, el otro gran catálogo de enfermedades mentales— den el paso de añadir un nuevo diagnóstico a sus clasificaciones, pero antes, la investigación y la práctica clínica suelen detectar indicios problemáticos. Eso es lo que parece estar pasando con las redes sociales.


Hace cuatro años, un equipo chino sugirió las bases para definir usos potencialmente problemáticos de apps de microblogging como Twitter: según sus cálculos, entre un 4 y un 15 por ciento del alumnado universitario en China estaría haciendo un uso excesivo de Twitter y, especialmente, Weibo, su masivo equivalente chino. Facebook también levanta sus propias sospechas: en 2012 un equipo liderado por la noruega Cecilie Schou Andreassen sentó las bases de la Escala de Adicción a Facebook de Bergen —llamada así por la Universidad donde nació—, que hoy es un referente.

Uno de los más recientes estudios que ha usado esta escala, publicado en mayo, ha detectado un 3,3 por ciento de personas con rasgos de adicción a Facebook: es un porcentaje pequeño, pero si se confirma y se extrapola a la comunidad global de 2.200 millones de perfiles en Facebook, estaríamos hablando de más de 72 millones de personas virtualmente adictas a la red de Mark Zuckerberg en el mundo. Para el caso de Instagram, otro estudio recién publicado estima que puede haber un seis por ciento de instagramers con adicción moderada y un uno por ciento con adicción severa.

¿Por qué nos enganchan las redes sociales? Todavía no han entrado en el paquete de trastornos adictivos reconocidos, a diferencia del juego online, pero ¿es posible que la progresiva gamificación de estas webs y apps compartan rasgos comunes con el juego problemático online? ¿Pueden los likes y los retuits funcionar como recompensas cada vez más deseables, generar tolerancia como otras sustancias o comportamientos adictivos? Daria Kuss explica que “cada vez que recibimos un retuit, un like o tenemos un nuevo seguidor, una pequeña cantidad de dopamina está siendo liberada en el centro del placer del cerebro y ese tipo de placer, a lo largo del tiempo, es aprendido por el propio cerebro y si se vincula con el uso de redes sociales, cada vez requerirá más y más de ese vínculo, y esta es la razón por la que se desarrollan comportamientos potencialmente problemáticos”.


WHATSAPP, ALUCINACIONES Y PROZAC

 

Mientras pulimos nuestra relación con las redes sociales o los videojuegos, la comunidad sanitaria busca sus propios diagnósticos y experimenta con posibles tratamientos para los casos más extremos. ¿Alguna vez has jurado que tu móvil había vibrado en el bolsillo sin que nadie te hubiera mandado nada? Si pasamos, literalmente, una hora y media al día pendientes de las notificaciones de WhatsApp, nuestra mente espera su dosis de notificaciones cada cierto tiempo. Varios estudios llevan años analizando el 'síndrome de la vibración fantasma' y el 'síndrome de la llamada fantasma'. O si prefieres un refrito de anglicismo y neologismo, vibranxiety o ringxiety.


Se trata de dos tipos de alucinación bastante comunes: diferentes estudios han detectado una prevalencia del síndrome de la vibración fantasma, que afectaría a entre el 68 y el 89 por ciento de la población con teléfono móvil. La segunda alucinación afectaría menos: entre el 27 y el 54 por ciento de las personas creen oír tonos y notificaciones que no han sonado realmente. ¿Hasta qué punto podemos engancharnos a WhatsApp?

En 2016 el Indian Journal of Psychiatry publicaba el caso de una mujer de 26 años, diagnosticada con un trastorno límite de la personalidad, que se había vuelto adicta a WhatsApp: la consecuencia fue que acabó sometida a un tratamiento con fluoxetina (Prozac), ácido valproico (antiepiléptico y estabilizador del estado de ánimo) y lorazepam para dormir. Un cóctel de fármacos con un claro efecto secundario: la controversia. ¿Podremos identificar claramente los casos realmente problemáticos de malos usos de apps, juegos o redes sociales? ¿O corremos el riesgo de patologizar y psiquiatrizar conductas no alarmantes?

 “Above The Polar Bear” , la fotografía ganadora del gran premio, muestra el hábitat del oso polar durante el verano en el Área Marina Protegida de Lancaster Sound. Foto: Florian Ledoux/ Drone Awards 2018.

La manera de hacer fotografías ha cambiado. Este arte ha ido evolucionando gracias a los diversos avances tecnológicos. Uno de ellos ha sido la aparición de drones. Estas naves no tripuladas permiten conseguir imágenes a decenas de kilómetros del suelo. Con la ayuda de este invento, la forma de captar instantes ha vivido una auténtica revolución.

 

Antes los fotógrafos tenían que ingeniárselas para lograr una vista aérea perfecta, utilizando cometas o globos de hilo. Ahora, los drones permiten capturar una imagen desde el cielo solo con un botón: la aeronave sube hasta las nubes y dispara en el momento preciso.

 

El auge de estas naves ha creado una nueva categoría artística, imágenes realizadas a vista de pájaro. Sin embargo, solo las mejores consiguen formar parte de los Drone Awards, concurso que premia a las mejores fotografías realizadas con drones en 2018. La que ha alcanzado el primer puesto ha sido un oso polar caminando por una superficie que se encuentra en deshielo. Esta instantánea ha sido realizada por Florian Ledoux.

 

El resto de las imágenes ganadoras se han dividido en distintas categorías: Naturaleza, Abstracto, Gente, Deportes, Vida Salvaje y Urbano. Un nadador en pleno salto de trampolín, una mujer relajada en un campo de césped o un banco de peces huyendo de lo que parece un tiburón son algunas de las mejores fotografías captadas con el objetivo de un dron.

 

“La serpiente del tiempo” obtuvo el primer premio en la categoría Abstract, un camino en el medio del bosque cerca de Derna, el condado de Bihor, Rumania. Foto: Ovi D. Pop/ Drone Awards 2018.

 

“Der Kratera” fue tomada en Landmannalaugar, las tierras altas de Islandia. La imagen muestra un volcán extinto, todavía se puede ver la apertura del cráter. Foto: Florian Ledoux/ Drone Awards 2018.

Un Iceberg extrañamente formado, visto desde el cenit. La foto es parte de mi colección “90 ° Groenlandia” y fue tomada con un dron DJI Inspire 1 Pr. Foto: Stephan Fürnrohr/ Drone Awards 2018.

 

“El responsable papa Garial con sus bebés”, el Garial -Gavialis gangeticus- está en peligro crítico de extinción. Esta imagen fue tomada en Santuario de vida salvaje de Chambal en La India. Foto: Stephan Fürnrohr/ Drone Awards 2018.

 

“Núcleo”, un bote “talla” las frías aguas de Alaska. Parece como si se moviera a través de una sábana de tela. Foto: Casey McCallister/ Drone Awards 2018.

 

“La Gran Sombra”, el autor esperó 2 largos días para obtener una imagen a tamaño natural de una jirafa. El ángulo de disparo y la hora del día fueron muy importantes para obtener esta sombra perfecta de tamaño natural. En una mirada sentirás que la sombra es la jirafa real, pero en realidad es de otra manera. Foto: Thomas Vijayan/ Drone Awards 2018.

 

“Silvia” , el verano se aproxima, la hierba crece en los campos, el primer calor, la naturaleza se despierta, todo es verano. Foto: Davide Lopresti/ Drone Awards 2018.

 

“Caos”, un día temprano y por la mañana en el mercado de Corabastos Bogotá. Colores y texturas de un caos contenido de personas, camiones, automóviles, frutas, verduras, etc.Foto: Alex Visbal/ Drone Awards 2018.

 

“Sombras Patinadoras”, el pelotón de patinaje sobre ruedas se representa proyectando sombras sobre el hielo natural del Weissensee austriaco durante el maratón Open Dutch Championships de más de 100 kilómetros.Foto: Vincent Riemersma/ Drone Awards 2018.

“Mada’in Saleh”, una escena increíble. Este antiguo sitio arqueológico se llama Mada’in Saleh y se remonta al siglo I d. Tuve la suerte de poder pasar un corto tiempo de pie ante esta tumba real y los miles de años de historia que tiene. Es un honor compartir esta imagen contigo desde una perspectiva nunca antes vista.Foto: Gabriel Scanu/ Drone Awards 2018.

 

“Tiburón de Punta Negra”, un tiburón punta negra persigue una escuela de macabijos en desove frente a la costa de la isla de Abaco, Bahamas.Foto: Adam Barker/ Drone Awards 2018.

 

“Asís sobre las Nubes”, la maravillosa Basílica de San Francisco de Asís, al atardecer con la ciudad inmersa en la niebla.Foto: Francesco Cattuto/ Drone Awards 2018.
(Tomado de europa press)

Publicado enFotorreportajes
"No hay que tener miedo de los robots. Hay que tener miedo de los humanos usando esta tecnología de un modo no ético o destructivo"

Frente a los estudios que aseguran que se perderán millones de empleos en la próxima década por culpa de los robots, defiende que la tecnología, más que una amenaza, constituye una oportunidad si se pone al servicio de los trabajadores

"Mucha gente famosa especula sobre los riesgos de la Inteligencia Artificial, diciendo que puede ser peligrosa si escapa a nuestro control, si se hace más inteligente que los humanos. Pero todo eso es ciencia ficción"

La intelectual estadounidense Shannon Vallor es profesora en la Universidad de Santa Clara (California), en el corazón del Silicon Valley. Es una reputada investigadora de la ética y la filosofía de la tecnología. Trabaja muy cerca de donde vienen surgiendo muchos de los avances tecnológicos que han revolucionado la realidad económica y social.

La robotización y la automatización, por ejemplo, son dos procesos en los que se avanza en este área del este de Estados Unidos. Eso, pese a los muchos miedos que genera en la clase trabajadora la robotización del mundo laboral. Son recurrentes los estudios que aseguran que se perderán millones de empleos en la próxima década por culpa de los robots.

Como integrante de la dirección de la Fundación para la Robótica Responsable, Vallor se esfuerza en aclarar cómo la tecnología, más que una amenaza, constituye una oportunidad, siempre y cuando se ponga al servicio de los trabajadores."El problema está en no usar esas tecnología al servicio de los trabajadores", dice Vallor en esta entrevista con eldiario.es.

De ahí que anime a realizar reformas en el actual sistema económico, para que sea posible la convivencia de robot y trabajador en los empleos del futuro, y que inste a presionar a las empresas para que desarrollen "productos y aplicaciones más compatibles con los intereses de los humanos".

 

¿Qué piensa usted del miedo que genera la robotización, según muestran las encuestas, en buena parte de la clase trabajadora?

Es un tema complicado. Hay una gran probabilidad de que la robotización continúe significando la automatización de algunos sectores de la economía. En consecuencia, algunas categorías laborales van a estar en peligro. Aquí, lo problemático es el uso que se pueda hacer de esos miedos. Mucho de lo que se escucha puede llevar a la gente, si no está informada, a pensar que vamos a tener robots que van a tomar todos los trabajos que hoy hacen los humanos.

Eso no es realista, al menos en las próximas dos décadas y probablemente para muchas más. Los avances en robótica y en inteligencia artificial son reales e impresionantes pero no están teniendo lugar tan rápido como mucha gente cree. Hay muchos límites a la hora de asignar tareas a esas máquinas y de determinar qué son capaces de hacer.

 

¿La robotización no es tan peligrosa para los trabajadores?

Desde un punto de vista laboral, no se puede decir que no haya de qué preocuparse. Pero tampoco hay que exagerar la amenaza.

 

¿Hasta qué punto le preocupa el uso político que puede darse a los miedos que generan la robotización y la inteligencia artificial?

Me preocupa mucho dejar claro que no es la tecnología la que va a suponer una amenaza para los trabajadores. Es el sistema económico, sus incentivos y los poderes económicos, los que controlan realmente cómo esa tecnología se va a utilizar.

Hay muchos modos en los que los robots y la inteligencia artificial pueden mejorar las condiciones laborales, acabando incluso con los trabajos más peligrosos, aburridos, degradantes o sucios. Hay muchas tareas por las que se paga a gente para que se expongan. Estarían mejor sin hacerlas, haciendo otra cosa. Diseñar máquinas para hacer esos trabajos no es inherentemente malo. Hay mucha confusión en la opinión pública cuando hay encuestas sobre el miedo a las máquinas.

Mucha gente famosa, como Elon Munsk, Stephen Hawking o Bill Gates, que no son investigadores de Inteligencia Artificial, han especulado o especulan sobre los riesgos de la Inteligencia Artificial, diciendo que puede ser peligrosa si escapa a nuestro control, si se hace más inteligente que los humanos. Pero todo eso es ciencia ficción. No estamos ni mucho menos cerca de que haya una inteligencia artificial comparable a la inteligencia de un humano. Ni siquiera se sabe cómo hacer algo así.

 

¿Dónde está el problema entonces?

No hay que tener miedo de los robots. Hay que tener miedo de los humanos usando estas tecnologías de un modo no ético o destructivo. El problema está en no usar esas tecnologías al servicio de los trabajadores. La clave está en que las máquinas estén al servicio de los trabajadores en lugar de tener como objetivo maximizar los beneficios y la eficiencia. Pero en un sistema económico donde esos son los únicos objetivos, muchas de las oportunidades para que los robots estén ahí para ayudar a los trabajadores y hacer sus trabajos más seguros, más disfrutables y de modo que se sientan más realizados, van a ser ignoradas. Todo esto debido a los intereses económicos, que van en contra de la gente.

 

¿Hay que cambiar el sistema para implementar esta otra idea de la tecnología?

No hay que cambiar todo el sistema para reformar las partes que no funcionan. Estamos hablando, en realidad, de la necesidad de un cierto cambio sistemático en la economía moderna. El sistema ahora mismo parece tan brutal que no parece posible ver cómo cambiarlo. Además de empujar hacia una reforma económica y política, algo que creo que es muy importante es pensar que hay formas del capitalismo, de hace 50 ó 60 años, que hacen posible la promoción de los intereses de los trabajadores. Hay ejemplos en varios países.

En Estados Unidos tuvimos un movimiento que llevó a la imposición de la semana laboral de 48 horas, la instauración de regulaciones sanitarias y de seguridad, la obligatoriedad de introducir pausas en el trabajo y las bajas. En el Siglo XX ha habido todo tipo de reformas que han cambiado el trabajo. El lugar de trabajo pasó de ser un lugar donde los trabajadores eran explotados y se abusaba de ellos a ser un lugar donde hay ahora una mayor protección. Desafortunadamente, en Estados Unidos, hemos ido ahora en la dirección opuesta respecto a esos avances, acabando con mucha de esa protección.

 

¿Qué más se puede hacer, más allá de empujar hacia una reforma del sistema?

También se puede presionar a las compañías tecnológicas para que desarrollen productos y aplicaciones que sean más compatibles con los intereses de los humanos. Se les puede presionar para que la tecnología sea concebida como una ayuda para los trabajadores, para que su diseño haga a los trabajadores sentirse más seguros, más felices y menos degradados y explotados por su trabajo. Ahora mismo, las compañías tecnológicas, en muchos países, han sufrido grandes golpes en su reputación. Y están trabajando para restaurar la fe del público en ellos y en el sector tecnológico. Muchas compañías, por esto mismo, están ahora moviéndose hacia el diseño de procesos y aplicaciones más éticos.

Por ejemplo, ahora, en el sector tecnológico, están promoviendo la idea de que los humanos no deben ser reemplazados por dispositivos de Inteligencia Artificial sino apoyados por estos sistemas. Pero no está claro si éste será el modelo que triunfe o si todas las empresas lo adoptarán. No se sabe si el trabajador mantendrá, por ejemplo, el sueldo de alguien asistido por un sistema de Inteligencia Artificial o si el empresario caerá en la tentación de echar al trabajador.

En Estados Unidos, hay un debate sobre si los populistas, como el presidente Donald Trump, sustituirán a la inmigración, objetivo de muchas de sus reformas, por los robots."Primero vinieron a por los inmigrantes. Luego vinieron a por los robots" es un reciente titular de la revista Foreign Policy. ¿Qué piensa usted?

Pienso que no hemos visto algo así todavía. De hecho, en 2017, el Secretado de Estado para el Tesoro, Steven Mnuchin, dijo básicamente que la amenaza de la robotización "no está ni siquiera en nuestro radar", según sus términos. Él cree que incluso dos décadas era una exageración, y que la amenaza de la robotización a los puestos de trabajo llegaría, tal vez, en 50 ó 100 años. Ésto es lo que la administración Trump dice al respecto. No están centrados, ahora mismo, en la automatización.

 

¿Por qué motivo?

Porque el populismo de Trump está principalmente inspirado por la xenofobia, y no por una sincera preocupación por los intereses de los trabajadores. De hecho, las políticas de Trump hasta ahora han sido bastante dañinas para los trabajadores. Creo que este tipo de populismo de Trump sólo es superficialmente favorable a los trabajadores. En realidad, en su sustancia, es anti-trabajadores. La reacción de Trump diciendo que los inmigrantes están tomando empleos de los estadounidenses está fundamentada en la xenofobia y en el racismo, más que en una verdadera preocupación por los trabajadores del país. Yo no creo que los robots vayan a entrar en esa retórica. Pero esto puede ocurrir en otros países.

En Los Países Bajos, en el puerto de Rotterdam, los sindicatos alertaron de que muchos trabajadores se inclinaban allí el año pasado a votar por el Partido de la Libertad del populista de ultraderecha Geert Wilders. Los líderes sindicales hablaban de enfado por la robotización del sector. Al menos así lo contó la agencia Bloomberg.

Estoy en contacto con numerosos académicos de Los Países Bajos, que trabajan ahora mismo sobre las implicaciones sociales que despiertan la robotización y la inteligencia artificial. En general, yo diría que Los Países Bajos es un país muy favorable a la robotización. Tienen más universidades centradas en tecnología que otros muchos países de similar tamaño. Pero cada país tiene una respuesta diferente a la robotización.

En Japón, por ejemplo, la robotización es algo que está siendo bienvenido. Porque no tienen, fundamentalmente, suficientes trabajadores para sustituir su mano de obra en una sociedad que está envejeciendo y que sigue siendo muy poco favorable a la inmigración. La respuesta a la robotización va a depender de muchos factores, como la situación económica del país, cómo es la situación del desempleo o si hay o no dificultades para ofrecer empleo a la gente. Ahí está la clave de que pueda haber resentimiento contra los robots, especialmente si hay clases de trabajadores que se vean afectadas.

 

¿Dónde es más probable que afecte la robotización?

Es más fácil ver que la automatización del trabajo tenga lugar en fábricas, pero también en la venta o en atención al cliente, como en los centros de llamadas. En muchos países, la venta y la atención al cliente son la primera categoría de empleo para gente sin educación universitaria o que, simplemente, están empezando en su vida laboral. Son trabajos típicos de estudiantes, por ejemplo.

En Estados Unidos, esto ocurre mucho en el sector de la venta. Si se elimina el empleo de personas en ese sector, se va a dificultar mucho la integración de mucha población en el mercado laboral. Se sabe que, cuando una persona tarda en conseguir su primer empleo, luego es muy difícil desarrollar una historia laboral sólida. Pienso que hay peligros asociados a la automatización de según qué sectores. Sin embargo, tampoco podemos determinar el impacto de la automatización, porque es algo relacionado con la cultura del consumidor.

 

¿A qué se refiere?

No sabemos en realidad cuánta demanda hay de gente queriendo interactuar con un robot, por ejemplo, en un centro de atención al cliente. En este sector, mucho depende de si el consumidor sabe que está interactuando con una máquina o una persona y de si la persona quiere o no tener esa interacción. Por ejemplo, se puede sustituir al personal de un restaurante por robots. Pero puede ser que la gente no responda positivamente a esa propuesta. Puede ser que esa experiencia para el consumidor resulte frustrante, debido a los límites de la tecnología. Este tipo de situaciones puede que ralenticen la automatización. Ser capaz de hacer una máquina que haga un trabajo no significa que eso sea una ventaja.

Domingo, 05 Agosto 2018 08:50

La Ciencia que financiamos y repagamos

La Ciencia que financiamos y repagamos

¿Devolvemos a la sociedad los resultados del sistema científico? Esta pregunta tiene dos posibles respuestas, que no opciones. Una respuesta larga, para aquellas que no conocemos de qué va el asunto, o la corta, para los que no lo conocen o no les interesa. Por economía lingüística, por escribir menos, empezamos a responder en primer lugar por la opción corta: por lo general, sí se devuelve a la sociedad lo generado por los científicos, eso sí, cobrando dinero por ello.

 

 

Los que seguimos leyendo parece que queremos reflexionar, analizar, cómo es posible que aquellos conocimientos generados con dinero público acaben en manos privadas, en empresas que después venden esos contenidos a las mismas instituciones públicas que lo han generado.

El negocio en el que se mueven muchos millones de euros es redondo, donde siempre gana la banca (sino de forma directa, sus filiales en el mundo de la edición y distribución de la ciencia). Voy a intentar contaros de forma breve cómo nos dejamos manejar.

La producción científica está en manos básicamente de instituciones públicas; instituciones de investigación, organismos públicos y universidades. Las privadas, las que investigan, no creáis que difunden dicho contenido, lo que en cierta manera pudiera entenderse como normal, si lo generan únicamente con dinero privado no van a compartirlo con la “competencia”. Estas investigaciones no salen de la nada, sino del mucho trabajo y esfuerzo de investigadores y de grupos de investigación que, o bien consiguen los fondos de proyectos financiados por organismos públicos, o bien de su actividad laboral cotidiana, y por lo tanto, se dedican a la investigación, ya que tenemos una nómina y un trabajo que nos lo facilita. No toda la investigación se realiza dentro de un proyecto de investigación. Los investigadores y profesores universitarios generan gran cantidad de producción científica, ya que de dicha publicación depende el desarrollo de su carrera profesional y algunos complementos retributivos.

Y aquí es donde viene el truco, donde el sistema ha conseguido envenenarlo, donde han logrado hacer bueno lo retorcido, donde conseguir “los dineros” sin invertir se ha convertido en un arte.

Los investigadores y profesores universitarios difunden sus contenidos –siempre que pueden, y en un gran número- en revistas de pago, revistas que no son de la institución donde trabajan, revistas que después la propia institución o el propio sistema de investigación debe pagar para conseguir, porque “evidentemente” se ceden los derechos a dicha revista. Es decir, investigaciones financiadas con dinero público, trabajadores con salarios públicos, ceden el conocimiento desarrollado en esas investigaciones a instituciones privadas, cediéndoles los derechos de explotación. ¿Somos tontos? Otra nueva pregunta con respuesta más compleja que la anterior.

Tal y como os decíamos, las publicaciones científicas no son un mero elemento de difusión de la Ciencia, sino que es la variable fundamental para analizar la valía, “la calidad” que decimos ahora, de la investigación y del investigador. Esto supone medirnos constantemente, evaluarnos de manera cortoplacista para determinar nuestra carrera profesional y para determinar si podemos conseguir los tramos de investigación. Y todos estos elementos son valorados por la Agencia Nacional de Evaluación de la Calidad y la Acreditación (ANECA), organismo estatal que funciona con normativa y legislación estatal. ¿Y qué parámetro utilizan? Utilizan como medida el factor de impacto, una medida que evalúa la calidad de las revistas por medio del análisis métrico de las citas bibliográficas obtenidas por los trabajos y que fue creada con un fin distinto al de la evaluación de la calidad. Las herramientas para valorar este factor de impacto son dos: Scopus de Elsevier y Web of Science de Clarivate. Dos empresas privadas donde, ¡qué curioso!, están presentes las revistas de la propia compañía (Elsevier). Herramientas que nos cuestan millones de euros el poder acceder a sus índices, y que además nos obligan posteriormente a pagar los contenidos por las revistas que ellas han determinado que son “de calidad”.

Financiamos la investigación con dinero público, los resultados en forma de artículos científicos son enviados a revistas de pago por acceso a los contenidos, que las revistas que se consideran importante son tomadas de una serie de herramientas privadas que controlan un buen número de estas revistas, y que el propio sistema español de ciencias “obliga” a publicar en dichas revistas para el desarrollo profesional de los investigadores. Puede llegar a pasar, y pasa, que una universidad tenga que pagar a una revista por los contenidos generados por un profesor de plantilla. Pagamos por la investigación, y repagamos por acceder a los índices de impacto y a los contenidos de las revistas.

Ahora ya podemos contestar a la pregunta de si somos tontos, y mi respuesta es que no (opinión muy personal y discutible, sobre todo al ser parte implicada que no contempla el autoinsulto como opción); lo que pasa es que todo este sistema está montado sobre un gran negocio y sobre un círculo vicioso que lejos de ser desinflado por lo público es potenciado. Como dijo un gran referente intelectual (no hay ironía en mis palabras) “Veo, veo, mamoneo”. ¡Que grande eres, Rosendo!

 

¿Cómo rompemos esta tendencia? ¿cómo devolvemos los resultados de la investigación a los investigadores, a todos?

Primero, recordando a los investigadores que sus intereses personales no pueden ser los prioritarios, que lo generado con dinero público debe revertir en el sistema público, y que no son libres para hacer lo que quieran con sus investigaciones. Este cambio de visión es fundamental.

Entender que deben poner a disposición de la comunidad científica los resultados de sus estudios, aportando de verdad en el “carácter acumulativo de la Ciencia”, lo que supone un intercambio de conocimientos. Newton señaló; “si he visto más lejos es porque estoy sentado sobre hombros de gigantes”. Hoy, seguramente, tendría que pagar por dichos contenidos y a otros no tendría acceso por los altos costes. Para ello, hemos de dar un empujón a los investigadores, buscar métodos alternativos a los estudios métricos para valorar e incentivar su labor profesional.

Segundo, cambiando el sistema de evaluación a todos los niveles, desde el europeo al autonómico, pasando por la financiación cambiando el sistema de evaluación a todos los niveles, desde el europeo al autonómico, pasando por la financiación estatal. Toda inversión pública debería estar sujeta a la obligación de difundirse por medio de revistas abiertas, de repositorios públicos, etc..., en plataformas que aseguren su disponibilidad para todas.

H2020, programa de financiación de la Ciencia de la Unión Europea, apuesta claramente por el acceso abierto (cuestión aparte es que los esfuerzos son escasitos), y el sistema español apuesta tímidamente por ello. Dicho sistema de evaluación debería comenzar, tal y como decimos, desde Europa, y que “chorree” por todos los estados miembros, para obligar a difundir públicamente los contenidos de investigación.


Tercero, y para España, “dinamitemos” intelectualmente la ANECA, volvamos a la evaluación tradicional, donde la evaluación de experto sea la piedra angular, y dejemos de medir tanto la calidad por parámetros estadísticos (dejemos la ANECA para otro día, ¿os parece?).

En definitiva, tenemos que hacer Política, un cambio legislativo integral que se enmarque en la lógica, fuera de los intereses del mercado y de las grandes empresas editoriales, cambio de políticas que debiera ser abanderado por la Unión Europea, quien cree un sistema general con subsistemas nacionales, donde se garantice que todo trabajo generado por asalariados o por financiación de lo público acabe en repositorios públicos o revistas de acceso abierto, sin pagos de cuotas de ningún tipo (ni por publicar ni por acceder), y generar una estructura en la cual aquellos trabajos más relevantes estén en repositorios más exclusivos, y que sea la presencia en dichos repositorios la que marque la calidad de la investigación y por lo tanto del investigador.

No estamos solos, existen plataformas que defienden esta tendencia, que apuestan por este cambio en la forma de difusión de la Ciencia (ejemplo claro es la Declaración de San Francisco, apoyada por importantes instituciones), en pensar que otra forma de hacer Ciencia es imprescindible para el desarrollo de la misma. Tenemos que ver la difusión de la Ciencia como una herramienta estratégica para el desarrollo de la sociedad, no un gasto, ni un coste, ni una carga, sino como una oportunidad.

 

¡Recuperemos el conocimiento! ¡No paguemos por las ideas!

Expertos de EU descubren por casualidad otras 12 lunas de Júpiter

Para confirmar su existencia se utilizaron telescopios en Chile, Hawái y Arizona.

  

Cuatrocientos años después de que Galileo utilizó su primitivo telescopio para hallar las primeras lunas en Júpiter, los astrónomos siguen descubriendo más. El reciente descubrimiento de otros 12 cuerpos satelitales alrededor del gigantesco planeta deja el total en 79, la mayor cantidad de lunas de cualquier planeta en nuestro sistema solar.

Los expertos buscaban objetos fuera de nuestro sistema solar el año pasado cuando orientaron sus telescopios a la cercanía de Júpiter, dijo Scott Sheppard, del Instituto Científico Carnegie en Washington. Detectaron una hilera de objetos merodeando cerca del enorme planeta gaseoso, pero no sabían si eran lunas o asteroides.

“No fue un descubrimiento repentino, sino que tardó un año determinar qué eran esos objetos”, explicó Sheppard, quien dirigió el equipo que hizo el descubrimiento. Resultó que eran lunas de Júpiter. El año pasado se confirmó la identidad de dos de ellas y ayer la de las otras 10.

Para confirmar su existencia se usaron telescopios en Chile, Hawái y Arizona.


Las lunas pasaron tanto tiempo inadvertidas porque son sumamente pequeñas, con un diámetro de uno o dos kilómetros, dijo Gareth Williams, del Centro de Planetas Menores del Instituto Astronómico, quien cree que Júpiter tiene incluso más de esas lunas diminutas que no han sido descubiertas.

“Simplemente no hemos observado esa área lo suficiente”, añadió Williams, quien contribuyó a confirmar las órbitas de las lunas.

Galileo detectó las cuatro lunas más grandes de Júpiter –Io, Europa, Ganímedes y Calisto– en 1610. El total actual incluye ocho que no han sido vistas en años recientes. Entre los otros planetas que más lunas tienen están Saturno con 61, Urano con 27 y Neptuno con 14. Marte tiene dos, la Tierra tiene una, Mercurio y Venus no tienen ninguna.

 

Cuerpo celeste extravagante

 

Una de esas diminutas lunas, de apenas un kilómetro de diámetro, fue descrita como una “verdadera extravagancia” por Sheppard. Es "probablemente la luna más pequeña conocida de Júpiter", agregó.

Los expertos la apodaron “la rara”, por su órbita inusual. Pero fue a la novia de Sheppard a quien se le ocurrió el nombre oficial: Valetudo, la bisnieta del dios romano Júpiter, diosa de la salud y la higiene.

Valetudo está en el anillo más distante de Júpiter, girando en dirección contraria a la rotación del planeta y en contra de las demás lunas. “Es como si estuviera yendo por una calle en sentido contrario”, señaló Sheppard.

“Esta es una situación inestable”, aseveró Sheppard. “Las colisiones frontales podrían desintegrar los objetos rápidamente y reducirlos a polvo”.

A esta rareza le lleva alrededor de un año y medio dar la vuelta a Júpiter. Las lunas internas tardan alrededor de un año en dar la vuelta a Júpiter, mientras que las externas el doble.

La hipótesis es que Valetudo y las lunas parecidas surgieron poco después de la formación del planeta. Probablemente al inicio Júpiter actuó como imán y atrajo toda la materia a su alrededor. Alguna de esa materia se coaguló y quedó dando vueltas, convirtiéndose en sus lunas.

Las ciencias como asunto de la revolución

En 1917, toda Rusia era un marasmo social, económico y político. Pero en el campo de la ciencia la cosa era distinta. Catalina II la Grande (1729-1796) había dejado unos pilares bien cimentados que trascendieron su muerte y sembraron sólidas bases, en las artes y en la ciencia. De un lado, crea el museo del Hermitage en San Petersburgo, funda la Academia de la Lengua Rusa, e instaura la Academia Real de las Artes. De otra parte, apoya de manera decidida el fortalecimiento de la Academia de Ciencias de San Petersburgo, fundada en 1724 por Pedro I.

Con el paso de las décadas tales pilares habían ganado cuerpo. De ahí que para el año 1917, las artes y la ciencia eran boyantes en la Rusia zarista; sí: en medio de la pobreza, la violencia, la guerra y el hambre. No solamente Rusia tenía poco que envidiarle al mundo, sino que, en muchas ocasiones, el mundo mismo miraba a Rusia como motivo de reflexión por la investigación y la creatividad allí existentes.

Los retos abiertos por los cambios políticos acontecidos en 1917 no fueron inferiores a los abiertos por el saber científico. La idea central de la revolución era que la ciencia debía practicarse como nunca antes había sucedido. Nuevas metodologías, nuevos lenguajes, nuevas ideas podrían tener lugar. De manera singular, la revolución de 1917 hizo un llamado a romper la disciplinariedad de las ciencias, y a adoptar enfoques cruzados, interdisciplinares. Y este nuevo enfoque logró resultados prontos y legó enseñanzas. En este texto nos acercamos a parte de los unos y de las otras.

 

Para comprar aquí:

https://libreria.desdeabajo.info/index.php?route=product/product&path=20_22&product_id=173

China: Robot vence a 15 prestigiosos médicos en el diagnóstico de tumores cerebrales

Un sistema de inteligencia artificial chino ganó 2-0 a un equipo de quince prestigiosos médicos del país en una competición a dos rondas en las que tenían que diagnosticar tumores cerebrales y hematomas a pacientes enfermos, en un concurso organizado en el Tiantan Hospital de Pekín.

El sistema BioMind AI, desarrollado por el centro de investigación en inteligencia artificial para desórdenes neurológicos de ese hospital y por un equipo de la universidad Capital Medical University, hizo en quince minutos un 87 % de diagnósticos correctos (de un total de 225 casos), frente al 66 % que consiguió el equipo de doctores.

En cuanto a la predicción de hematoma cerebral, su precisión fue del 83 %, mientras que los médicos -procedentes de prestigiosos hospitales del país- acertaron en un 63 % de los casos.

En ambas pruebas el nivel de precisión de los humanos fue “bastante normal e inclusión mejor que la media de precisión que se consigue en hospitales ordinarios”, defendió Gao Peiyi, responsable del departamento de radiología del Tiantan Hospital, puntero en neurología y neurocirugía.

El robot ha sido entrenado durante los últimos diez años mediante el almacenamiento de decenas de miles de imágenes de enfermedades relacionadas con el sistema nervioso, lo que le hace capaz de diagnosticar enfermedades neurológicas comunes como meningioma y glioma con una tasa de precisión de más del 90 %.

El vicepresidente del hospital, Wang Yongjun, señaló que lo importante no es quién saliera ganador, porque “el concurso no pretende enfrentar a humanos con la tecnología sino ayudar a los médicos a aprender y mejorar mediante la interacción” con ella, especialmente a aquellos más “escépticos”.

Una de las doctoras participantes y que fue eliminada en la segunda ronda, Lin Yi, dijo que da la bienvenida al uso de la inteligencia artificial, a la que no considera un amenaza sino “una amiga”.

El jurado por su parte señaló que la inteligencia artificial nunca reemplazará a los profesionales, sino que funcionará de forma similar al uso que un conductor le da a un GPS.

(Con información de EFE)

Quizá los extraterrestres no existan pero eso es una buena noticia para nuestra supervivencia

Es muy posible que la biología sea el producto de una casualidad química tan improbable que no ha ocurrido en ningún otro lugar del universo observable

 

En 1950, Enrico Fermi, un físico estadounidense nacido en Italia y ganador del premio Nobel, planteó una pregunta aparentemente muy simple pero con profundas implicaciones para uno de los rompecabezas científicos más importantes: si existe o no vida más allá de la Tierra.

Durante un almuerzo con colegas en el Laboratorio Nacional de Los Álamos en Nuevo México, surgió el tema de los platillos voladores. Se trataba de una conversación informal y nada parece indicar que los científicos que participaron creyeran en la existencia de extraterrestres. Sin embargo Fermi quería saber: ¿dónde están los demás?

Su argumento era el siguiente: partiendo de la base de que el universo existe desde hace miles de millones de años y tiene un tamaño tan vasto, con cientos de miles de millones de estrellas solo en la Vía Láctea, a menos que la Tierra sea asombrosamente especial, el universo debería estar lleno de vida. Podrían existir especies inteligentes lo suficientemente avanzadas como para tener el conocimiento y la tecnología necesarios para los viajes espaciales. Ya deberían haber colonizado toda la galaxia. Entonces, ¿dónde están todos?

Más recientemente, el físico Stephen Hawking, que falleció en marzo de este año, lo argumentó de forma parecida. "Para mi cerebro matemático, desde un punto de vista numérico pensar que existen extraterrestres es perfectamente racional". Hawking estaba articulando el mismo argumento popular de Fermi, que la inmensidad absoluta del universo prácticamente garantiza que tengamos compañía.

En los últimos años, los científicos se han tomado esta cuestión más en serio. Una de las áreas más emocionantes de investigación en astronomía ha sido el descubrimiento de planetas que se encuentran fuera del sistema solar; mundos que orbitan estrellas que no son nuestro Sol. Muchos de ellos incluso podrían parecerse a la Tierra en tamaño y clima. Los astrónomos creen que hay miles de millones de otros mundos, muchos de los cuales tienen condiciones que posibilitarían la existencia de vida. La probabilidad de que exista vida en otros planetas, incluso que se trate de vida inteligente, en al menos uno de ellos debe ser, por lo tanto, abrumadoramente alta.
¿Las probabilidades de vidas en otros planetas?

Los científicos de una institución que tiene el maravilloso nombre de Instituto del Futuro de la Humanidad en Oxford han echado agua fría sobre el optimismo de Hawking y de otros. Han llevado a cabo un análisis estadístico reflexivo diseccionando una relación matemática conocida como la ecuación de Drake, que nos permite calcular la probabilidad de vida extraterrestre basada en las probabilidades combinadas de que se den todas las condiciones para que exista vida en otro planeta.

Permítanme dejar claro desde el principio que la ecuación de Drake no es muy científica, por la única razón de que algunos de los factores que hay que incluir en ella son, hoy por hoy, puras conjeturas. La pregunta del millón no es la menor de ellas: habida cuenta de todos los elementos que creemos que son necesarios para la existencia de vida (una fuente de energía, agua líquida y moléculas orgánicas), ¿cuán probable es que la vida emerja?

Los autores del nuevo estudio ofrecen dos puntos de vista, uno pesimista y el otro más alegre. El primero es que la paradoja de Fermi es fácil de resolver. La razón por la que no hemos recibido ningún mensaje extraterrestre es porque, bueno, los extraterrestres no están ahí. Calculan que la probabilidad de que estemos solos en el universo está en el rango de 39%-85% y la probabilidad de que estemos solos en nuestra propia galaxia está entre 53% y 99,6%.

Los biólogos odian este tipo de especulaciones absurdas. Señalan con razón que todavía no entendemos bien cómo se originó la vida aquí en la Tierra, así que ¿cómo podemos creer tener las respuestas en torno a su existencia o su inexistencia en otros lugares? Hay algunos que argumentan que la vida en la Tierra apareció poco después de que las condiciones correctas emergieran hace casi 4.000 millones de años, que fue cuando nuestro planeta se había enfriado lo suficiente como para que existiera agua líquida.

¿Esto no significa que podría emerger fácilmente en otra parte? En realidad, no. Una muestra estadística de un solo caso no nos dice nada. Es muy posible que la biología sea una aberración local, el producto de una casualidad química tan improbable que no ha ocurrido en ningún otro lugar del universo observable.

¿Qué debemos creer? Hay razones para creer que podemos tener una respuesta en una década o dos, y que confirme la existencia o no de vida en otros planetas. Los astrobiólogos están a punto de buscar en los exoplanetas los gases producidos por la vida microbiana utilizando sofisticados telescopios espaciales de última generación. También existe la posibilidad de encontrar vida microbiana más cerca de casa, bajo el hielo de varias de las lunas de Júpiter y Saturno.

Ya avancé que el estudio nos proporciona buenas noticias. Algunos argumentan que todavía no hemos encontrado vida extraterrestre porque la vida inteligente (incluidos nosotros) siempre se autodestruye antes de que pueda desarrollar la tecnología que le permitiría comunicarse o hacer viajes interestelares. Sin embargo, podría ser que esta civilización extraterrestre simplemente no exista. Así que, como señalan los autores del estudio, el pesimismo sobre nuestro propio futuro carece de fundamento. Tal vez estamos solos pero tal vez consigamos sobrevivir.

 

Traducido por Emma Reverter

theguardian

Gert Steenssens / EsperanzaProxima.net Creative Commons licence

La noticia alertó de nuevo a la opinión pública, al tiempo que revivió un debate que ya cuenta con cerca de una década de pros y contras. El pasado 2 de noviembre la Procuraduría, a través de fallo en cabeza de Andrés Mutis Vanegas, procurador Quinto Delegado ante el Consejo de Estado, solicitó a este tribunal –la máxima jurisdicción de lo contencioso administrativo del país– anular el decreto 3004/13 y la Resolución 90341/14 del Ministerio de Minas y Energía a partir de los cuales quedaron establecidos los criterios y procedimiento por cumplir al momento de llevar a cabo la exploración y explotación de yacimientos no convencionales con la técnica de estimulación hidráulica, más conocida como fracking.

La solicitud del ente de control público, en parte retoma, además de ampliar, lo argumentado por el propio Consejo de Estado el 8 de noviembre de 2019 cuando suspendió provisionalmente igual decreto e idéntica Resolución.

En esta senda, la Procuraduría aduce que la práctica del fracking no es compatible con los principios de precacución y desarrollo sostenible previstos en la Constitución. No garantizar estos principios significa que al aplicar la técnica de estimulación hidráulica se podría acarrear, a) afectación grave e irreversible al medio ambiente al tiempo que, b) desconocer el principio convencional y constitucional de precaución. Como consecuencia de ello la Procuraduría solicita al Consejo de Estado aplicar el principio de precaución.

La solicitud en cuestión recibió de inmediato el rechazo del gremio petrolero representado por la Asociación Colombiana de Petróleo (ACP). Según Francisco José Lloreda Mera, su presidente, lo argumentado por el ente de control carece de rigor científico y “se refiere únicamente a la solicitud de nulidad de las normas que conforman el reglamento técnico y no a la técnica del fracking”. E insisten, “en los argumentos planteados se cita de manera equivocada el principio de precaución y el principio de desarrollo sostenible, al confundir impactos con riesgos y desconocer que lo relevante en este tipo de proyectos es el alcance del principio de prevención, que permite el manejo de los impactos a través de lo dispuesto en las licencias ambientales”.


Sin reparar en las lecciones arrojadas por el uso de esta técnica de perforación de la tierra en diversos países del mundo, y las consecuencias que en materia ambiental y en otros campos arroja la explotación de petróleo para las comunidades, alegan sin rubor alguno: “La industria del petróleo y gas ha sido aliada del desarrollo nacional y ha actuado en el marco de lo dispuesto por las licencias ambientales en sus proyectos, de manera que los impactos existentes puedan prevenirse, mitigarse o compensarse. (Ver recuadro Riesgo no es impacto).

Mirando la chequera que les permite compensar –daños y perjuicios– y no el entorno natural ni a las comunidades que verán afectados su territorio así como su economía y vida diaria, el presidente de la ACP insiste en la necesidad de llevar a cabo la exploración y explotación de campos a través de la cuestionada técnica de estimulación hidraúlica pues “[…] hoy más que nunca son clave para la generación de ingresos y reactivación ecnómica y social del país”. Un argumento en la senda de lo ya dicho por María Fernanda Suárez, exministra de Minas y Energía quien aseguró que lo decidido por el Consejo de Estado llevaría a una mayor devaluación del peso frente al dólar. Inyectar miedo, esa parece la función permanente del poder, sin importar el interés y calidad de vida de las mayorías.

Es importante recordar que en la disputa que los movimientos sociales, comunidades que preveen serán afectadas de salir avante este tipo de explotación de hidrocarburos y los sectores económicos con inversión en exploración, explotación y comercialización de petróleo y sus derivados, en curso ante el Consejo de Estado, los primeros recibieron un espaldarazo con la decidido por la plenaria del Senado el pasado 2 de septiembre que con 44 votos en contra y 39 a favor, se opuso a la prolongación de “Contratos, convenios o figuras contracturales” celebradas por el Gobierno “[…] para el desarrollo de yacimientos no convencionales”.

Y el gringo ahí

Como si no fuera suficiente con las presiones que desde todos los ángulos del poder reciben los jueces de lo Contencioso Administrativo, el 9 de noviembre Philip Goldbereg, embajador de Estados Unidos en Colombia reclamó vía libre para la explotación petrolera vía fracking en el país: [...] “es irónico que Ecopetrol esté haciendo colaboraciones con empresas norteamericanas para hacer fracking. (esperamos, por ello) lo mismo acá en Colombia en un futuro cercano a medida que trabajamos con las diferentes medidas administrativas, para que las empresas norteamericanas puedan hacer lo mismo en Colombia”.

Es impotante no olvidar que el fallo del Consejo de Estado de noviembre del 2019, que posterga su concepto final sobre el fracking hasta tanto no se evalúen los posibles efectos de diverso orden por su implementación, dejó abierta la puerta para realizar las pruebas sobre terreno que permitan construir un criterio sobre este particular.


Para ello el ministerio de Minas y Energía sacó a licitación para perforar unos pozos piloto, los primeros de los cuales fueron ubicados en las cuencas Magdalena Medio y Cesar-Ranchería, y adjudicados a Ecopetrol, ExxonMobil, y Drummond Energy. Si las pruebas logran el aval de la Autoridad Nacional de Licencias Ambientales (Anla), estas empresas quedarían explotando en propiedad esos territorios.

Así como en este primer paquete autorizado por la Anla para realizar pruebas hay empresas estadounidenses, el embajador de ese país está seguro que también las habrá en la segunda ronda de pruebas piloto autorizadas por la Agencia del sector, la que tomó la decisión ante solicitud de Ecopetrol de sacar a licitación otros cuatro proyectos, los que serán aprobados, para “[…] obtener tanta información como sea posible”, como lo aseguró el pasado 10 de noviembre Armando Zamora, presidente de la Agencia Nacional de Hidrocarburos.

Como puede deducirse, la pugna está ardiendo, y cualquier decisión puede tomarse, aunque la creciente y evidente presión del sector empresarial, tanto nacional como internacional, como el inocultable apoyo del gobierno de turno, hace temer lo peor.

 


 Consejo de Estado


La medida tomada es “[…] necesaria, proporcional y adecuada”

 

De acuerdo a su auto de noviembre de 2019, autorizar la aplicación del fracking no solo podría acarrear una afectación grave e irreversible al medio ambiente, sino también un desconocimiento del principio convencional y constitucional de precaución. Los argumentos con que sustenta su auto son:

El Principio de Precaución forma parte esencial de la Constitución Ecológica, adoptado por Colombia a través de la ratificación de diversos tratados. Este principio está llamado a operar antes de que se ocasione un daño, aún ante la falta de certeza absoluta sobre la ocurrencia del mismo. Consecuentes con ello, las autoridades de las distintas ramas del poder público pueden acudir al mismo cuando consideren que existe un potencial daño al medio ambiente. 

De esta manera, aunque este principio habilita a los poderes públicos para adoptar medidas cautelares, como la suspensión de actividades cuando existan evidencias serias de que la ejecución encierra un riesgo de afectación ambiental grave e irreversible, la imposición de estas medidas no puede ser arbitraria ni caprichosa, de ahí que deban revisarse los requisitos que la ley establece para la procedencia de dichas medidas, los cuales, para el caso del fracking, se cumplen en su totalidad. Lo argumentado por esta instancia judicial, es sustentado, en resumen, así:

1. Debe existir un mínimo de evidencias que demuestren de manera objetiva y razonable que se está ante un riesgo de daño grave e irreversible al medio ambiente. Sobre ello, el Consejo de Estado ha dicho lo siguiente:

- En la medida en que en los Actos Administrativos se expresan clara y extensamente las medidas para mitigar los riesgos y los efectos de la estimulación hidráulica, se entiende que la existencia de daños potenciales es posible y latente, por lo cual se hace necesario aplicar ese principio con el fin de prevenir dichos riesgos. 
- Con esta técnica se pueden afectar bienes de alta valía como la vida humana y el medio ambiente. Al respecto, el Consejo de Estado sostiene que la Contraloría General de la Nación, en su análisis realizado en el año 2012, encontró que la estimulación hidráulica generaba riesgos geológicos por el aumento de la sismicidad, la afectación del recurso hídrico por su contaminación, y la salubridad por los fluidos utilizados en la estimulación. 
- En la parte considerativa de los Actos Administrativos, se nota que faltan motivaciones en materia ambiental, lo que exige y justifica la aplicación del Principio de Precaución. 

2. Las medidas resulten adecuadas para impedir que dicha afectación se concrete. Sobre ello, el Consejo de Estado: 

- Establece que la medida cautelar de suspensión provisional de los Actos Administrativos es adecuada, toda vez que su aplicación puede generar un daño grave e irreversible para el medio ambiente y la salud humana, teniendo en cuenta que subsisten dudas razonables de que las medidas contempladas en los Actos Administrativos para prevenir dichos riesgos sean suficientes y cumplan con una función precautoria.
- Sostiene, además, que es de conocimiento público que el uso de la estimulación hidráulica ha generado un intenso debate que ha llevado a diversos países a decretar aplazamientos y prohibiciones en el uso de esta técnica. Francia, Alemania, Australia y algunos estados de Estados Unidos son ejemplo de ello.  Colombia no es la excepción, pues recientemente en el país se presentó un proyecto de ley en el que se propone prohibir el uso del fracking.

3. Las medidas deben tener una motivación completa. En efecto, considera el Consejo de Estado que sí existe suficiente motivación, pues las razones expresadas en líneas anteriores son claros y suficientes para adoptar dichas medidas. 

Así las cosas, según el Consejo de Estado, la medida cautelar de suspensión provisional de los Actos Administrativos es necesaria, proporcional y adecuada, teniendo en cuenta que dichos actos no cumplen con el enfoque precautorio ni con la obligación general de tomar todas las medidas apropiadas para prevenir los daños potenciales que puedan resultar de las actividades asociadas a la estimulación hidráulica. 

Vale la pena señalar que en la providencia se advirtió que la medida cautelar no constituye prejuzgamiento, en tanto la decisión definitiva está deferida a la sentencia.

 


Para evitar el llanto

Para el Ministerio Público existe abundante evidencia científica e información de distinto orden en cuanto a los riesgos y daños irreversibles al recurso hídrico y, en general, al medio ambiente, de aplicarse la técnica de fracking en el país. Según su concepto, “[…] es claro que las normas demandadas permiten desarrollar una actividad que puede traer graves e irreversibles consecuencias para la salud del ser humano”, asegura el comunicado del ente. 


Según la comunicación de la Procuraduría, las principales afectaciones ambientales que tendrían estos procedimientos, son “[…] la contaminación de aguas subterráneas y superficiales, el aumento de la actividad sísmica en los lugares donde se desarrolla la práctica, y un potencial daño a la salud del ser humano”. 


Para este órgano de control, tales afectaciones podrían resultar “irreversibles” en los ecosistemas, partiendo de que “Colombia no cuenta con una línea base confiable de información ambiental e hidrológica, ni capacidad de monitoreo y control para ello, ni acceso a la información ambiental, geológica, geofísica, geoquímica y sísmica”. 

 


 El Comité técnico y científico


Este comité será el encargado de evaluar la información generada, las necesidades de fortalecimiento institucional y los resultados. y analizará si en Colombia se cumplen las condiciones que permitan proceder o no con la exploración comercial de este tipo de yacimientos, aplicando la técnica de fracturamiento hidráulico.  
Para darle cuerpo a este comité, el Ministerio de Minas y Energía informó de la designación de los tres miembros permanentes del comité técnico y científico, pertenecientes a la comunidad académica y a la sociedad civil; acompañarán en su labor a los ministros de Ambiente y Desarrollo Sostenible, Salud y Protección Social, Hacienda y Crédito Público y Minas y Energía, quienes componen el resto del comité.

Los miembros elegidos fueron:

Por la sociedad civil. Leonardo Gutiérrez Reyes: Ingeniero mecánico de la Universidad Industrial de Santander y administrador de empresas de la Universidad del Rosario.

Por las universidades. La Asociación Colombiana de Universidades (Ascun) realizó su elección de manera autónoma. Al menos uno de los designados debía provenir de una universidad acreditada de alta calidad con presencia en la región donde se desarrollarán los PPII. Los designados:
Miguel Barrios (U. del Tolima), doctorado en planificación y manejo ambiental de cuencas hidrográficas. César Barranza (U. de la Sabana). Ingeniero mecánico, magister en ingeniería mecánica / Ph.D. filosofía.

Asimismo, se solicitó que de manera autónoma fueran designados dos representantes que formaran parte de la Comisión Intersectorial como invitados permanentes, así como a sus respectivos suplentes.

Como invitados permanentes fueron designados:

Darwin Mena (Ingeniero ambiental, docente U. Santo Tomás; Magíster en tecnologías limpias)
Elizabeth León (profesora e investigadora Universidad EAN; Magíster en gestión ambiental; Ph. D. ciencias amabientales).


 

Riesgo no es impacto

 

Al pronunciarse sobre el concepto de la Procuraduría, el gremio petrolero insiste en que, “es pertinente aclarar que si bien lo único que está en estudio por parte del Consejo de Estado es la legalidad de los actos administrativos demandados, a través de este concepto se está haciendo un análisis sobre al alcance de los mismos. Es decir, las razones presentadas por el ente de control no deberían ser los argumentos que deben exponerse en el proceso en curso ante el Consejo de Estado”.
Afirma el gremio que “en los argumentos planteados se cita de manera equivocada el principio de precaución y el principio de desarrollo sostenible, al confundir impactos con riesgos y desconocer que lo relevante en este tipo de proyectos es el alcance del principio de prevención, que permite el manejo de los impactos a través de lo dispuesto en las licencias ambientales”. […]


Sostiene la ACP que “el concepto de la Procuraduría no menciona la relevancia de los Proyectos Piloto Integrales de Investigación (PPII), los cuales el mismo Consejo de Estado ha señalado son de gran importancia para obtener información y mayor claridad frente al uso de la técnica del fracking en Colombia”.


Asegura Lloreda Mera, el presidente de este gremio, que “lo importante en este momento es proceder con los Proyectos Piloto de Investigación, para obtener información técnica, ambiental y social, que permita avanzar en la toma de decisiones basadas en información científica y verídica sobre la implementación de esta técnica en Colombia y la viabilidad de desarrollar los yacimientos no convencionales para Colombia, unos recursos que podrían ser de gran importancia en la reactivación económica para el país y las regiones”.

 

Publicado enEdición Nº274