Nadie puede ser libre si no le conceden, reconocen y alimentan la capacidad de fantasía, que es, con seguridad, la capacidad misma de independencia y condición de la crítica.

 

La forma en que existen hoy en día la ciencia y la filosofía es como investigación. Quien por estos días no investigue, es un curioso, alguien con intereses intelectuales, en fin, incluso un amante de la lectura y las buenas discusiones. No más. Lo cual, desde luego, no es poco.
Ahora bien, la ciencia y la filosofía no se hacen sin buenas bibliotecas y hemerotecas; no sin laboratorios idóneamente dotados y experticia técnica; no sin el conocimiento de por lo menos un idioma extranjero y la participación en los circuitos correspondientes de conferencias en los que se habla y discute generalmente acerca de los más recientes desarrollos en cada campo; no sin computadores y oficinas decorosas, y ciertamente no sin asistentes de investigación, que muchas veces dispensan especialmente de las tareas mecánicas o administrativas.


Y, sin embargo, nada de ello define a un científico o filósofo por excelencia. Por el contrario, y muy radicalmente, nadie puede ser un filósofo o científico sin una estupenda capacidad de imaginación, fantasía, juegos ideatorios, con toda la libertad, sin constricciones de ningún tipo, y como juegos y experimentos llevados hasta el extremo. Frente al poder y la capacidad de la imaginación y la fantasía, todo lo demás es mecánica, técnica y destrezas. Incluso, lo cual es encomiable, puede ser mucho esfuerzo y trabajo, todo lo cual, fundamentales como son, resultan al cabo insuficientes.


El concepto de experimento mental aparece, sin embargo, apenas hacia 1812, cuando H. Ch. Oersted lo emplea en su sentido actual, y se convierte en una heurística de la investigación, con seguridad la más importante de todas las heurísticas. El concepto originario aparece en alemán y es un Gedankenexperiment. En lo sucesivo el término se emplea en prácticamente todos los idiomas mayores de occidente, incluido, desde luego, el español.


De hecho, los más importantes experimentos en la historia de la filosofía y la ciencia no son experimentos empíricos, físicos y positivos. Por el contrario, son, literalmente, experimentos mentales. Muy recientemente, por ejemplo, es conocido como el propio Einstein expresó que los más importantes de sus experimentos fueron justamente ideatorios, actos y procesos de la fantasía, gracias a los cuales pudo desarrollar su teoría.


Uno de los más famosos experimentos mentales de todos los tiempos es el gato de Schrödinger, un juego ideado por el físico austriaco como una forma de distanciarse del debate entre Bohr y Einstein (la personalidad misma de Schrödinger se corresponde con los juegos de fantasía, siendo él un hombre de sentido de mundo, extraordinario buen humor y conocedor del savoir vivre).


Es sabido que Galileo jamás se subió hasta el extremo superior de la Torre (inclinada) de Pisa y que sus estudios sobre caída libre y fricción fueron el resultado de experimentos mentales. Para no mencionar que, siendo un joven avezado, se aburría cuando sus profesores, todos jesuitas, llevaban a los cursos a orar a la iglesia. El joven Galileo prefería imaginar lo que sucedería si ese invento reciente, el reloj de péndulo, tuviera el péndulo más corto, o más largo. Esta clase de experimentos le permitirían a Galileo sentar las bases de la mecánica clásica, cuyo epítome sería la obra de I. Newton.


En filosofía, quizás el más famoso de todos los experimentos mentales es la paradoja de Zenón, o el burro de Buridano. Heurísticas maravillosas que alcanzaron una impronta fundamental en la cultura humana en general, y en ciencia y filosofía en particular.


Son numerosos los usos que tienen y pueden encontrársele a los experimentos mentales. Lo importante, con todo, radica en el reconocimiento expreso de que los programas de educación, en general, y en particular los programas de educación en ciencia y filosofía, casi jamás enseñan a realizar experimentos mentales –todos, hoy por hoy, preocupados por desarrollar competencias interpretativas y otra clase de nimiedades–, todas las cuales se encargan de arrojar sombras sobre la libertad de la fantasía y la imaginación.


Los experimentos mentales han sido igualmente reconocidos y trabajados como "pompas de intuición". Esa capacidad que es anterior y sobrepasa con mucho al análisis. La intuición, una capacidad innata en todos los seres humanos, pero que es deformada y atrofiada por el peso de una cultura eminentemente racionalista y analítica.


Sería interesante montar un curso ilustrando la historia de la filosofía desde la Grecia antigua hasta nuestros días, o también de la ciencia moderna y contemporánea consistente en experimentos mentales. La máquina de Feymann, la paradoja EPR (Einstein–Podolsky–Rosen), la habitación china (en filosofía de la mente y ciencias cognitivas), el demonio de Maxwell, y tantos otros.


La capacidad de soñar, de imaginar, de fantasear. Sin saber incluso qué resultará de ello, y ciertamente no a priori. La fantasía y la imaginación, tanto como la intuición, tienen eso de particular: que se oponen a cualquier mecanismo de control y de administración, en cualquier acepción de la palabra.


Formar en ciencia y filosofía consiste, ciertamente, en formar gente libre. Pero de todas las libertades, con seguridad la primera y más radical consiste en soñar, imaginar, fantasear. Por ejemplo, soñar mundos posibles, imaginar alternativas a hechos reales. La lógica de contrafácticos, por ejemplo, es conspicua al respecto. Una lógica que es de gran ayuda en campos como los estudios políticos, las relaciones internacionales y los análisis de sistemas administrativos, por ejemplo.


Nadie puede ser libre si le conceden, reconocen y alimentan la capacidad de fantasía, que es, con seguridad, la capacidad misma de independencia y condición de la crítica. Al fin y al cabo, la verdadera esencia de la ciencia y la filosofía estriba –como es de hecho ya el caso en las artes, la literatura y la poesía– en soñar posibilidades, imaginar espacios, tiempos, estructuras y dinámicas posibles. Todo ello en un mundo que olvidó soñar y que no le otorga espacios a la fantasía. Soñar lo posible, e incluso lo imposible mismo.

 

Publicado: Miércoles, 03 Diciembre 2014 22:28

Publicado en Ciencia y tecnología

Una técnica para hacer transparentes los animales de laboratorio, una pantalla para dispositivos móviles que corrige los defectos visuales y un wifi cargador para eliminar cables son tres de los diez avances actuales que podrían diseñar el futuro. Estas innovaciones, seleccionadas por la revista Scientific American, tienen un gran potencial si logran salir de los laboratorios y muchas también resultarían útiles en países pobres y contribuyen a proteger el medioambiente.

 

Ver cómo se diseminan y multiplican los virus por el cerebro o identificar los nervios periféricos para acelerar la investigación biomédica son algunos de los usos que tiene un animal de laboratorio convertido en transparente una vez muerto. Inspirada por la conocida exposición de cuerpos humanos plastinados, la investigadora Viviana Gradinaru se planteó algo parecido con ratones muertos y consiguió hacerlos transparentes, sustituyendo los lípidos de los tejidos por sustancias químicas y sustituyendo la estructura natural por otra artificial. Los tejidos son tan transparentes que se han conseguido detectar hebras individuals de ARN, dice Gradinaru. También se han podido aislar y marcar células cancerosas de una biopsia de cáncer de piel humano. Obtener mejores mapas de las redes neuronales es otra de las aplicaciones en marcha con esta técnica.


En el área de las aplicaciones de uso cotidiano se presenta una pantalla para dispositivos móviles de comunicación que corrige los defectos visuales del usuario, o sea, las gafas están en la pantalla, mediante una combinación de elementos físicos y programación. Se puede corregir la miopía, la hipermetropía, el astigmatismo y otros problemas de visión, introduciendo los datos del usuario, y se trabaja en un mecanismo de control en el propio teléfono que permita adaptarlo fácilmente a usuarios distintos.


Otra investigadora, Meredith Perry, confió en sus conocimientos para desarrollar una técnica que casi todos le decían que era imposible que funcionara. Es un transmisor de ultrasonidos, en fase de prototipo, que actúa como un altavoz direccional para concentrar en un punto en el espacio la energía mecánica del sonido, energía que un receptor piezoeléctrico conectado a un dispositivo electrónico convierte en electricidad. De esta forma se podrá prescindir de los múltiples cables y cargadores de los dispositivos móviles, afirma la inventora, y también reducir el peso de aviones, naves espaciales y otros vehículos que llevan aparatosos cables de potencia. Antes, se han probado técnicas similares basadas en la resonancia e inducción magnéticas, que funcionan pero tienen muy poco alcance. Los ultrasonidos, en principio, no plantean problemas de seguridad.

En este mismo campo de la energía, se plantea aprovechar la energía disipada en instalaciones industriales en forma de calor, la mayor parte a baja temperatura. Investigadores del MIT han conseguido recuperarla incluso cuando solo se alcanzan los 50 grados, aprovechando el efecto termogalvánico y la creciente eficiencia de los electrodos de las baterías. En el futuro, ven las paredes de las fábricas y las centrales eléctricas cubiertas de baterías que aprovechan el calor para producir electricidad. Mientras tanto, en Arabia Saudí, una diminuta pila de combustible bacteriana, alimentada con saliva, es la base de una interesante línea de investigación. La saliva alimenta las bacterias, que producen electrones, y la pila produce un microvatio de potencia, que es muy poco pero suficiente para alimentar diminutos chips de análisis y seguimiento de enfermedades como la diabetes. Ahora se está experimentando la integración de la célula en un riñón artificial, donde se alimentaría de los fluidos corporales del enfermo para mantener en marcha la máquina.


En biología, la técnica que más atención merece en esta selección es una herramienta para manipular el ADN en un genoma de forma muy precisa y rápida, que ya se está utilizando. Se llama Crispr y que sea tan fácil, rápida y barata está provocando preocupación en algunos sectores científicos por los riesgos que implica éticamente. Al igual que técnicas anteriores que provocaron el auge actual de la ingeniería genética, se basa en un profundo conocimiento de la biología, en este caso de los métodos de defensa de las bacterias frente a los virus. Una proteína utilizada como tijeras por una bacteria para destruir un virus atacante ha demostrado ser ideal para inutilizar genes o insertar material genético nuevo. Las aplicaciones posibles son infinitas. Un investigador ha conseguido eliminar en células humanas la infección por VIH (el virus del sida) e incluso inmunizar las células frente a futuros ataques del virus.


Las células también se pueden reprogramar o controlar con otros métodos, como lograr penetrar su membrana simplemente ejerciendo presión hasta que la deformación produce pequeños agujeros temporales por los que se pueden introducir proteínas, ácidos nucleicos y nanotubos de carbono. A nadie se le había ocurrido hasta hace poco, pero ya existen 16 chips diferentes con canales por los que circulan las células, canales que se estrechan hasta que la deformación permite acceder a su interior para múltiples procesos necesarios en los laboratorios.

En física, el Lego a escala atómica representa uno de los futuros grandes logros de la nanotecnología. Es consecuencia de la creación del grafeno, un material que consiste en una finísima capa de solo un átomo de carbono de espesor, obtenida a partir del grafito (el material de los lápices). Construir estructuras con bloques de grafeno y otros materiales monoatómicos, extraídos, por ejemplo, de la mica, es una tecnología que todavía está poco desarrollada porque presenta grandes dificultades. Se han conseguido ensamblar hasta cinco capas diferentes, y el conjunto resulta ser flexible y transparente. La imaginación no tiene límites respecto a las posibles aplicaciones. "El progreso humano siempre ha seguido de cerca al descubrimiento de nuevos materiales", afirma el premio Nobel André Geim, uno de los descubridores del grafeno.

La lista de avances se completa con un plástico ultrarresistente -llamado Titan- salido de los laboratorios de IBM, que además es reciclable. Es el tipo de material que se puede utilizar en aviones y automóviles y que la industria demanda de forma creciente. Y, finalmente, con una cámara de vídeo que puede detectar nanopartículas, con la misma resolución que los carísimos y complicados microscopios electrónicos. Se podría utilizar para leer mensajes de identificación codificados en todo tipo de materiales, desde un medicamento a un explosivo, por poner un solo ejemplo.

Publicado en Ciencia y tecnología
Lunes, 24 Noviembre 2014 17:53

¿Qué es la cohomología?

Pensar la cohomología significa pensar en términos de multiplicidades, cocadenas, cocliclos, cobordes, poniendo de manifiesto que lo apasionante del mundo no estriba ya únicamente en lo real o en lo posible.

 

Hay un rasgo apasionante, novedoso y, sin embargo, desconocido para la mayoría de las personas acerca de la ciencia de punta contemporánea. Se trata del hecho de que la buena ciencia de frontera no se ocupa ya única y principalmente por lo real, en toda la acepción de la palabra. Ni siquiera tampoco por lo posible en todas sus modalidades (lo hipotético, lo contingente, lo probable, y demás).
Además y, fundamentalmente, la ciencia de punta nos enseña a pensar en lo imposible. Esto es, en estructuras, en fenómenos, en comportamientos, en dinámicas imposibles. El capítulo que hace propia esta otra dimensión pertenece, en general, a las matemáticas, y en particular a la topología: se trata de la cohomología. Y el ámbito específico de trabajo se denomina las multiplicidades. Un tema matemáticamente muy sofisticado y, sin embargo, bastante natural.


Una multiplicidad es en matemáticas la cantidad de pertenencias de un miembro de un multiconjunto. En otras palabras, una multiplicidad es un espacio topológico que en escala micro, en los aspectos singulares, se asemeja a un espacio euclidiano, pero globalmente difiere por completo. En términos elementales: a escala micro puede ser considerado como una figura plana euclidiana —líneas, planos, círculos—, pero a escala global (como un todo) dista mucho de ser un espacio euclidiano.


El padre de la cohomología, en general, y del que es quizás el capítulo más importante, que es la cohomología de gavilla (sheaf cohomology), es el matemático francés Alexander Grothendieck (1928–2014), fallecido el 13 de noviembre pasado. Un auténtico genio. Algunos de los desarrollos más recientes en el tema corresponden a R. Penrose, quien ha trabajado justamente en la cohomología de figuras imposibles.
Vale recordar que las tres operaciones básicas que se hace con los objetos o con el espacio en topología son: torcer, estirar y comprimir. Derivativamente, existen funciones y tensores de torción y demás, correspondientemente.


La manera más básica de entender y de acercarse a la cohomología consiste en recordar que en matemáticas la teoría de homologías —que remiten ulteriormente a los grupos abelianos (en honor del matemático noruego N. H. Abel)— se encarga del estudio de grupos (o módulos) de acuerdo a un espacio topológico. Más exactamente, la homología contribuye a la clasificación de los tipos de espacios.


Pues bien, el aspecto verdaderamente apasionante es que existen, en matemáticas, infinitos espacios. Y cada geometría designa un espacio distinto. Así, tenemos la geometría euclidiana, las geometrías no euclidianas (Riemann y Lobachevsky), la geometría proyectiva, la geometría de taxis, la geometría hiperbólica, la geometría de fractales, y así muchísimas más.


Al respecto, es fundamental observar que en el universo y en la naturaleza coexiste una multiplicidad de espacios diferentes. Y entre ellos hay, incluso, espacios imposibles, formas y patrones imposibles, estructuras y comportamientos imposibles. Pues bien, la cohomología consiste en el estudio de grupos (abelianos) definidos a partir del estudio de co–cadenas, cociclos o cobordes (vale recordar que la teoría de catástrofes, desarrollada por R. Thom, nace a partir de los antecedentes de trabajo por parte del propio Thom en el tema del cobordismo).


La manera culturalmente más próxima de acercarse a la cohomología puede ser a través de la obra en xilografías y litografías de M. C. Escher (1898—1972). Escaleras imposibles, aves que se convierten en peces, la mano que dibuja a la propia mano, en fin, desviaciones, juegos, transformaciones de la percepción natural.


En efecto, si debemos a F. Bruneleschi (1377–1445) el descubrimiento de la perspectiva, lo que ello significa en términos culturales es que la burguesía, como clase social, introduce una nueva visión perfectamente distinta a las que había habido en la historia de la humanidad. La burguesía tiene "un punto de vista", "una perspectiva", un "punto de fuga", y todo eso es la perspectiva. Las cosas, el mundo, se ven desde un punto de vista en cada caso. En lo sucesivo, en contraste con el medioevo, por ejemplo, ya no habrá una visión desde ninguna parte o, lo que es equivalente, una visión de todas partes.


Pensar la cohomología significa pensar en términos de multiplicidades, cocadenas, cocliclos, cobordes, poniendo de manifiesto que lo apasionante del mundo no estriba ya únicamente en lo real o en lo posible. Sino en el descubrimiento, en el trabajo con, y en la pasión con lo imposible mismo.


Vale la pena subrayar esta idea. Si pensar bien es pensar en todas las posibilidades, y si quien piensa bien piensa en todas las posibilidades, dentro, al lado, complementarias, en fin a éstas está, se encuentra aquella dimensión jamás imaginada en toda la historia de la humanidad. La existencia, la tematización, la problematización misma de lo imposible. Podemos así decir que quien piensa bien piensa incluso en lo imposible mismo. Es exactamente en esto, queremos decirlo, que estriba el significado cultural y social de un capítulo técnico, novedoso y apasionante de las matemáticas: la cohomología.


Naturalmente que existe una variedad amplia de teorías cohomológicas. Lo maravilloso de todas ellas (teorías ordinarias de homología, teorías K, bordimos y cobordismo) es que se trata de desarrollos perfectamente recientes, de todos los cuales el más antiguo no lega a cincuenta años, al día de hoy.


Las matemáticas constituyen un campo singular en la experiencia humana. Frente al temor que irracionalmente despiertan —debido a pésimos educadores y muy malos medios de comunicación social—, hay que decir que las matemáticas de hoy no consisten en fórmulas, ecuaciones o reglas; sino, mejor aún, en el estudio de estructuras, y según lo que les suceda a las estructuras: si permanecen o si cambian; y si cambian, entonces se trata de saber si en el cambio siguen siendo las mismas o se transforman.


La abstracción de las matemáticas es sencillamente la capacidad de imaginar o de soñar tantas posibilidades como quepa fantasear. Y ver entonces qué sucede con ellas. Pues bien, en el espectro de las posibilidades hay una que la historia de la humanidad jamás había considerado: el encuentro con lo imposible mismo. Una de las últimas fronteras.

Publicado en Ciencia y tecnología

Investigadores de la NASA han logrado teletransportar información sobre el estado cuántico de un fotón, una partícula de luz, a 25 kilómetros de fibra óptica hasta un 'banco de memoria' en cristal.

 

El récord anterior en la fibra óptica era de 6 kilómetros. Este fenómeno complejo de teleportación cuántica podría tener implicaciones para la criptografía, que consiste en la transmisión de información de forma segura, incluidas las comunicaciones entre la Tierra y las naves espaciales.


"Podemos imprimir el estado de un sistema en otro sistema, incluso cuando los dos están muy separados," dijo Francesco Marsili, ingeniero de microdispositivos del Laboratorio de Propulsión a Chorro (JPL) de la NASA en Pasadena. "El uso de este efecto en las comunicaciones podría ayudar a la construcción de una red de comunicaciones espaciales intrínsecamente segura, es decir, canales de comunicación que no puede ser hackeados."


Marsili y sus colegas del InstitutoNacional de Estándares y Tecnología (NIST), desarrollan dispositivos que pueden detectar las partículas individuales de luz, llamados fotones desarrollados.

"Es difícil de detectar un único fotón, por lo que se necesita para hacer un detector sensible", dijo. "Aquí en el JPL, en colaboración con el NIST, hemos desarrollado el detector más sensible en el mundo."


Así funciona


¿Cómo funciona la teleportación cuántica? Es complicado, pero una analogía para el principio en que se sustenta puede ayudar: Digamos que hay dos personas, Alice y Bob. Alice quiere que Bob tenga un fotón que esté en el mismo "estado" que su fotón, que llamaremos fotón P.
En aras de esta analogía, vamos a pretender que el "estado" es un color, y el fotón P es amarillo. Una tercera persona llamada Charlie envía dos fotones entrelazados, fotón A a Alice y fotón B a Bob, que se comportan como si fueran parte de un mismo todo. Ambos de estos fotones se muestran en azul.

 

"En un sistema enredado, cada parte está conectada entre sí de una manera fundamental, de manera que cualquier acción realizada en una parte del sistema enredado tiene un efecto en todo el sistema enredado", dijo Marsili.


Los dos fotones de Alice, P, que es de color amarillo, y A, que es de color azul, "chocan". Alice mide los fotones como se aniquilan entre sí. Aunque P y A son destruidos en el accidente, se conserva el color amarillo de P. Debido a que los fotones A y B de fotones están entrelazados, el color amarillo es "teletransportado" a B. Pero con el fin de hacer que el fotón B se convierta en amarillo, como el fotón P era originalmente, Alicia necesita enviar a Bob dos bits de información a B mediante la manera "clásica" – por ejemplo, mediante el envío de pulsos de luz a través de una fibra óptica.


"Cuando Alice mide el estado de su fotón, los fotones de Bob cambian de estado también, como si se activara un interruptor", dijo Marsili. "Pero Bob no puede saberlo a menos que Alice le envíe los bits de información clásica". Bob no sabe que su fotón ha cambiado a amarillo sin esa información adicional.


El teletransporte cuántico no significa que alguien puede saltar de Nueva York a San Francisco instantáneamente, pero parece ciencia ficción en el sentido de que el estado de una partícula (fotón P) se destruye en un solo lugar, pero se reproduce en otro sistema remoto (fotón B ) sin que las dos partículas hayan interactuado nunca.


Otra pieza fundamental de esta historia es que Bob tiene un cristal específico, que sirve como un banco de memoria, para almacenar su fotón entrelazado y servir como destinatario del estado cuántico.


Los investigadores llegaron a la distancia récord de 25 kilómetetros entre "Alice" y "Bob" gracias a los detectores ultrasensibles desarrollados por el JPL y el NIST. "Llegar a esta distancia no habría sido posible sin esos detectores", dijo Félix Bussières en la Universidad de Ginebra, autor principal del estudio.


El teletransporte cuántico se puede utilizar para hacer que sistemas como cuentas bancarias sean más seguras a través de distancias más largas. Esto también es importante para la prevención de los ataques a los canales de comunicación en el espacio.
"Si te estás comunicando con sus astronautas en Marte, debes impedir que los hackers rompan el canal codificado y les den información falsa", dijo Marsili.


(Con información de Europa Press)

Publicado en Ciencia y tecnología

Cómo convertir la destrucción creativa en crecimiento neto


Las cifras alusivas al crecimiento económico (asumido como valor añadido de las labores humanas a la naturaleza que se supone mera materia prima) y de productividad (mayor producción de bienes y servicios por la labor humana en determinado período de tiempo), son entendidos hoy como signos y síntomas de buena salud económica. Crecimiento económico y productividad insomne son los dos sagrados mandamientos de la economía de mercado.


Los mencionados indicadores presentan al menos los siguientes tres crasos errores, a saber: i) suprema abstracción que permite introducir peras y manzanas, bienes y males, vicios y virtudes, en un solo costal; ii) supuestos de sospechosa ingenuidad, que permiten catalogar como crecimiento todo aquello que arroje la economía, aunque sea destructivo –como armas–, nocivo –como basura–, y banal –como inocuos lujos y dudosos servicios–; iii) ausencia de estudios cualitativos que permitirían dudar de calificar como crecimiento la extracción de minerales y energías del suelo, y también la redundante multiplicación de copias y modas.


En un mundo obsesionado con producir cada vez más y más rápido, para registrar más crecimiento y mayor productividad, es apenas sensato poner en duda la mayor salud económica al saber que se juzga como producción y, aún como progreso, las siguientes abominaciones: excedentes inocuos (modas, bienes y servicios que nacen de necesidades creadas); males y daños económicos (agotamiento de recursos no renovables cuantificados como crecimiento); congestión en las grandes urbes que en las cuentas se registra como incremento en la venta de gasolina y otros combustibles; contratación de más abogados y gendarmes como consecuencia de mayor criminalidad y conflictividad social; producción de bienes y servicios con obsolescencia programada, y de cosas y gentes condenadas a ser desechables.
El gran economista Schumpeter mostró que la economía de mercado es un proceso de creación destructiva; los mucho menos grandes econometristas y tecnócratas, con sus ciegas perspectivas cuantitativas se niegan, con sospechosa ingenuidad, a mostrar y a cuantificar el lado destructivo del mercado.


Sobre el significado de la biblioteca de Babel


Jorge Luis Borges mostró la redundancia de publicaciones y, con ella, la creciente trivialidad de los hallazgos que solo incautos o malintencionados pueden llamar "generación de nuevo conocimiento", y lo expresó magistralmente en su Biblioteca de Babel (1), así: "[...] Hace quinientos años, el jefe de un hexágono superior dio con un libro tan confuso como los otros, pero que tenía casi dos hojas de líneas homogéneas. Mostró su hallazgo a un descifrador ambulante, que le dijo que estaban redactadas en portugués; otros le dijeron que en yiddish. Antes de un siglo pudo establecerse el idioma: un dialecto samoyedo-lituano del guaraní, con inflexiones de árabe clásico. También se descifró el contenido: nociones de análisis combinatorio, ilustradas por ejemplos de variaciones con repetición ilimitada. Esos ejemplos permitieron que un bibliotecario de genio descubriera la ley fundamental de la Biblioteca. Este pensador observó que todos los libros, por diversos que sean, constan de elementos iguales: el espacio, el punto, la coma, las veintidós letras del alfabeto. También alegó un hecho que todos los viajeros han confirmado: No hay en la vasta Biblioteca, dos libros idénticos. De esas premisas incontrovertibles dedujo que la Biblioteca es total y que sus anaqueles registran todas las posibles combinaciones de los veintitantos símbolos ortográficos (número, aunque vastísimo, no infinito) o sea todo lo que es dable expresar: en todos los idiomas. Todo: la historia minuciosa del porvenir, las autobiografías de los arcángeles, el catálogo fiel de la Biblioteca, miles y miles de catálogos falsos, la demostración de la falacia de esos catálogos, la demostración de la falacia del catálogo verdadero, el evangelio gnóstico de Basilides, el comentario de ese evangelio, el comentario del comentario de ese evangelio, la relación verídica de tu muerte, la versión de cada libro a todas las lenguas, las interpolaciones de cada libro en todos los libros, el tratado que Beda pudo escribir (y no escribió) sobre la mitología de los sajones, los libros perdidos de Tácito [...]".


Bien. Ante la creciente división social del conocimiento en disciplinas y luego en fragmentos cada vez más irrisoriamente especializados al interior de estas, cada investigador expone hoy conocimientos o seudo-conocimientos, y mera basura informativa, de ínfimos y ridículos fragmentos: tiende a conocer el todo de lo ínfimo. Hoy aumenta frenéticamente el número de publicaciones y se reduce ostensiblemente el número de lectores para cada fragmento de ciencia especializada. Así las cosas, la manera más burda y racional (como la vía del menor esfuerzo), consiste en diseñar indicadores cuantitativos de crecimiento y productividad: se juzga el número de artículos y de libros que iluminados jueces académicos han ubicado en catálogos o bases de datos.


Lo preocupante hoy debería ser la publicación ad nauseam de artículos y libros, y quizás la única utilidad de las bases de indexación y los registros de producción bibliográfica sea la de constatar el exceso de escritura: los indicadores sólo captan cuánto y a qué velocidad un autor escribe pero dejan de lado lo esencial que es el proceso para digerir críticamente y dar el debate a lo producido. Y como aún los más famosos y creativos son presas de la redundancia, cada vez que muere un gran autor como F. Hayek, J. Buchanan, o A. Hirschman, los conocedores de su vasta obra se deciden a publicar un libro que condensa la esencia de los aportes de este tipo de autores.
Fantasía gringa que resulta superada por la realidad macondiana.


James Scott (2) imaginó que Condolezza Rice, la famosa exsecretaria de Estado, asumiría en el año 2020 la rectoría de la Universidad de Yale con la promesa de "[...] conducir una total reestructuración del profesorado utilizando las técnicas más avanzadas de gestión de calidad; técnicas perfeccionadas desde sus rudimentarios inicios en las Grandes Ecoles de París a finales del siglo XIX, encarnadas no solo en la revolución en Ford de Robert McNamara, y más tarde, en la década de 1960, en su trabajo en el Ministerio de Defensa, sino también en la revolución de Margaret Thatcher con respecto a la gestión de política social y de educación superior en el Reino Unido en la década de 1980; y refinadas por el desarrollo de la medición numérica de la productividad de los individuos y de las unidades en la gestión industrial; técnicas que el Banco Mundial haría evolucionar todavía más, y que las universidades del grupo Big Ten llevaron al borde de la perfección [...]".


Y vaticinando lo que se avecina como una aplastante certeza, este veterano profesor de Yale imaginó que cada profesor tendría por uniforme y registro de sus aportes (producción académica, productividad, frecuencia de citación y obsolescencia de sus investigaciones), una gorra que, en tiempo real, y a través de un visible y sonoro tablero electrónico diese tales datos segundo a segundo al público: clientes estudiantes, colegas rivales, y empleadores de la universidad.


A punto de cumplirse tres lustros de inaugurado el siglo XXI en el país donde nació uno de los grandes artífices del realismo mágico, legiones de científicos senior y junior están engendrando una nueva modalidad de indicadores de producción y productividad cognitiva –siguiendo las directivas del supremo órgano rector de la ciencia y tecnología.


El legado gringo, proyectado al resto del mundo, se basa en los conocidos campos de la informetría, bibliometría y cienciometría que hoy hace posible cuantificar la producción científica para poder determinar la productividad de los seres dedicados a la ciencia. Los avances de tales técnicas cuantitativas son apenas un signo de los nuevos tiempos: los calmados viejos cientistas acostumbraban a decir "publicar o morir", hoy los acelerados competidores que se creen productores de ciencia pueden perder su cargo, ver devaluado su título y aún fenecer por obsolescentes si dejan de cumplir dos sagrados preceptos: i) publicar el mayor número de artículos en revistas indexadas cada vez más exclusivas (de bases de indexación ultra-superiores), y otros productos (libros de investigación, consultorías académicas y comerciales, y artículos menores) cada semestre; ii) posicionar su oferta cognitiva en los más altos rangos de venta (dado que los productos no citados se consideran inexistentes entonces hay que lograr el mayor número de citaciones).

Los ingeniosos reguladores y auditores que en Colombia siguen la pista de la productividad del conocimiento científico han hecho un aporte sustantivo a tal técnica, el cual obedece a la siguiente pauta: no basta con publicar y con ser productivo en dicha tarea pues hay que demostrar que los productos cognitivos son completamente auténticos, para lo cual han de contar con el sello de fe pública que emite algún sagrado notario. Hoy todas las facetas y secuencias de la producción (el output científico) sólo existen en tanto se acompañes de toda clase de certificaciones y registros legales que prueben la buena fe de quienes hacen ciencia. Es de sospechar que en un mañana cercano todas las fuentes y etapas de los insumos de la investigación (el input científico) también deberán ser legalmente certificadas: aquello que no tiene el santo y seña de la legalidad y formalidad notarial no existe, aunque se trate de una realidad palpable.


Una de las presumibles consecuencias de tan notable avance en la informetría con registro notarial será la desaparición acelerada de aquellos científicos sociales ocupados de campos oscuros y tenebrosamente subterráneos: la informalidad, los actores ilegales, los mercados negros, los bienes y servicios prohibidos e ilegales, y también los grupos indígenas y campesinos que manejan sus propias normas comunitarias pues, una vez más hay que repetir: toda realidad que no tenga un registro legal no existe.


Y como si lo anterior fuese poco, el tiempo de los que investigan o creen investigar se extinguirá en las arduas y prolongadas tareas de registrar con un sello legal cada faceta del proceso investigativo, por trivial que esta pueda parecer. En un país donde el plagio, la copia y la falsificación no son eventos extraordinarios se reeditará la pesimista sentencia de Hobbes así: el hombre es un copión de su prójimo, y de todo productor de investigaciones científicas sospecharás que es un plagiario.

Notas

1. El conocido cuento aparece en Ficciones, con el sello editorial Alianza

2. Scott, James, Elogio del anaarquismo, Crítica, Barcelona, 2013

 

Publicado en Ciencia y tecnología

El robot Philae, posado sobre un cometa a más de 510 millones de kilómetros de la Tierra, envió este jueves tres buenas noticias sobre su funcionamiento. Es sometido a un chequeo, anunciaron los científicos.

 

"Pasó la noche sobre el cometa y tenemos tres buenas noticias: la primera es que está posado sobre el núcleo del cometa; la segunda, que recibe energía: sus paneles solares están encendidos y le permitrán enfrentar el futuro, y la tercera es que estamos en contacto permanente con él, ya que emite y envía informaciones a Rosetta y luego la sonda, que orbita el cometa, las transmite" a la Tierra, dijo Jean-Yves Le Gall, presidente del Centro Nacional de Estudios Espaciales de Francia.


Según Le Gall, "la señal de radio funciona bien, estamos en contacto directo con Philae", agregó.


Consultado acerca del anclaje del robot sobre la superficie del cometa 67P/Churyumov-Gerasimenko y el funcionamiento de los dos arpones que lleva en las patas, destacó que "lo más importante es que estamos bien colocados. Luego veremos lo que hacemos con los arpones. Estamos haciendo un chequeo de Philae. Estamos en contacto, eso es lo más importante.


Y sobre todo, tenemos energía, insistió Le Gall. Teníamos la batería que permitía vivir de manera autónoma varias decenas de horas, pero ahora los paneles solares funcionan, agregó. Eso permitirá tener una vida mucho más larga para el robot, más allá de las 60 horas previstas.
Todos los sistemas funcionan bien, aseguró el responsable.


En cuanto al núcleo del cometa, todas las teorías decían que era una bola de nieve sucia, más bien compacta. Ahora los científicos saben que se trata de una superficie totalmente accidentada. Allí donde esperábamos una superficie blanda, encontramos hielo duro, agregó Le Gall.
Pendiente muy inclinada


El robot funciona bien, pero las fotos que envía parecen indicar que está sobre una pendiente muy inclinada y rodeado de acantilados, indicó Philippe Gaudon, jefe del proyecto Rosetta del Centro Nacional de Estudios Espaciales.


Philae dispone de seis cámaras y tomó fotos en distintas direcciones, pero los científicos no recibieron las fotografías panorámicas que esperaban del cometa. En una de ellas se ve el cielo, en otra el suelo, en otra una especie de acantilado.


Según los responsables espaciales, el robot se encontraría a cierta distancia del lugar previsto inicialmente. Nuestra prioridad por ahora es seguir haciendo análisis científicos, sin mover nada, dijo Gaudon.


Repleto de instrumentos de observación, el robot carece de sistema de desplazamiento autónomo, tiene el tamaño aproximado de un refrigerador y pesa unos 100 kilos.


Desde el 6 de agosto y tras más de 10 años de viaje interplanetario de 6 mil 500 millones de kilómetros, la sonda no tripulada europea Rosetta se desplaza a escasas decenas de kilómetros junto al cometa, escoltando al cuerpo celeste en su movimiento a medida que se aproxima al Sol.


Los cometas son agregados de polvo y hielo, primordialmente, escombros restantes del proceso de formación del sistema solar ocurrido hace 4 mil 600 millones de años.


Por eso Philae intentará analizar directamente con sus instrumentos el núcleo del cometa y descifrar las claves para comprender cómo los planetas se formaron alrededor del Sol.

Publicado en Ciencia y tecnología

Tres letras (www) seguidas de un punto hicieron de Internet un lugar para todos los públicos. De una red usada por centros de investigación y defensa al centro de la vida social y los negocios que hoy representa, la world wide web, la telaraña mundial, cumple 25 años este miércoles. Tim Berners-Lee, el creador de este protocolo, cuando trabajaba en el Laboratorio Europeo de Física de Partículas (CERN), junto a Ginebra, y su lenguaje de programación, el HTML, lenguaje de etiquetas de hipertexto, celebra la buena salud de su invento.


La Red apenas usa ya las tres uve doble para ir a una dirección. En muchas ocasiones, directamente se carga a través de aplicaciones: "Se gestiona a través de marcos conceptuales u otros programas, pero la esencia, lo que va por debajo, está hecho del material inicial". Berners-Lee habla del brillante futuro de su invento en uno de los lugares consagrados a la historia de Silicon Valley, el Museo de la Historia de la Informática en Mountain View, muy cerca del campus de Google, y a pocas calles de la guarida de WhatsApp. Allí se muestra cómo eran aquellos ordenadores con bujías que ocupaban toda una sala junto a uno de los primeros modelos de coche sin conductos de Google. Berners-Lee mantuvo en ese lugar un encuentro informal con una veintena de personas, incluido media docena de periodistas.


Antes de la primera burbuja de Internet, a comienzos del nuevo siglo, hubo una guerra por la conquista de los navegadores. Mosaic fue el primero, la herramienta que hacía legible y manejable el código creado por Berners-Lee. Después llegó el Netscape de Marc Andreessen, uno de los primeros millonarios de Internet, hoy convertido en polémico inversor de capital riesgo. Berners-Lee considera que la creación hace 20 años del W3C, el consorcio que marca las pautas de programación de las páginas web, fue clave para su futuro. Sin embargo, será lejos de la pantalla del ordenador: "La web ahora está en pantallas grandes, tabletas y teléfonos, pero pronto invadirá relojes y aparatos que están por llegar".


Berners-Lee considera que la combinación entre HTML5, una versión mucho más dinámica de su primitivo código, y Javascript, un lenguaje de programación que dota de interacción a las páginas web, auguran recorrido a su invención: "El límite de las máquinas no es su potencia, sino nuestra imaginación. Al programar no se debe pensar solo en la página, sino también el contenido que alberga en su interior".


Uno de los grandes retos que afronta su invento para tener continuidad es la adopción de estándares. Durante más de una década, las versiones antiguas de navegadores -especialmente conocido es el caso de Internet Explorer 6 de Microsoft- impedían nuevos avances. El debate entre si se debe adoptar las últimas recomendaciones de programas o mantener el acceso a los usuarios, casi siempre del entorno corporativo, que seguían con estos navegadores, frenaron innovaciones que técnicamente eran posibles. Esto se repite en el caso de los móviles cuya actualización queda estancada, en muchas ocasiones, por los propios fabricantes. "Tanto Android como iOS usan HTML5 pero no es suficiente, lo lógico sería apostar por navegadores menos exigentes, que se actualizasen por sí mismos, sin necesidad de hacerlo con todo el sistema operativo", subrayó durante el encuentro.

Publicado en Ciencia y tecnología

En octubre Rusia completará la entrega a Afganistán de los helicópteros Mi-17B-5 fabricados en virtud de contratos firmados con el Pentágono. Washington es consciente de que sin los medios militares rusos será incapaz de seguir en el país asiático.

El 29 de octubre próximo está previsto que Rusia envíe a Kabul el último lote formado por tres helicópteros de este tipo. De esta forma, la cantidad total de entregas de aviones rusos en virtud de los contratos firmados con EE.UU. asciende a 63 helicópteros Mi-17B-5, informa el diario ruso 'Rossiyskaia Gazeta'.


Pese a llegar casi a iniciar una 'guerra' con el Congreso de EE.UU. los generales del Departamento de Defensa insistieron en el cumplimiento de sus compromisos en relación a los helicópteros rusos.


A mediados de julio el comandante de la Fuerza Internacional para la Asistencia y la Seguridad (ISAF, por sus siglas en inglés), el general Joseph Dunford, compareció ante el Congreso advirtiendo de que una posible anulación de las entregas de los Mi-17 a Kabul "sería un catástrofe".


Como explicó el general, las fuerzas especiales afganas prevén usar helicópteros rusos en sus operaciones contra los terroristas y narcotraficantes.


Además, Dunford dio a entender que sin los helicópteros Mi-17B-5, que están perfectamente adaptados a volar en las montañas y a una gran variedad de temperaturas, los militares locales no podrán llevar a cabo sus planes. Ello significa que la capacidad de combate contra terroristas y traficantes de drogas del contingente de estadounidenses que queda en Afganistán tras la retirada de las tropas internacionales se reduciría drásticamente.


Helicópteros rusos, manzana de la discordia entre el Congreso y Pentágono


El principal contrato para el suministro de Mi-17B-5 a Afganistán fue alcanzado entre el consorcio ruso Rosoboronexport y el Gobierno de EE.UU. en mayo de 2011. A finales de ese mismo año los primeros helicópteros llegaron a Kabul. Las entregas se completaron en 2012.


Pero los congresistas siempre presionaban al Pentágono con la exigencia de cancelar los acuerdos. Tras no poder llegar a un consenso con el Pentágono, el Senado de EE.UU. aprobaba en noviembre de 2012 una enmienda que prohibía la compra de Mi-17B-5 rusos. Más tarde se descubrió que no era necesario cumplirla porque el documento tenía el carácter de mera recomendación.


Únicamente a mediados de 2013 el Pentágono tomó la decisón definitiva de no cooperar con Rusia en este ámbito. En ese momento EE.UU. ya había firmado con Rosoboronexport varios contratos adicionales para el suministro de Mi-17V-5 que hasta hoy se ve obligado a cumplir no solo porque necesite imperiosamente este equipamento militar en países como Afganistán e Irak, sino porque la anulación de los contratos implicaría grandes multas para la administración estadounidense.


(Tomado de RT en:http://actualidad.rt.com/actualidad/view/144847-eeuu-comprar-helicopteros-rusos)

Publicado en Ciencia y tecnología
Lunes, 27 Octubre 2014 07:20

Los nuevos senderos que se abren

Tensiones y desafíos

Por Josefina Grinberg *


En el último tiempo, las tecnologías de impresión 3D adquirieron gran notoriedad: en diversos países se están llevando a cabo diferentes iniciativas tanto gubernamentales y privadas, como de la sociedad civil, tendientes a fomentar la innovación, el aprendizaje y la adopción de la tecnología de impresión 3D. Se cree que esta tecnología posee el potencial de modificar radicalmente la industria manufacturera, puesto que su utilización para la fabricación de un producto final podría implicar nuevas maneras de producir, diseñar, distribuir y comercializar bienes.


La impresión 3D se inscribe dentro de las denominadas Tecnologías de Propósito General, ya que su aplicación atraviesa el conjunto de actividades productivas y sociales, abriendo la puerta para una revisión profunda del paradigma tecnoproductivo dominante. Entre otras cosas, al prescindir del uso de matricería permitiría un grado de personalización de piezas sin precedentes, alentando la producción a demanda y de piezas únicas, y admitiría el desarrollo de morfologías inimaginables para los métodos tradicionales. A su vez, esta tecnología está impulsando iniciativas de investigación sobre nuevos materiales y promete las aplicaciones más novedosas y diversas, tales como la impresión de material biológico, medicamentos y productos alimentarios, por mencionar algunos ejemplos.
Si bien la tecnología de impresión 3D no es nueva, en la última década ha crecido significativamente. Con la explosión de Internet y de las tecnologías digitales, surgieron proyectos que proponen el libre acceso a los desarrollos tecnológicos, permitiendo compartir la información de igual manera que sucede con el software open source. Así, a partir de los modelos de código abierto, al escenario vigente dominado por las empresas fabricantes de máquinas de uso industrial y profesional se sumaron nuevos emprendimientos comerciales, movimientos de usuarios-productores, comunidades de aficionados, etc. Estas dinámicas se propagaron rápidamente, también en los países en desarrollo.


En sintonía, el sector de la tecnología de impresión 3D en Argentina se encuentra en proceso de expansión. En primer lugar, existen diversas empresas que, a partir de los modelos disponibles bajo licencias públicas, han desarrollado sus propios productos comerciales. En segundo lugar, hay una creciente comunidad de usuarios que experimentan constantemente con la tecnología generando procesos innovadores. Además, organismos públicos como el Ministerio de Ciencia, Tecnología e Innovación Productiva y el INTI han impulsado diversas iniciativas destinadas a apoyar y difundir la producción y el uso de la tecnología de impresión 3D. Desde el año 2013, ambas instituciones han llevado adelante actividades como mesas consultivas con actores representativos del ecosistema de la impresión 3D, la Primera Jornada Nacional sobre Impresoras 3D, y talleres con sectores productivos. Estas acciones condujeron a la elaboración, por parte del MinCyT, de un instrumento que busca tanto fomentar la innovación en el área de la impresión 3D, como estimular procesos de aprendizaje de la tecnología entre estudiantes y docentes de carreras de diseño e ingeniería. Complementariamente, el MinCyT estableció un compromiso junto con el Ministerio de Trabajo, Empleo y Seguridad Social de la Nación, que tiene como objetivo principal la capacitación de trabajadores en el uso de esta nueva tecnología.


Claramente, los desafíos que se presentan son muchos. Por un lado, habrá que capitalizar los avances alcanzados hasta el momento a nivel local para posicionar al país como productor de la tecnología en la región, mejorando las tecnologías disponibles, optimizando las experiencias de uso y ampliando la oferta de productos y materiales de impresión. El carácter extremadamente sistémico de la tecnología, por otra parte, demanda pensar no sólo en el de-sarrollo de equipos e insumos, sino también de los servicios complementarios necesarios para conformar una red robusta (repositorios digitales, e-commerce, distribución, etc.). Potenciar la difusión de una nueva tecnología y su incorporación a otras actividades, logrando un dominio profundo de sus principios y herramientas, es lo que permite una asociación virtuosa entre el avance tecnológico y el desarrollo social y productivo. Es ésta la forma en que se logra forjar desde las políticas de innovación una competitividad genuina, así como la orientación del desarrollo tecnológico hacia la resolución de problemas propios de nuestro entramado social. Por último, se abre un complejo debate sobre los marcos regulatorios, siendo ésta una tecnología que se imbrica en un ámbito difícilmente regulable como Internet. Esta cuestión excede la dimensión "legal" de la tecnología, e invita a reflexionar sobre las posibles implicancias de la difusión y adopción de la misma y, especialmente, a pensar en usos responsables.


* Diseñadora industrial (UBA) – Maestría en Ciencia, Tecnología y Sociedad (Universidad Nacional de Quilmes).
________________________________________


¿"Revolución tecnológica"?

 

Por Adrian Smith * y Mariano Fressoli **


Las tecnologías de fabricación digital, y especialmente la impresión 3D, permiten digitalizar objetos en tres dimensiones e imprimirlos materialmente. Se sostiene que la capacidad para imprimir una variedad de materiales (desde plásticos, arcillas o metales hasta cultivos celulares) podría modificar las formas de consumo y el acceso a bienes. Esto se debe a que las tecnologías de fabricación digital acortan los tiempos requeridos entre el diseño y la producción, permitiendo acelerar los mecanismos de producción flexible de pequeñas cantidades. Simultáneamente, la fabricación digital acentúa el rol de la economía de servicios y el ascenso de las capacidades de diseño y programación, mientras que amenaza las capacidades manufactureras tradicionales.


Las promesas de la fabricación digital han atraído a grandes empresas, investigadores, políticos, emprendedores, arquitectos y diseñadores, makers y medios de comunicación. Dependiendo de a quién escuchemos, se argumenta que la fabricación digital podría iniciar una tercera revolución industrial, la personalización de la producción y el fin de la producción masiva. Otros sugieren que es el comienzo de nuevas formas de democratización del conocimiento y fabricación más sustentable.


Sin embargo, la historia de otras "revoluciones tecnológicas" nos enseña que difícilmente una sola tecnología puede forzar el cambio. El cambio radical es más bien el resultado de una combinación entre varias tecnologías y procesos sociales. Estas fuerzas se interrelacionan y combinan, pero fundamentalmente son los actores sociales quienes impulsan y llevan adelante los cambios.


Por ejemplo, a principio del siglo XX no fueron sólo las máquinas de coser hogareñas sino también las revistas con moldes de ropa y la disponibilidad de telas económicas las que permitieron revolucionar la moda y democratizar el acceso a la vestimenta. Los trabajadores pudieron producir y arreglar su ropa, adaptando distintos diseños. Pero, como en otros casos, las posibilidades que abrieron las máquinas de coser también implicaron una mayor carga para las mujeres, que tenían que hacer la costura.


¿Sucederá una "revolución" parecida con la fabricación digital? Y si no, ¿hacia qué dirección nos llevará? Afortunadamente, la historia también indica que es difícil predecir el rumbo del cambio tecnológico. Entonces, en lugar de pronosticar el futuro parece más relevante generar oportunidades para que la gente acceda a las nuevas tecnologías y pueda participar concretamente de las posibilidades y controversias que genera. Estas experiencias también deberían tomar nota de los riesgos que implica la fabricación digital. Es importante reconocer que las visiones sobre el futuro de la fabricación digital tienen implicancias para el trabajo, el consumo, el desarrollo social y el uso de recursos.


Existen varios lugares que están desarrollando estas tecnologías en Argentina. Por un lado algunas empresas locales, universidades e institutos públicos como el INTI ya están creando productos y servicios a nivel nacional. Por otro lado, existen nuevos talleres de experimentación como los movimientos de fablabs (laboratorios de fabricación digital), makers y hackerspaces. Se trata de espacios organizados informalmente donde cualquiera puede acceder a las herramientas, aprender su uso y proponer proyectos. También se conectan entre sí a través de medios electrónicos, lo que les permite compartir diseños, tutoriales y nuevos aprendizajes. Algunos de ellos ya existen en Argentina.


Pensamos que, además de los espacios orientados a la producción industrial, los nuevos talleres ofrecen oportunidades para acceder a la fabricación digital. La experimentación a este nivel es clave porque permite abrir ámbitos de reflexión sobre la dirección del cambio tecnológico, introduciendo nuevos tópicos, como el acceso libre al conocimiento y la producción sustentable. Estas experiencias también resultan significativas para las instituciones públicas interesadas en apoyar la educación en nuevas tecnologías como forma de inclusión social.


En los talleres y hackatones es posible observar cómo la gente se involucra con la fabricación digital y qué tipos de relaciones sociales construyen a partir de los proyectos que comparten. Permiten entender además cómo los nuevos usos, bienes, formas de intercambio y propiedad intelectual podrían conectarse con la economía. A partir de ellos quizá sea posible comprender qué nuevas formas organizacionales y culturales están emergiendo, y si efectivamente llevarán a la aparición de formas de organización descentralizada y democrática, a la modificación de los patrones de trabajo y consumo, o a un incremento de los mecanismos de control y exclusión.
Creemos que la diversidad y experimentación con ideas, tecnologías y formas de organización que estos espacios generan son relevantes para el resto de la sociedad. Por lo tanto, sería interesante tender más puentes entre los espacios experimentales y los espacios formales de ciencia y tecnología. Más allá de las promesas y fascinaciones de la fabricación digital, es fundamental abrir el debate y la experimentación para poder elegir colectivamente y de manera autónoma las direcciones del cambio tecnológico.


* Steps Centre y SPRU – Universidad de Sussex.
** Centro Steps América latina / Conicet.

Producción: Tomás Lukin

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

Publicado en Ciencia y tecnología

Según la UNESCO más de dos terceras partes de las investigaciones en América Latina están financiadas con fondos públicos. Si la ciudadanía contribuye con sus impuestos a promover la investigación, ¿por qué hay que pagar también por sus resultados?

Esta es la semana internacional de acceso abierto (International Open Access Week) en la que se celebran diversas actividades encaminadas a reclamar el acceso abierto al conocimiento, a explicar el por qué de su demanda y a contar las diferentes experiencias existentes para llegar a textos y datos libres.

Muchos escritores y muchos más cantantes rugen por la piratería. Los autores se quejan por el uso gratuito de sus conocimientos, lo que conlleva que no les reporten beneficios. La pregunta es ¿por qué a un autor musical le tienen que pagar cada vez que se escucha su pieza y un científico descubridor de una vacuna no cobra cada vez que alguien se la inyecta? Sin entrar a valorar la relevancia de lo segundo frente a lo primero, a la gente del común, o al menos eso nos venden los medios, le interesa más su ídolo "gallocanta" que la salud, la educación o la justicia.

Decía el gran Fernando González en sus letras izquierdistas que "La Universidad hace libres a los hombres (libertad es vivir de acuerdo con la causalidad). La Universidad hace comunistas a los hombres, es decir, propietarios del universo y conscientes de la unidad de éste; los hace anarquistas, es decir, capaces de vivir racionalmente, sin que otro los gobierne."

Parte de esa libertad, de esa apropiación consciente y de esa racionalidad pasa por poder acceder al conocimiento sin restricciones. Cortapisas que la gran mayoría de las veces son de carácter económico ya que se mercantilizan la educación y el saber. En esa línea por defender el conocimiento y la libertad de acceder a él se encuentran tanto los trabajos de la UNESCO y sus políticas de acceso abierto como la campaña del Consejo Latinoamericano de Ciencias Sociales (CLACSO).


Desde las universidades también habría que trabajar por esa política de puertas abiertas para el acceso al conocimiento, como estrategia y proceso para un mejor desarrollo académico de docentes, investigadores y estudiantes. Lo que redundaría en una sociedad más y mejor educada, con mayores posibilidades de producción intelectual y con una formación más crítica y con criterios y argumentos para decidir autónomamente sobre su vida y su futuro.
Además de CLACSO, entidades como la Universidad Autónoma del Estado de México, y su revista Redalyc, Aprender 3C, la ONG Derechos Digitales o la Red Clara participan de una u otra manera en la iniciativa por el acceso abierto.

El organismo de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) tiene en marcha un importante trabajo para el desarrollo de políticas de Acceso Abierto (AA) al conocimiento entre sus estados miembros.


En 2012, en el XII Congreso Internacional de Información (Info'2012), celebrado en La Habana (Cuba), la oficial del programa de Comunicación e Información de la Oficina Regional de Cultura para América Latina y el Caribe, Isabel Viera, señaló que "Al facilitar la accesibilidad en línea a la información académica para todos, libre de la mayoría de las barreras impuestas por las licencias y los derechos de autor, se promueve el intercambio del conocimiento en el plano mundial, la innovación y el desarrollo socioeconómico".


Desde primeros de 2014, la UNESCO ha puesto en línea más de trescientos libros en acceso abierto, en sistema creado por Creative Commons y que contiene obras en doce idiomas, lo que supone abrir una puerta para que la mayor cantidad de conocimiento esté a la mano de la mayor cantidad de público.


En el Portal Mundial sobre Acceso Abierto (GOAP, en inglés) se ofrece información sobre el estado del acceso libre por países y también recursos, enfoques y publicaciones de interés sobre el tema.

Por su parte, CLACSO tiene en marcha la Campaña por el Acceso Abierto al Conocimiento, promoviendo con ello una forma de entender el conocimiento como un bien común que tiene que estar al servicio de la mayoría y que se debe gestionar de "forma solidaria e inclusiva". Esta institución hace un acompañamiento a sus asociados y a organismos y gobiernos regionales para que promuevan y desarrollen iniciativas que faciliten el acceso libre al conocimiento científico y a las investigaciones.

En palabras de Pablo Gentili, secretario ejecutivo de Consejo Latinoamericano, "La producción académica de nuestras universidades no puede estar subordinada a los intereses o vaivenes del mercado editorial. Son nuestras sociedades las que pagan el trabajo que realizan los académicos en América Latina, no las empresas o el sector privado. Todos (pertenezcan o no al mundo universitario) deben tener derecho a acceder gratuita y libremente a las producciones que las universidades y los centros de investigación realizan. No se trata de generosidad. Se trata de una obligación, de un compromiso mínimo con la defensa del espacio público. Simplemente, porque el conocimiento, en una sociedad democrática, debe ser un bien común".

Su Red de Bibliotecas Virtuales es un archivo digital de libre acceso que pone a disposición de la ciudadanía interesada más de 30.000 textos producidos en los veinticinco países que conforman CLACSO y en sus más de trescientos centros asociados. Podemos encontrar ponencias, artículos, libros y revistas a través de sus servicios de Sala de Lectura, Portal de Revistas y Portal Multimedia.

También hay un día para los datos abiertos, Día Internacional de los Datos Abiertos; desde 2009 se viene celebrando, en el mes de octubre, la Semana internacional de Acceso Abierto, y el Movimiento Internacional por el Acceso Abierto ha promovido diversas iniciativas y declaraciones: Iniciativa de Budapest (2002); Declaración de Bethesda (2003); Declaración de Berlín (2003), sobre acceso abierto al conocimiento en las ciencias y las humanidades; Declaración de San Francisco (2012) sobre evaluación de la investigación, o la Confederación de Repositorios de Acceso Abierto (2014).

Publicado en Cultura
Página 1 de 5