Tres letras (www) seguidas de un punto hicieron de Internet un lugar para todos los públicos. De una red usada por centros de investigación y defensa al centro de la vida social y los negocios que hoy representa, la world wide web, la telaraña mundial, cumple 25 años este miércoles. Tim Berners-Lee, el creador de este protocolo, cuando trabajaba en el Laboratorio Europeo de Física de Partículas (CERN), junto a Ginebra, y su lenguaje de programación, el HTML, lenguaje de etiquetas de hipertexto, celebra la buena salud de su invento.


La Red apenas usa ya las tres uve doble para ir a una dirección. En muchas ocasiones, directamente se carga a través de aplicaciones: "Se gestiona a través de marcos conceptuales u otros programas, pero la esencia, lo que va por debajo, está hecho del material inicial". Berners-Lee habla del brillante futuro de su invento en uno de los lugares consagrados a la historia de Silicon Valley, el Museo de la Historia de la Informática en Mountain View, muy cerca del campus de Google, y a pocas calles de la guarida de WhatsApp. Allí se muestra cómo eran aquellos ordenadores con bujías que ocupaban toda una sala junto a uno de los primeros modelos de coche sin conductos de Google. Berners-Lee mantuvo en ese lugar un encuentro informal con una veintena de personas, incluido media docena de periodistas.


Antes de la primera burbuja de Internet, a comienzos del nuevo siglo, hubo una guerra por la conquista de los navegadores. Mosaic fue el primero, la herramienta que hacía legible y manejable el código creado por Berners-Lee. Después llegó el Netscape de Marc Andreessen, uno de los primeros millonarios de Internet, hoy convertido en polémico inversor de capital riesgo. Berners-Lee considera que la creación hace 20 años del W3C, el consorcio que marca las pautas de programación de las páginas web, fue clave para su futuro. Sin embargo, será lejos de la pantalla del ordenador: "La web ahora está en pantallas grandes, tabletas y teléfonos, pero pronto invadirá relojes y aparatos que están por llegar".


Berners-Lee considera que la combinación entre HTML5, una versión mucho más dinámica de su primitivo código, y Javascript, un lenguaje de programación que dota de interacción a las páginas web, auguran recorrido a su invención: "El límite de las máquinas no es su potencia, sino nuestra imaginación. Al programar no se debe pensar solo en la página, sino también el contenido que alberga en su interior".


Uno de los grandes retos que afronta su invento para tener continuidad es la adopción de estándares. Durante más de una década, las versiones antiguas de navegadores -especialmente conocido es el caso de Internet Explorer 6 de Microsoft- impedían nuevos avances. El debate entre si se debe adoptar las últimas recomendaciones de programas o mantener el acceso a los usuarios, casi siempre del entorno corporativo, que seguían con estos navegadores, frenaron innovaciones que técnicamente eran posibles. Esto se repite en el caso de los móviles cuya actualización queda estancada, en muchas ocasiones, por los propios fabricantes. "Tanto Android como iOS usan HTML5 pero no es suficiente, lo lógico sería apostar por navegadores menos exigentes, que se actualizasen por sí mismos, sin necesidad de hacerlo con todo el sistema operativo", subrayó durante el encuentro.

Publicado en Ciencia y tecnología

En octubre Rusia completará la entrega a Afganistán de los helicópteros Mi-17B-5 fabricados en virtud de contratos firmados con el Pentágono. Washington es consciente de que sin los medios militares rusos será incapaz de seguir en el país asiático.

El 29 de octubre próximo está previsto que Rusia envíe a Kabul el último lote formado por tres helicópteros de este tipo. De esta forma, la cantidad total de entregas de aviones rusos en virtud de los contratos firmados con EE.UU. asciende a 63 helicópteros Mi-17B-5, informa el diario ruso 'Rossiyskaia Gazeta'.


Pese a llegar casi a iniciar una 'guerra' con el Congreso de EE.UU. los generales del Departamento de Defensa insistieron en el cumplimiento de sus compromisos en relación a los helicópteros rusos.


A mediados de julio el comandante de la Fuerza Internacional para la Asistencia y la Seguridad (ISAF, por sus siglas en inglés), el general Joseph Dunford, compareció ante el Congreso advirtiendo de que una posible anulación de las entregas de los Mi-17 a Kabul "sería un catástrofe".


Como explicó el general, las fuerzas especiales afganas prevén usar helicópteros rusos en sus operaciones contra los terroristas y narcotraficantes.


Además, Dunford dio a entender que sin los helicópteros Mi-17B-5, que están perfectamente adaptados a volar en las montañas y a una gran variedad de temperaturas, los militares locales no podrán llevar a cabo sus planes. Ello significa que la capacidad de combate contra terroristas y traficantes de drogas del contingente de estadounidenses que queda en Afganistán tras la retirada de las tropas internacionales se reduciría drásticamente.


Helicópteros rusos, manzana de la discordia entre el Congreso y Pentágono


El principal contrato para el suministro de Mi-17B-5 a Afganistán fue alcanzado entre el consorcio ruso Rosoboronexport y el Gobierno de EE.UU. en mayo de 2011. A finales de ese mismo año los primeros helicópteros llegaron a Kabul. Las entregas se completaron en 2012.


Pero los congresistas siempre presionaban al Pentágono con la exigencia de cancelar los acuerdos. Tras no poder llegar a un consenso con el Pentágono, el Senado de EE.UU. aprobaba en noviembre de 2012 una enmienda que prohibía la compra de Mi-17B-5 rusos. Más tarde se descubrió que no era necesario cumplirla porque el documento tenía el carácter de mera recomendación.


Únicamente a mediados de 2013 el Pentágono tomó la decisón definitiva de no cooperar con Rusia en este ámbito. En ese momento EE.UU. ya había firmado con Rosoboronexport varios contratos adicionales para el suministro de Mi-17V-5 que hasta hoy se ve obligado a cumplir no solo porque necesite imperiosamente este equipamento militar en países como Afganistán e Irak, sino porque la anulación de los contratos implicaría grandes multas para la administración estadounidense.


(Tomado de RT en:http://actualidad.rt.com/actualidad/view/144847-eeuu-comprar-helicopteros-rusos)

Publicado en Ciencia y tecnología
Lunes, 27 Octubre 2014 07:20

Los nuevos senderos que se abren

Tensiones y desafíos

Por Josefina Grinberg *


En el último tiempo, las tecnologías de impresión 3D adquirieron gran notoriedad: en diversos países se están llevando a cabo diferentes iniciativas tanto gubernamentales y privadas, como de la sociedad civil, tendientes a fomentar la innovación, el aprendizaje y la adopción de la tecnología de impresión 3D. Se cree que esta tecnología posee el potencial de modificar radicalmente la industria manufacturera, puesto que su utilización para la fabricación de un producto final podría implicar nuevas maneras de producir, diseñar, distribuir y comercializar bienes.


La impresión 3D se inscribe dentro de las denominadas Tecnologías de Propósito General, ya que su aplicación atraviesa el conjunto de actividades productivas y sociales, abriendo la puerta para una revisión profunda del paradigma tecnoproductivo dominante. Entre otras cosas, al prescindir del uso de matricería permitiría un grado de personalización de piezas sin precedentes, alentando la producción a demanda y de piezas únicas, y admitiría el desarrollo de morfologías inimaginables para los métodos tradicionales. A su vez, esta tecnología está impulsando iniciativas de investigación sobre nuevos materiales y promete las aplicaciones más novedosas y diversas, tales como la impresión de material biológico, medicamentos y productos alimentarios, por mencionar algunos ejemplos.
Si bien la tecnología de impresión 3D no es nueva, en la última década ha crecido significativamente. Con la explosión de Internet y de las tecnologías digitales, surgieron proyectos que proponen el libre acceso a los desarrollos tecnológicos, permitiendo compartir la información de igual manera que sucede con el software open source. Así, a partir de los modelos de código abierto, al escenario vigente dominado por las empresas fabricantes de máquinas de uso industrial y profesional se sumaron nuevos emprendimientos comerciales, movimientos de usuarios-productores, comunidades de aficionados, etc. Estas dinámicas se propagaron rápidamente, también en los países en desarrollo.


En sintonía, el sector de la tecnología de impresión 3D en Argentina se encuentra en proceso de expansión. En primer lugar, existen diversas empresas que, a partir de los modelos disponibles bajo licencias públicas, han desarrollado sus propios productos comerciales. En segundo lugar, hay una creciente comunidad de usuarios que experimentan constantemente con la tecnología generando procesos innovadores. Además, organismos públicos como el Ministerio de Ciencia, Tecnología e Innovación Productiva y el INTI han impulsado diversas iniciativas destinadas a apoyar y difundir la producción y el uso de la tecnología de impresión 3D. Desde el año 2013, ambas instituciones han llevado adelante actividades como mesas consultivas con actores representativos del ecosistema de la impresión 3D, la Primera Jornada Nacional sobre Impresoras 3D, y talleres con sectores productivos. Estas acciones condujeron a la elaboración, por parte del MinCyT, de un instrumento que busca tanto fomentar la innovación en el área de la impresión 3D, como estimular procesos de aprendizaje de la tecnología entre estudiantes y docentes de carreras de diseño e ingeniería. Complementariamente, el MinCyT estableció un compromiso junto con el Ministerio de Trabajo, Empleo y Seguridad Social de la Nación, que tiene como objetivo principal la capacitación de trabajadores en el uso de esta nueva tecnología.


Claramente, los desafíos que se presentan son muchos. Por un lado, habrá que capitalizar los avances alcanzados hasta el momento a nivel local para posicionar al país como productor de la tecnología en la región, mejorando las tecnologías disponibles, optimizando las experiencias de uso y ampliando la oferta de productos y materiales de impresión. El carácter extremadamente sistémico de la tecnología, por otra parte, demanda pensar no sólo en el de-sarrollo de equipos e insumos, sino también de los servicios complementarios necesarios para conformar una red robusta (repositorios digitales, e-commerce, distribución, etc.). Potenciar la difusión de una nueva tecnología y su incorporación a otras actividades, logrando un dominio profundo de sus principios y herramientas, es lo que permite una asociación virtuosa entre el avance tecnológico y el desarrollo social y productivo. Es ésta la forma en que se logra forjar desde las políticas de innovación una competitividad genuina, así como la orientación del desarrollo tecnológico hacia la resolución de problemas propios de nuestro entramado social. Por último, se abre un complejo debate sobre los marcos regulatorios, siendo ésta una tecnología que se imbrica en un ámbito difícilmente regulable como Internet. Esta cuestión excede la dimensión "legal" de la tecnología, e invita a reflexionar sobre las posibles implicancias de la difusión y adopción de la misma y, especialmente, a pensar en usos responsables.


* Diseñadora industrial (UBA) – Maestría en Ciencia, Tecnología y Sociedad (Universidad Nacional de Quilmes).
________________________________________


¿"Revolución tecnológica"?

 

Por Adrian Smith * y Mariano Fressoli **


Las tecnologías de fabricación digital, y especialmente la impresión 3D, permiten digitalizar objetos en tres dimensiones e imprimirlos materialmente. Se sostiene que la capacidad para imprimir una variedad de materiales (desde plásticos, arcillas o metales hasta cultivos celulares) podría modificar las formas de consumo y el acceso a bienes. Esto se debe a que las tecnologías de fabricación digital acortan los tiempos requeridos entre el diseño y la producción, permitiendo acelerar los mecanismos de producción flexible de pequeñas cantidades. Simultáneamente, la fabricación digital acentúa el rol de la economía de servicios y el ascenso de las capacidades de diseño y programación, mientras que amenaza las capacidades manufactureras tradicionales.


Las promesas de la fabricación digital han atraído a grandes empresas, investigadores, políticos, emprendedores, arquitectos y diseñadores, makers y medios de comunicación. Dependiendo de a quién escuchemos, se argumenta que la fabricación digital podría iniciar una tercera revolución industrial, la personalización de la producción y el fin de la producción masiva. Otros sugieren que es el comienzo de nuevas formas de democratización del conocimiento y fabricación más sustentable.


Sin embargo, la historia de otras "revoluciones tecnológicas" nos enseña que difícilmente una sola tecnología puede forzar el cambio. El cambio radical es más bien el resultado de una combinación entre varias tecnologías y procesos sociales. Estas fuerzas se interrelacionan y combinan, pero fundamentalmente son los actores sociales quienes impulsan y llevan adelante los cambios.


Por ejemplo, a principio del siglo XX no fueron sólo las máquinas de coser hogareñas sino también las revistas con moldes de ropa y la disponibilidad de telas económicas las que permitieron revolucionar la moda y democratizar el acceso a la vestimenta. Los trabajadores pudieron producir y arreglar su ropa, adaptando distintos diseños. Pero, como en otros casos, las posibilidades que abrieron las máquinas de coser también implicaron una mayor carga para las mujeres, que tenían que hacer la costura.


¿Sucederá una "revolución" parecida con la fabricación digital? Y si no, ¿hacia qué dirección nos llevará? Afortunadamente, la historia también indica que es difícil predecir el rumbo del cambio tecnológico. Entonces, en lugar de pronosticar el futuro parece más relevante generar oportunidades para que la gente acceda a las nuevas tecnologías y pueda participar concretamente de las posibilidades y controversias que genera. Estas experiencias también deberían tomar nota de los riesgos que implica la fabricación digital. Es importante reconocer que las visiones sobre el futuro de la fabricación digital tienen implicancias para el trabajo, el consumo, el desarrollo social y el uso de recursos.


Existen varios lugares que están desarrollando estas tecnologías en Argentina. Por un lado algunas empresas locales, universidades e institutos públicos como el INTI ya están creando productos y servicios a nivel nacional. Por otro lado, existen nuevos talleres de experimentación como los movimientos de fablabs (laboratorios de fabricación digital), makers y hackerspaces. Se trata de espacios organizados informalmente donde cualquiera puede acceder a las herramientas, aprender su uso y proponer proyectos. También se conectan entre sí a través de medios electrónicos, lo que les permite compartir diseños, tutoriales y nuevos aprendizajes. Algunos de ellos ya existen en Argentina.


Pensamos que, además de los espacios orientados a la producción industrial, los nuevos talleres ofrecen oportunidades para acceder a la fabricación digital. La experimentación a este nivel es clave porque permite abrir ámbitos de reflexión sobre la dirección del cambio tecnológico, introduciendo nuevos tópicos, como el acceso libre al conocimiento y la producción sustentable. Estas experiencias también resultan significativas para las instituciones públicas interesadas en apoyar la educación en nuevas tecnologías como forma de inclusión social.


En los talleres y hackatones es posible observar cómo la gente se involucra con la fabricación digital y qué tipos de relaciones sociales construyen a partir de los proyectos que comparten. Permiten entender además cómo los nuevos usos, bienes, formas de intercambio y propiedad intelectual podrían conectarse con la economía. A partir de ellos quizá sea posible comprender qué nuevas formas organizacionales y culturales están emergiendo, y si efectivamente llevarán a la aparición de formas de organización descentralizada y democrática, a la modificación de los patrones de trabajo y consumo, o a un incremento de los mecanismos de control y exclusión.
Creemos que la diversidad y experimentación con ideas, tecnologías y formas de organización que estos espacios generan son relevantes para el resto de la sociedad. Por lo tanto, sería interesante tender más puentes entre los espacios experimentales y los espacios formales de ciencia y tecnología. Más allá de las promesas y fascinaciones de la fabricación digital, es fundamental abrir el debate y la experimentación para poder elegir colectivamente y de manera autónoma las direcciones del cambio tecnológico.


* Steps Centre y SPRU – Universidad de Sussex.
** Centro Steps América latina / Conicet.

Producción: Tomás Lukin

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

Publicado en Ciencia y tecnología

Según la UNESCO más de dos terceras partes de las investigaciones en América Latina están financiadas con fondos públicos. Si la ciudadanía contribuye con sus impuestos a promover la investigación, ¿por qué hay que pagar también por sus resultados?

Esta es la semana internacional de acceso abierto (International Open Access Week) en la que se celebran diversas actividades encaminadas a reclamar el acceso abierto al conocimiento, a explicar el por qué de su demanda y a contar las diferentes experiencias existentes para llegar a textos y datos libres.

Muchos escritores y muchos más cantantes rugen por la piratería. Los autores se quejan por el uso gratuito de sus conocimientos, lo que conlleva que no les reporten beneficios. La pregunta es ¿por qué a un autor musical le tienen que pagar cada vez que se escucha su pieza y un científico descubridor de una vacuna no cobra cada vez que alguien se la inyecta? Sin entrar a valorar la relevancia de lo segundo frente a lo primero, a la gente del común, o al menos eso nos venden los medios, le interesa más su ídolo "gallocanta" que la salud, la educación o la justicia.

Decía el gran Fernando González en sus letras izquierdistas que "La Universidad hace libres a los hombres (libertad es vivir de acuerdo con la causalidad). La Universidad hace comunistas a los hombres, es decir, propietarios del universo y conscientes de la unidad de éste; los hace anarquistas, es decir, capaces de vivir racionalmente, sin que otro los gobierne."

Parte de esa libertad, de esa apropiación consciente y de esa racionalidad pasa por poder acceder al conocimiento sin restricciones. Cortapisas que la gran mayoría de las veces son de carácter económico ya que se mercantilizan la educación y el saber. En esa línea por defender el conocimiento y la libertad de acceder a él se encuentran tanto los trabajos de la UNESCO y sus políticas de acceso abierto como la campaña del Consejo Latinoamericano de Ciencias Sociales (CLACSO).


Desde las universidades también habría que trabajar por esa política de puertas abiertas para el acceso al conocimiento, como estrategia y proceso para un mejor desarrollo académico de docentes, investigadores y estudiantes. Lo que redundaría en una sociedad más y mejor educada, con mayores posibilidades de producción intelectual y con una formación más crítica y con criterios y argumentos para decidir autónomamente sobre su vida y su futuro.
Además de CLACSO, entidades como la Universidad Autónoma del Estado de México, y su revista Redalyc, Aprender 3C, la ONG Derechos Digitales o la Red Clara participan de una u otra manera en la iniciativa por el acceso abierto.

El organismo de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) tiene en marcha un importante trabajo para el desarrollo de políticas de Acceso Abierto (AA) al conocimiento entre sus estados miembros.


En 2012, en el XII Congreso Internacional de Información (Info'2012), celebrado en La Habana (Cuba), la oficial del programa de Comunicación e Información de la Oficina Regional de Cultura para América Latina y el Caribe, Isabel Viera, señaló que "Al facilitar la accesibilidad en línea a la información académica para todos, libre de la mayoría de las barreras impuestas por las licencias y los derechos de autor, se promueve el intercambio del conocimiento en el plano mundial, la innovación y el desarrollo socioeconómico".


Desde primeros de 2014, la UNESCO ha puesto en línea más de trescientos libros en acceso abierto, en sistema creado por Creative Commons y que contiene obras en doce idiomas, lo que supone abrir una puerta para que la mayor cantidad de conocimiento esté a la mano de la mayor cantidad de público.


En el Portal Mundial sobre Acceso Abierto (GOAP, en inglés) se ofrece información sobre el estado del acceso libre por países y también recursos, enfoques y publicaciones de interés sobre el tema.

Por su parte, CLACSO tiene en marcha la Campaña por el Acceso Abierto al Conocimiento, promoviendo con ello una forma de entender el conocimiento como un bien común que tiene que estar al servicio de la mayoría y que se debe gestionar de "forma solidaria e inclusiva". Esta institución hace un acompañamiento a sus asociados y a organismos y gobiernos regionales para que promuevan y desarrollen iniciativas que faciliten el acceso libre al conocimiento científico y a las investigaciones.

En palabras de Pablo Gentili, secretario ejecutivo de Consejo Latinoamericano, "La producción académica de nuestras universidades no puede estar subordinada a los intereses o vaivenes del mercado editorial. Son nuestras sociedades las que pagan el trabajo que realizan los académicos en América Latina, no las empresas o el sector privado. Todos (pertenezcan o no al mundo universitario) deben tener derecho a acceder gratuita y libremente a las producciones que las universidades y los centros de investigación realizan. No se trata de generosidad. Se trata de una obligación, de un compromiso mínimo con la defensa del espacio público. Simplemente, porque el conocimiento, en una sociedad democrática, debe ser un bien común".

Su Red de Bibliotecas Virtuales es un archivo digital de libre acceso que pone a disposición de la ciudadanía interesada más de 30.000 textos producidos en los veinticinco países que conforman CLACSO y en sus más de trescientos centros asociados. Podemos encontrar ponencias, artículos, libros y revistas a través de sus servicios de Sala de Lectura, Portal de Revistas y Portal Multimedia.

También hay un día para los datos abiertos, Día Internacional de los Datos Abiertos; desde 2009 se viene celebrando, en el mes de octubre, la Semana internacional de Acceso Abierto, y el Movimiento Internacional por el Acceso Abierto ha promovido diversas iniciativas y declaraciones: Iniciativa de Budapest (2002); Declaración de Bethesda (2003); Declaración de Berlín (2003), sobre acceso abierto al conocimiento en las ciencias y las humanidades; Declaración de San Francisco (2012) sobre evaluación de la investigación, o la Confederación de Repositorios de Acceso Abierto (2014).

Publicado en Cultura

En la comprensión acerca de la complejidad —o no— del mundo o de los fenómenos del mundo, el concepto de "grados de libertad" (GdL) desempeña un papel central. De hecho, en buena parte de la ciencia de punta contemporánea, el concepto es altamente importante.

 

El concepto de grados de libertad fue originalmente introducido por el neurofisiólogo soviético Nikolai Bernstein (1896–1966) en el estudio del control motor de los organismos vivos. Posteriormente el término ha sido extendido a otras áreas, muy notablemente la estadística, la mecánica, la física, ingeniería, la química. Sin embargo, cuando es extendido a las ciencias sociales y humanas y a las ciencias de la salud y de la vida el tema se torna magníficamente sugestivo.
Bernstein fue un neurofisiólogo marginado en su país, y solo llegó a ser conocido con la traducción y publicación póstuma al inglés (1967) de su libro La coordinación y regulación de los movimientos, Oxford, Ed. Pergamon. Como se aprecia, el tema no es el del control, sino el de la coordinación del movimiento. (El gran opositor teórico de Bernstein fue la figura, la teoría y los trabajos de Pavlov, un científico caro al marxismo de la época, lo que explica fácilmente los desfavores del establecimiento hacia Bernstein).


En términos generales, el concepto de GdL puede hacer referencia al número de variables aleatorias que no pueden ser fijadas por una ecuación (estadística), o bien al número mínimo de números reales indispensables para definir completamente un estado físico (física), o también a la dimensión topológica del espacio de fases de un sistema determinado (mecánica clásica).


Incluso, desde el punto de vista de la química se trata del número de fases separadas o de componentes (químicos) de un sistema, o bien, más sencillamente, en el marco de la mecánica clásica, se trata de la posibilidad de movimiento en un espacio. En un sentido más amplio, el concepto significa idóneamente la posibilidad de evolucionar que tiene un sistema en una dirección no restringida.

Como tal, los grados de libertad se hallan en la antípoda del concepto de control, que es manifiestamente el concepto en el que se condensa toda la ingeniería clásica, la ciencia política y la administración tradicionales; tradicionales o vigentes (mainstream), por ejemplo.


Desde este punto de vista, la complejidad —en cualquier acepción de la palabra— se define literalmente por los grados de libertad que tiene o que exhibe un sistema, de tal suerte que a mayores grados de libertad mayor complejidad, e inversamente, a menores grados de libertad menor complejidad. Articulaciones, posibilidad de evolución, grados de movimiento, dimensiones posibles.

En este sentido, el trabajo de los (as) complejólogos (as) consiste en estudiar los grados de libertad que un sistema determinado tiene, y establecer si y cómo dicho sistema puede tener o adquirir mayores grados de libertad.
Pues bien, esta idea, originaria de la estadística, la física y la neurofisiología, adquiere un alcance insospechado cuando se traslapa el tema al ámbito de las ciencias sociales y humanas o las ciencias de la salud y de la vida. En este caso, el estudio se concentra es determinar si un fenómeno determinado ve reducidos sus grados de libertad y las consecuencias que ello comporta. O bien, inversamente, si el fenómeno en cuestión puede ganar mayores grados de libertad y las consecuencias que ello implica.

No precisamente en un sentido descriptivo, el sentido de las ciencias de la complejidad estriba, así, en incrementar en la medida de lo posible los grados de libertad de un sistema determinado, sabiendo expresamente que dicha posibilidad implica dos cosas:


a. Un cambio en la trayectoria o la historia del fenómeno en cuestión. Dicho cambio se designa técnicamente como espacio de fases, transiciones de fase, o bifurcaciones.

b. Un cambio cualitativo en un fenómeno, lo cual entraña justamente una transición de fase en el sentido que se acaba de mencionar.

Pues bien, en un sentido muy preciso, cabe distinguir dos clases de transiciones de fase, así: transiciones de fase de primer orden y transiciones de fase de segundo orden. Las primeras son variaciones o cambios graduales, notables especialmente gracias al calor o la temperatura del fenómeno en consideración. Las segundas son transiciones continuas, cuya distribución se expresa de la mejor manera en una ley de potencia. Por lo demás, cabe hablar incluso de transiciones de fase infinitas que son aquellas en las que hay cambios permanentes, pero no por ello rupturas de simetría.
Las transiciones de fase se definen a partir de puntos críticos o estados críticos. Así las cosas, un elemento clave en el comportamiento de un fenómeno radica en identificar los puntos o estados críticos reales y posibles de un sistema, a fin de determinar si pueden producirse, o no, y si sí cómo, transiciones de fase. Todo lo cual permitirá al cabo precisamente conocer los grados de libertad que un fenómeno dado gana (o pierde).


Digamos de una manera general que los puntos o estados críticos consisten en tres momentos, así: puntos o estados de supracriticalidad, de criticalidad y de subcriticalidad. Todos estos estados o puntos no se observan en la realidad. Por el contrario, se los construye en la investigación o en el estudio.

Los grados de libertad: un concepto que se encuentra en la antípoda del control, la constricción, las restricciones o cualquier otro concepto próximo o semejante. Al fin y al cabo, según parece, con la ciencia de punta contemporánea asistimos, literalmente, a una revolución científica, social y cultural; en sentido kuhniano, por decir lo menos

Publicado en Ciencia y tecnología
Miércoles, 08 Octubre 2014 06:14

El porvenir incierto

En su evolución, el Homo Sapiens, como ser pensante único entre millones de especies vivas, jamás tuvo idea de la naturaleza y la razón de su existencia. Dotado de la capacidad de pensar, estaba regido por severos instintos. Nada sabía del resto de su maravilloso planeta. No se conoce siquiera desde cuándo posee esa capacidad; en raros casos se afirma que hace un millón de años o un poco más, pero en general se considera que no más de 200 mil años.

Hoy se conoce que el número de planetas con apariencias similares al nuestro se eleva a miles de millones en la misma galaxia donde se ubica el nuestro, dentro de lo que se denomina universo. Espero no ofender a nadie por abordar el tema de lo que somos o creemos que somos.


Hace dos días, el 5 de octubre, el sitio web del canal de televisión Russia Today, un medio de divulgación serio, publicó que Laura Mersini-Houghton, prestigiosa profesora de la Universidad de Carolina del Norte, ha demostrado que los supermasivos agujeros negros no existen, y que la teoría del Big Bang es infundada. Esto, pienso, implica un trauma para muchas personas que convirtieron tal teoría en un acto de fe.


La mayor autoridad en este tema sería el científico británico Stephen Hawking, un hombre de excepcionales méritos por su consagración a la ciencia, a pesar de una cruel afección que lo obligó a grandes sacrificios para comunicarse con los demás, cuando era todavía muy joven.

Los científicos más conocedores de estos temas se comunican e incluso publican sus resultados en términos técnicos difíciles de comprender por los que no hemos tenido el privilegio de familiaridad alguna con esa ciencia.


Stephen Hawking se convirtió, con la publicación de la "Historia del Tiempo", en el autor de un libro sobre el importante tema, cuyas ventas ascendieron a más de 10 millones de ejemplares. Seguramente que, aparte de su interés intrínseco, los principales compradores fueron los miembros de la comunidad de científicos dedicados al estudio de estos trascendentes temas que suman ya varios millones de eminentes investigadores. Haré lo posible por leer y comprender esa obra, cuando mi actual tarea relacionada con la producción de alimentos en cantidad y calidad suficientes es prioritaria, y en la que todavía el esfuerzo se puede traducir en un importante beneficio.

Es mucho lo que ignoramos y muy poco lo que sabemos de nuestra propia ignorancia.

El segundo ejemplar de Hawking, "El universo en una cáscara de nuez", escrito según él en un lenguaje más inteligible para los profanos en la materia, lo leí y subrayé muchas de las ideas que más me interesaron.

Jamás en su evolución el género humano tuvo ni podía tener una idea clara de su propia existencia, porque esta sencillamente no existía, simplemente evolucionaba con el mismo ritmo de todo lo que existe. Es una realidad que no surge contra nadie ni debe ofender a nadie.


Cada día podemos aprender algo nuevo. Ayudar a los demás y ayudarnos en lo posible a nosotros mismos.
Ayer escuchaba las declaraciones del nuevo Secretario General de la OTAN, antiguo Primer Ministro de Noruega, quien desde el pasado primero de octubre, hace solo seis días, asumió el cargo. ¡Cuánto odio en el rostro! ¡Qué increíble empeño en promover una guerra de exterminio contra la Federación Rusa! ¿Quiénes resultan más extremistas que los propios fanáticos del Estado Islámico? ¿Qué religión practican? Después de eso, ¿se puede disfrutar la vida eterna en la diestra del Señor?

Fidel Castro Ruz
Octubre 7 de 2014
9 y 30 p.m.

Publicado en Ciencia y tecnología

El estadounidense John O'Keefe y el matrimonio compuesto por los noruegos May Britt Moser y Edvar I. Moser reciben el galardón por el hallazgo que permite conocer cómo el cerebro crea un mapa del espacio que nos rodea y cómo podemos navegar a través de un entorno complejo.

 

El científico estadounidense-británico John O'Keefe y los noruegos May-Britt Moser y Edvard Moser fueron galardonados hoy con el Premio Nobel de Medicina por su descubrimiento de "las células que constituyen el sistema de posicionamiento del cerebro", anunció hoy el Instituto Karolinska de Estocolmo. Según informó el comité al dar a conocer el nombre de los galardonados, los premiados han descubierto el "GPS interno" del cerebro que posibilita la orientación en el espacio.


En 1971, explica el Instituto, O'Keefe descubrió los primeros componentes de ese sistema de posicionamiento interno. Constató que un tipo de células nerviosas en el hipocampo siempre se activaban cuando una rata se encontraba en un lugar determinado de una habitación y que otras células se activaban cuando el animal estaba en otro punto. Más de tres décadas después, en 2005, May-Britt y Edvard I. Moser descubrieron "otro componente clave" de ese sistema de posicionamiento del cerebro, al identificar otras células nerviosas que generaban un sistema coordinado y permitían de forma precisa situarse en el espacio.


Según el Instituto, "los tres han resuelto un problema que ha ocupado a filósofos y científicos durante siglos: cómo el cerebro crea un mapa del espacio que nos rodea y puede dirigir nuestro camino a través de un entorno complejo".
O'Keefe, nacido en 1939 en Nueva York, es doctor de Psicología fisiológica por la Universidad McGill de Canadá en 1967. Actualmente es director del Centro Wellcome Sainsbury de Circuitos Neuronales y Comportamiento en el University College de Londres. May-Britt Moser nació en 1963 en Fosnavåg, Noruega, y estudió psicología en la Universidad de Oslo junto a su futuro marido y también premiado, Edvard Moser. En 2000 fue nombrada catedrática de neurociencia y actualmente es directora del Centro de computación neuronal en la Universidad noruega de Ciencia y Tecnología de Trondheim. Su marido nació en 1962 en Ålesund, Noruega, y es doctorado en Neurofisiología por la Universidad de Oslo. Ahora es director del Instituto Kavli de Sistemas de Neurociencia de Trondheim.


El Instituto Karolinska de Estocolmo dividió hoy el premio en dos partes: la primera para el estadounidense y la segunda para los dos noruegos. Los galardonados compartirán un premio de 8 millones de coronas suecas (879.000 euros).
El año pasado recibieron el Nobel de Medicina los científicos estadounidenses James E. Rothman y Randy W. Schekman y el alemán Thomas C. Südhof por "sus descubrimientos de la maquinaria que regula el tráfico vesicular". El Instituto Karolinska de Estocolmo premió a los tres científicos por resolver "el misterio de cómo la célula organiza su sistema de transporte" interno y detallar "los principios moleculares" que explican por qué este sistema es capaz de entregar las moléculas precisas "en el lugar adecuado, en el momento adecuado".

Publicado en Ciencia y tecnología
Lunes, 29 Septiembre 2014 06:03

¿Qué es el yo biológico?

Nuestro yo es, esencial y ulteriormente, un acontecimiento biológico. Con una salvedad: la biología es un fenómeno físico, y la física actual ya no se ocupa de la materialidad del universo o las cosas.


Maturana y Varela producen con El árbol del conocimiento (1984) una inflexión importante en la biología y en el conocimiento en general que, aunados a otros trabajos e investigadores, tales como B. Goodwin, R. Solé, S. Kauffmann, entre otros, habrán de designar lo que entonces se llamaba "la nueva biología".


La idea de base es, aquí, que el conocimiento tiene una base material: la biología. En efecto, el "yo" fue un tema habitualmente exclusivo de filósofos, teólogos ("persona"), psicólogos y teóricos del conocimiento. Maturana y Varela ponen de manifiesto que la quintaesencia de la psicología es la biología y que el fundamento de la filosofía es la biología. Sin embargo, esta idea jamás debe ser entendida como una especie de reduccionismo biologista, sino, por el contrario, en el sentido de que la base material del conocimiento y de todo lo que sea el yo no puede ser entendida sin el recurso a la biología.

Más o menos por la misma época la inmunología cobrará una importancia social, cultural y científica sin iguales en la historia de la medicina, la sociedad y la biología. El acontecimiento que, puntualmente, lanzará al primer plano a la inmunología es el descubrimiento del sida y, concomitantemente, todos los temas y problemas relacionados con enfermedades del sistema autoinmune.


Pues bien, los nuevos estudios en torno al sistema inmune tuvieron durante muchos años, hasta hace muy poco, un foco central: el sistema inmune define lo que es propio (self) de lo ajeno o impropio (non–self), en particular a partir de las relaciones entre antígenos y anticuerpos. Así, el sistema inmunológico es el que permite definir lo propio del cuerpo, la salud, y el yo, frente a lo ajeno, lo impropio, lo extraño.

Profundizando esta idea, el complejo mayor de histocompatibilidad (CMH), descubierto inicialmente en el contexto de los primeros trasplantes de órganos en 1940 (y que le valdría a su autor, Snell, el premio Nobel en 1980) —un grupo de genes situado en el cromosoma 6— cumple la función de presentar los antígenos a los linfocitos T, y, en consecuencia, distinguir claramente lo propio de lo ajeno. El lugar en el que tiene lugar esta diferenciación es el sistema linfático.
En otras palabras, todo lo que sea el yo —en la acepción al mismo tiempo más amplia y fuerte de la palabra— tiene lugar en la escala más fundamental, que es la defensa del organismo frente a lo ajeno, peligroso, diferente, y que se designa con el nombre genérico de "antígenos". Del buen funcionamiento del sistema inmunológico depende la salud del organismo vivo, un acontecimiento que encuentra dos niveles, así: cabe distinguir el sistema inmune natural y el sistema inmune adquirido (o adaptativo). El primero es propio de todos los sistemas vivos en general. El segundo es específico de los vertebrados, de mayor complejidad estructural, fisiológica, anatómica y termodinámica. Más exactamente, son dos los mecanismos de memoria de un organismo superior frente a la agresión: el sistema nervioso central (= cerebro) y el sistema inmunológico. Los linfocitos B le presentan a los linfocitos T lo ajeno y éstos proceden a generar células asesinas (natural killers, o NK cells).

Una función del sistema inmune es la de proteger al organismo de virus, bacterias, hongos y parásitos. Pero la otra función fundamental del sistema inmune es la de permitir la auto–reparación de células, tejidos y órganos, el balance entre células normales y bacterias y virus —por ejemplo, la flora intestinal—, controlar la homeostasis y los procesos de metabolización. Para todo ello, en realidad son tres los sistemas que interactúan y que constituyen una sólida unidad: el sistema nervioso central, el sistema hormonal y el sistema inmunológico. Y el lugar en el que opera el sistema inmune es el organismo a través de la sangre (sistema sanguíneo) y los linfos (sistema linfático —"de agua") del organismo.

En otras palabras, el lenguaje del sistema inmunológico es un lenguaje hormonal (químico) en el que la comunicación y los procesamientos de información son determinantes. El cerebro produce hormonas que actúan con los linfocitos B y C, y que se complementan con las hormonas en todo el organismo. Lo maravilloso es que el sistema inmunológico es el único sistema no localizado ni centralizado del cuerpo y, por el contrario, es un sistema literalmente ubicuo, de acción no–local, procesamiento en paralelo, dinámico y distribuido que evoluciona acorde al medio ambiente en general: natural y social o cultural.


Así las cosas, la salud de los organismos vivos depende de la estupenda comunicación entre el cerebro (in extremis, si se quiere, la mente), el sistema y balance hormonal, y ulteriormente el CMH. En otras palabras, aquello que somos no depende de la idea de identidad personal o cualquier otra, de las creencias sociales y demás; no sin ellas, lo que cada quien y puede es el resultado del equilibrio dinámico de la biología, y muy especialmente del sistema inmunológico, el único que no puede ser "desconectado" y que trabaja 24/7.

Nuestro yo es, esencial y ulteriormente, un acontecimiento biológico. Con una salvedad: la biología es un fenómeno físico, y la física actual ya no se ocupa de la materialidad del universo o las cosas. Por el contrario, la buena física de punta de hoy se ocupa de qué tanto sabemos del mundo, la naturaleza y el universo. Pues la física y "lo" físico ya no consiste, en absoluto, como en el pasado, en materialidad, sino en funciones de onda, procesos, coherencia y de–coherencia, superposición de estados, complementariedad, incertidumbre y danza de fotones, por ejemplo.

La vida es un fenómeno físico; pero la verdad es que aún no terminamos de conocer enteramente qué es la "materia". Pues lo cierto es que "materia" no es ajena ni distinta a "información", ni tampoco a "energía". Y los tres son expresiones de la complejidad de un mismo fenómeno al cual lo mejor de la ciencia dedica sus mejores esfuerzos por comprenderlo.
En cualquier caso, la esfera de lo propio o personal o yoico —el self— es un acontecimiento que se está dirimiendo permanentemente sobre la base del CMH, y el buen funcionamiento del sistema inmune. Con una observación final: no hay, en realidad, para el sistema inmune dos cosas: lo propio y lo ajeno, pues ambos son dos momentos de un mismo proceso. El cuerpo y el yo se conoce a través del sistema inmune y se hace posible por él, y el sistema inmune conoce al cuerpo y lo recorre como la producción de sí mismo. Esa producción es la vida misma. En verdad, para traducirlo en otras palabras, en el sistema inmune no acontece la distinción entre hardware y software, pues en la célula y en el organismo ambos son una sola y misma cosa.

Publicado en Ciencia y tecnología
Lunes, 15 Septiembre 2014 17:55

¿Qué es la hipercomputación biológica?

Para los sistemas vivos, en general, procesar información es un asunto literalmente de vida o muerte. Si la información es mal procesada la vida puede encontrarse en peligro y desaparecer el organismo.

Los sistemas vivos procesan información de una manera perfectamente diferente a como procesan información los sistemas físicos, y de manera totalmente distinta a como la computación ha sido entendida hasta la fecha. Este procesamiento de información se denomina hipercomputación biológica (muy pocos trabajos científicos sobre el tema pueden encontrarse en internet).


Para los sistemas vivos, en general, procesar información es un asunto literalmente de vida o muerte. Si la información es mal procesada la vida puede encontrarse en peligro y desaparecer el organismo. Por el contrario, si la información es bien procesada se fortalecen las posibilidades de vida y adaptación.


Esta idea significa que debemos poder comprender a los sistemas vivos no por lo que son, sino por lo que hacen. Así, la pregunta clásica acerca de qué es la vida se desplaza y puede responderse mucho mejor en términos de la lógica de la vida; esto es, qué hacen los sistemas vivos para ser tales.


Más aún, computar no significa "reflexionar", "analizar", "seguir el hilo de un tema", ni nada semejante. Por el contrario, computar significa transformar. Esto se ilustra con el siguiente esquema:


A → Procesamiento de → B
Información


Esto es, computar —o para el caso, procesar información— equivale a transformar una cosa (A) en otra (B).


La traducción biológica de la computación puede afirmarse de manera correcta como el proceso de metabolización. En efecto, metabolizar no significa nada como "digerir", "procesar" o algo así. Por el contrario, la metabolización es exactamente el mismo proceso mediante el cual una coa se transforma en otra:


A → (se) metaboliza en → B


Ahora bien, es fundamental atender al hecho de que el procesamiento de información ha sido tradicionalmente comprendido y explicado como una caja negra. "Ojos vemos, pero corazones no sabemos". O bien: "Todo el mundo lleva la procesión por dentro". Esta ha sido habitualmente la manera como se entienden, por ejemplo, los procesos de tomas de decisión. Sabemos que entra algo (A), conocemos lo que sale (B), pero no sabemos cómo se lleva a cabo el proceso. Así se explican y se han explicado numerosos procesos de decisión en diversos campos (políticos, militares, administrativos, deportivos, eclesiásticos y otros).


Pues bien, la hipercomputación biológica busca abrir la caja negra y mostrar que efectivamente no existe tal caja. Para ello, es necesario modificar radicalmente las formas clásicas de comprensión del procesamiento de información. Así, por ejemplo, la estructura de Von Neumann (en referencia a John von Neumann) de la computación (o del computador), las explicaciones de Turing sobre la computación e incluso la tesis Church–Turing (en referencia a Alonzo Church y a Alain Turing), que son las explicaciones estándar de los sistemas computacionales hasta la fecha.


Los sistemas vivos llevan a cabo la hipercomputación (biológica) de manera que aún no terminamos de conocer plenamente. Así, por ejemplo, resuelve complicadísimos problemas de manera muy simple (complicados para nosotros, simple para ella). Ejemplos técnicos son el plegamiento de proteínas, o procesos de auto–reparación. Con referencia al sistema inmunológico, se trata del trabajo de las células citotóxicas (o procesamiento macrofagótico) mediante el cual se destruyen células o fenómenos físicos que nos atacan en un momento determinado.


En esta línea de análisis, el sistema inmunológico es de una complejidad magnífica en términos de procesamiento de información, hasta el punto de que, no solamente es el único sistema del organismo que nunca descansa (trabaja 24/7), sino que, además, no está localizado, sino, es ubicuo y móvil. La complejidad del sistema inmunológico se comprende mucho mejor cuando comprendemos que en realidad trabaja de la mano con el sistema nervioso central —y muy específicamente con el cerebro—, y con el sistema hormonal. En verdad, el cerebro produce neuromediadores que actúan sobre diversos órganos directamente relacionados con el sistema inmune y que inciden en la memoria y en activación de células inmunes (linfocitos B y linfocitos T). A su vez, el sistema hormonal permite transmitir la memoria de anticuerpos o antígenos. El sistema inmune habla el lenguaje hormonal, y presumiblemente el cerebro habla también el idioma inmune.
Desde el punto de vista científico y filosófico es importante distinguir tres cosas: (a) el uso de metáforas vivas para resolver problemas computacionales; (b) el uso del modelamiento y la computación para entender procesos biológicos; y (c) la forma específica como los sistemas vivos procesan información.


Al respecto es fundamental atender al hecho de que, en realidad, no existen tres cosas: materia, energía e información. El mérito de Einstein consistió en haber mostrado que la energía y la materia son una sola cosa, supuesta la velocidad de la luz. Más exactamente, la materia es energía lenta, y la energía es materia rápida. La física cuántica ha trabajado de manera importante en la comprensión de la información.


Llegará el momento, llegará el lugar, y llegará la persona (o grupo) que logre establecer que lo que hoy se dice de tres formas no es en realidad sino una sola: materia–energía–información. Y un nuevo e integrador concepto será acuñado. En cualquier caso, un proceso semejante no podrá llevarse a cabo sin la perfecta integración de tres campos: la biología, la teoría cuántica y las ciencias de la complejidad.


Como quiera que sea, la hipercomputación biológica nos permite comprender, desde las escalas más básicas —las bacterias hasta el organismo—, la forma en que el procesamiento de información se lleva a cabo. Podemos decir, sin ambages, dicho procesamiento es paralelo, distribuido, multiescalar (o multinivel), difuso, en red, interactivo, no–centralizado, y en muchas ocasiones no–localizado.
Este panorama modifica enormemente nuestra comprensión acerca de lo que son los sistemas vivos y lo que hacen. Y con ello, asimismo, acerca de lo que es el mundo, la naturaleza y la realidad. Un campo de investigación de punta, literalmente.

Publicado en Ciencia y tecnología
Martes, 08 Julio 2014 06:34

El control de los cuerpos y los saberes

"La universidad ha sido y sigue siendo una instancia fundamental de la colonialidad del saber", define Walter Mignolo, profesor de Duke University (EE.UU.), donde dirige el Centro de Estudios Globales y Humanidades. Mignolo es uno de los referentes de la corriente de pensamiento decolonial, una red de intelectuales constituida hace unos quince años. La idea fundamental del grupo es que la colonialidad es la cara oscura de la modernidad, y que esa díada modernidad/colonialidad opera desde una matriz de poder con pretensiones universalistas, la matriz totalitaria de la razón moderna, instituida sobre la dominación y la explotación de seres humanos definidos como inferiores desde la invención de la noción de raza. El pensamiento decolonial considera parte de esa lógica/retórica tanto al capitalismo como al socialismo, y toma distancia de otros pensamientos que cuestionan la modernidad (Nietzsche, teoría crítica, Foucault, posestructuralismo, posmodernismo), a los que considera eurocentrados, incapaces de dar cuenta del silenciamiento de otras culturas inherentes a la colonialidad. La red modernidad/colonialidad promueve un horizonte de inclusión de lo diverso, la pluriversalidad, de ahí su cercanía a las poblaciones víctimas de la "herida colonial", comunidades indígenas y movimientos sociales de Africa, Asia y, especialmente, Latinoamérica. Desde esa perspectiva, Mignolo analiza el rol que han desempeñado las universidades.


–¿Cuál ha sido la función de la universidad en el proceso de la modernidad/colonialidad?


–La universidad ha sido y sigue siendo una instancia fundamental de la colonialidad del saber. La transformación en Europa de las universidades medievales (Bolonia, Salamanca, Coimbra) en universidades renacentistas se extendió en el siglo XVI a las colonias hispánicas: la Universidad de Santo Domingo en México, San Marcos de Lima en Perú, la Universidad de Córdoba en la Argentina. Y Harvard, en EE.UU., en el siglo XVII. Mientras Portugal no incentivó la creación de universidades, España se autoasignó una misión teopolítica: el control de los cuerpos mediante el control de las almas, es decir, de las subjetividades. En el siglo XVIII, la universidad renacentista mutó, en Europa, en la universidad kantiana-humboldtiana. Ese modelo de universidad desplaza a la universidad teológico-humanista de los Estados monárquicos y nace la universidad de los Estados seculares: la idea de ciudadanía y democracia conecta el control del conocimiento con el control de la autoridad. En América, las universidades coloniales teológico-monárquicas mutan en universidades seculares estatales. Y se fundan otras universidades, como la de Chile en 1862 y la UBA en 1821. Todo esto antes de que Francia e Inglaterra colonizaran Africa y Asia, y comenzara ahí la instalación de universidades kantianas-humboldtianas. En fin, la universidad y el museo son dos instituciones clave en las que se fundó y se mantiene la colonialidad del saber y de la subjetividad.


–¿Cómo siguió ese proceso en el siglo XX?


–En la segunda mitad del siglo XX, bajo el liderazgo de Estados Unidos, las universidades se transformaron –y aún se están transformando– en universidades corporativas. Es decir, las universidades son administradas como corporaciones y adoptan valores de las corporaciones: eficiencia, excelencia en el sentido corporativo, investigaciones que serán aprovechadas por las corporaciones para mercantilizar desde la farmacología hasta la alimentación. A la vez, desde principios del siglo XX comenzó un nuevo ciclo que remeda al del siglo XVI: la instalación de universidades de EE.UU. en los Estados del Golfo Pérsico (Qatar, Kuwait) y en el este y el sudeste asiático (China, Singapur). Sin embargo, las cosas han cambiado. No es seguro hasta qué punto las universidades estadounidenses transmiten valores occidentales y hasta qué punto el saber occidental es apropiado para beneficio de proyectos de desoccidentalización. Esto no fue posible en el siglo XVI puesto que las poblaciones indígena y africana fueron marginadas de las esferas del saber. En la América luso-hispana, después de las independencias, las elites criollas locales que gestionaron las universidades se convirtieron en servidores imperiales para mantener la colonialidad del saber en las ex colonias.

.–¿Qué papel podrían cumplir las universidades en un proceso de decolonización?


–Es difícil pensar hoy que la dirigencia universitaria en cualquier parte del mundo se proponga descolonizar el saber. Estos proyectos provienen del cuerpo profesoral y estudiantil, no de la administración. Sería semejante a esperar que el Estado inicie proyectos de descolonización. A pesar de que en Bolivia el Estado emplea este vocabulario, la descolonización no es una cuestión de políticas estatales. Los Estados están enganchados con las corporaciones y los bancos. La dirigencia universitaria puede apoyar, en ciertos momentos, algunas iniciativas, pero no le es posible iniciar estos proyectos. El día que las universidades públicas o privadas gestionen la descolonización pedagógica, será porque ya los procesos de descolonización que percibimos en la sociedad política contribuyeron a un vuelco radical y a la disolución de la matriz colonial de poder. Por el momento, la descolonialidad es una visión y una orientación que coexiste y coexistirá en tensión con otras visiones y sistemas de ideas (el liberalismo, el neoliberalismo, el marxismo, el cristianismo, el confucionismo, el islamismo), así como con orientaciones y visiones disciplinarias (ciencias humanas y naturales, escuelas profesionales, etcétera). La decolonialidad es una opción entre otras.


–¿Conoce alguna experiencia académica que vaya en ese sentido? ¿El caso de Amawtay Wasi en Ecuador?


–El caso de la Universidad Intercultural de las Nacionalidades y los Pueblos Indígenas Amawtay Wasi es un ejemplo. Esta sí fue una universidad liderada por la dirigencia indígena. Pero Rafael Correa se las arregló para descalificarla, basado en formas corporativas de evaluación de "excelencia"... La educación en Amawtay Wasi se organizó en cuatro centros curriculares: Ushay-Yachay o de la Interculturalidad, Ruray-Ushay o de las Tecnociencias para la vida; Munay-Ruray o del Mundo vivo; y Yachay-Munay o de las Cosmovisiones. El centro de los cuatro centros es Kawsay, "Vida" y también "Conocimiento". Se entiende así el significado de Sumak Kawsay, que malamente se traduce como "Buen vivir": Sumak Kawsay sería la plenitud del vivir alcanzada a través del conocimiento. Este es un modelo de pedagogía decolonial y por lo tanto de universidad decolonial. Esta universidad no fue una iniciativa del Estado. Al contrario, el Estado la clausuró. Correa podría haber apoyado Amawtay Wasi al mismo tiempo que creaba universidades corporativas. Pero no le quedaba otra, para decirlo mal y pronto. Hoy, los Estados necesitan de las universidades no tanto para formar subjetividades ciudadanas, como era el caso de la universidad kantiana-humboldtiana, sino para preparar expertos que les permitan a los Estados "estar a la altura" de los tiempos, y los tiempos marcan otro tipo de educación: la reproducción de la colonialidad del saber adaptada a tecnologías para acrecentar la producción y las ganancias, administración de empresas para incrementar el lucro, ingeniería y geología para expandir el extractivismo, investigaciones para aumentar los agronegocios. En fin, se trata de impulsar investigaciones que promuevan el "desarrollo" y de desautorizar investigaciones que muestren la colonialidad del saber agazapada debajo de la retórica desarrollista. En la Argentina, el caso de Andrés Carrasco habla por sí mismo.


–¿Cuál ha sido su propia experiencia? ¿Ha encontrado dificultades para el pensamiento decolonial en las instituciones donde se ha desempeñado?


–Las "dificultades" las encuentro no tanto en las universidades sino en Facebook... (risas) En Duke University nadie se opone abiertamente. Es una política general en los EE.UU., una vez que estás dentro, te dejan hacer. Por otra parte, el apoyo depende de las universidades. Quienes llevamos adelante esta forma de hacer y pensar lo hacemos al margen de la orientación general de las universidades. Se trata pues de "las tretas del débil", como aprendimos de Josefina Ludmer, estrategia que tiene validez en varias esferas. El doctorado creado por Catherine Walsh en la Universidad Andina de Quito es un caso ejemplar de pedagogía decolonial sin que haya sido una iniciativa de las autoridades. El título es de "Estudios culturales latinoamericanos", pero la orientación es netamente decolonial. Aunque no lo decolonial como un "método" para los "estudios culturales", puesto que lo decolonial es una manera de pensar y de estar en el mundo, y no un método para estudiar. Pensar descolonialmente significa desengancharse de los presupuestos de la epistemología moderna basados en la distinción entre sujeto cognoscente y objeto a conocer. Cuando en las propuestas de tesis uno lee "mi objeto de estudio es X" y "mi método es Z", sabemos que estamos en plena colonialidad del saber. Pero sin duda es más que esto. La decolonialidad son los procesos a la búsqueda de un estar en el mundo y hacer en ese estar (kuscheanamente dicho), desobedeciendo a lo que la retórica de la modernidad y el desarrollo quiere que seamos y hagamos.

Publicado en Internacional
Página 1 de 4