Miércoles, 12 Septiembre 2012 10:23

Cómo 4 ecuaciones cambiaron el mundo

Cómo 4 ecuaciones cambiaron el mundo
Cuenta la anécdota que un día de la primavera de 1855 el físico inglés Michael Faraday daba una conferencia pública en la que mostraba sus pioneros experimentos sobre la electricidad y el magnetismo. Entre la audiencia se encontraba William Gladstone, entonces Ministro de Hacienda y futuro Primer Ministro. Gladstone se levantó y le espetó al investigador: “todo esto es muy bonito, ¿pero alguna vez le encontraremos una aplicación práctica?”, a lo que Faraday respondió: “no se preocupe, algún día el gobierno cobrará impuestos sobre esto”.

Estoy convencido de que ni siquiera Faraday sospechaba hasta qué punto sus experimentos revolucionarían el mundo.
Pocos años más tarde, James Clerk Maxwell sintetizó todos los fenómenos eléctricos y magnéticos en 4 ecuaciones que apenas ocupan una cuartilla. Si pincháis aquí, podéis ver las ecuaciones de Maxwell. No os preocupéis por lo que significa cada símbolo.

Lo importante es comprender que con sólo esas 4 líneas podemos explicar: cómo se trasmite la información para la televisión, Internet y los teléfonos, cuánto tarda en llegar la luz de las estrellas, cuál es la base del funcionamiento de las neuronas o cómo opera cualquier central eléctrica, además de otros miles de fenómenos que experimentamos en nuestra vida cotidiana.

No está nada mal para 4 líneas, ¿verdad?


Las ecuaciones de Maxwell forman parte de las 17 elegidas por el matemático Ian Stewart para un delicioso libro titulado “En búsqueda de lo desconocido: 17 ecuaciones que cambiaron el mundo”. Las clases de historia suelen centrarse en gobiernos, guerras y disputas políticas. Y, sin embargo, como nos recuerda Stewart pocos hechos históricos han tenido tantas consecuencias para toda la humanidad como el descubrimiento de la electricidad y el magnetismo.

“Las ecuaciones son una parte fundamental de nuestra cultura. Las historias detrás de ellas, las personas que las descubrieron y las épocas en las que vivieron son fascinantes. Esta es una historia de la humanidad contada a través 17 ecuaciones”.

Los hechos y anécdotas recopilados por Stweart ponen de manifiesto, una vez más, la absurda separación entre “artes y humanidades” por un lado y “ciencia” por el otro. Desde Aristóteles hasta Bertrand Russell pasando por Descartes, muchos de los mejores filósofos y estudiosos de la política y la sociedad, fueron también los mejores matemáticos de su tiempo. Una inscripción en el frontón de la Academia de Platón decía: “no entre aquí quien no sepa de geometría”.

Quizás nadie ha explicado mejor la estupidez que encierra esta dicotomía como el físico y novelista C.P. Snow:

Paso las horas de trabajo con mis colegas científicos para salir luego de noche a reunirme con colegas literatos. Cuando los no científicos oyen hablar de científicos que no han leído nunca una obra importante de la literatura, sueltan una risita entre burlona y compasiva. Los desestiman como especialistas ignorantes. Una o dos veces me he visto provocado y he preguntado cuántos de ellos eran capaces de enunciar el segundo principio de la termodinámica. La respuesta fue glacial; fue también negativa. Y sin embargo lo que les preguntaba es más o menos el equivalente de “¿Ha leído usted alguna obra de Shakespeare?”

Quien se olvide de la ciencia, se está perdiendo un aspecto esencial del fenómeno humano.

P.D.- Bonus para friki-lectores. Estas son las 17 ecuaciones escogidas por Stewart:
  1. El teorema de Pitágoras, porque conectó el álgebra y la geometría.
  2. La suma de logaritmos, porque permitió simplificar operaciones muy complejas.
  3. El teorema fundamental del cálculo, porque toda las matemáticas de la física reposan sobre él.
  4. La teoría de la gravitación de Newton, porque unificó en una sola ecuación fenómenos en apariencia tan diferentes como la caída de una manzana y las órbitas de los planetas.
  5. El cuadrado de la unidad imaginaria, porque el análisis complejo es esencial para resolver muchos problemas.
  6. La fórmula de Euler para los poliedros, porque representa el nacimiento de la topología.
  7. La distribución Gaussiana, uno de los pilares de la estadística.
  8. La ecuación de onda, porque unifica fenómenos tan dispares como la luz, el sonido o los terremotos.
  9. La transformada de Fourier, esencial en el tratamiento de señales.
  10. La ecuación de Navier-Stokes, la base de la aerodinámica y la hidrodinámica.
  11. Las ecuaciones de Maxwell, que describen el electromagnetismo.
  12. La segunda ley de la termodinámica y el incremento de la entropía.
  13. La identidad masa-energía de Einstein, que unifica masa y energía.
  14. La ecuación de Schrödinger, que describe la evolución de un sistema cuántico.
  15. La entropia de la información de Shannon, que describe el límite hasta el que se puede comprimir la información.
  16. El modelo logístico, quizás el sistema más simple donde aparece el caos.
  17. El modelo de Black-Scholes, que se utiliza en banca para calcular el precio de productos financieros derivados.
Publicado enInternacional
Martes, 11 Septiembre 2012 06:56

El "lado oscuro" del ADN

El "lado oscuro" del ADN
Cada célula de nuestro cuerpo contiene en su núcleo 46 cromosomas, los cuales están formados por una doble cadena enrollada de ácido desoxirribonucleico (ADN). Cuando en 2001 se descifró la secuencia completa de esta molécula, la atención se centró en los sitios que se consideraban su parte funcional: los genes. Un gen es una región o pequeño fragmento de la cadena que da origen a las proteínas, con las que se forman los tejidos y órganos de nuestro cuerpo (como los músculos o el cerebro) y se llevan a cabo todas las reacciones químicas y enzimáticas (como los procesos que hacen posible la coagulación de la sangre). Hoy sabemos que el número de genes es muy pequeño, aproximadamente 20 mil, y representan apenas 1 por ciento de la larga cadena de ADN (si la estiráramos mediría en cada célula unos 2 metros). Al resto (99 por ciento) se le consideró durante años el equivalente a un desierto, una zona oscura, o simplemente basura… Pero hoy esta imagen ha cambiado.


Desde 2003, varios grupos científicos emprendieron una tarea muy ambiciosa, consistente en indagar si esa amplia región del ADN, y no sólo los genes, desempeñaba algún papel en los procesos biológicos. En 2007 se inició la búsqueda en gran escala por medio del proyecto Encode que ha involucrado a 450 científicos de tres continentes y de 30 instituciones, e incluyó más de mil 600 experimentos realizados en 147 tipos distintos de células. Los resultados (incluidos en 30 artículos) se publicaron el pasado miércoles de forma simultánea en tres de las más prestigiadas revistas científicas: Nature, Genome Research y Genome Biology.


Los resultados iluminan el "lado oscuro" del ADN y revelan que lo que se consideraba una zona desértica es en realidad un sofisticado sistema de control de la actividad de los genes. El consorcio científico Encode ha encontrado que cerca de 80 por ciento del genoma participa en alguna función reguladora. Se han hallado en esta vasta zona más de 70 mil "promotores", en regiones próximas a los genes, y cerca de 400 mil "potenciadores" que actúan sobre éstos desde regiones distantes.


Una de las métodos empleados en estos estudios es la técnica llamada inmunoprecipitación de cromatina (ChIP, por sus siglas en inglés), que permite detectar todas las secuencias de ADN unidas a una proteína específica. A partir del desarrollo de anticuerpos que se pegan a esos sitios, es posible rastrearlos luego, lo que permite su identificación y hace posible observar las relaciones entre las distintas regiones del genoma.


Los promotores son secuencias de ADN que dan inicio a un proceso llamado transcripción, que es el principio de la síntesis de proteínas. Dicho de manera simple, la transcripción consiste en la creación de una molécula de ácido ribonucleico (difiere del ADN en un azúcar y se abrevia ARN) y es la copia de una porción (secuencia) del gen. Luego, con esta información, la nueva molécula abandona el núcleo de la célula (por lo que se le llama ARN mensajero) y funciona como una especie de plantilla que sirve de base para la formación de las proteínas en el citoplasma. El proceso de transcripción tiene su punto de partida en el promotor, pues éste tiene un sitio de unión para un factor, que en este caso es una enzima llamada polimerasa, la cual es necesaria para hacer un ARN mensajero.


Por su parte, los potenciadores o amplificadores son secuencias de ADN que estimulan o aumentan la transcripción de los genes, aunque también pueden reprimirlos. Se encuentran en zonas alejadas de éstos y ni siquiera necesitan formar parte del mismo cromosoma. Debido al gran plegamiento de la cadena de ADN (como dijimos, mide 2 metros y está empaquetada dentro del núcleo, cuyo diámetro es de 0.006 milímetros), geométricamente puede quedar cerca de los genes y los promotores regulando la transcripción y, por tanto, la síntesis de proteínas. Esto lo hace a través de factores formados por nucleoproteínas que pueden asociarse con los genes y los promotores influyendo sobre sus funciones.


Se trata de mecanismos dotados de gran flexibilidad, que tienen la capacidad de activar o inactivar a los genes. A partir de los trabajos de Encode la imagen que nos queda de esta amplia región de la molécula de ADN que antes se consideraba "basura" es la de un gran tablero de control dotado de llaves o switches que permiten "encender" o "apagar" los genes, decidiendo el momento y el tipo de proteínas que se forman en las células, lo que a fin de cuentas determina la estructura y función de todo el organismo.


Las implicaciones de estos trabajos son tremendas. No es exagerado afirmar que estamos frente a una revolución en la genética. Los caminos que se abren son enormes para conocer los procesos más íntimos de la vida, y también para comprender los mecanismos de algunas enfermedades. Será posible ahora entender mejor algunas patologías de causa genética y diseñar en el futuro, con mayor precisión, las herramientas para enfrentarlas.
Publicado enInternacional
Logran científicos la más grande cantidad de hallazgos sobre ADN
Nueva York, 5 de septiembre. En la mayor hornada de descubrimientos sobre el ADN desde que se completó el proyecto del genoma humano en 2003, 442 científicos en laboratorios de tres continentes publicaron este miércoles 30 estudios abarrotados de hallazgos.


Los descubrimientos, que suponen lo que la revista Nature describe como la “guía para el genoma humano”, oscilan desde lo esotérico –¿qué es un gen?– a lo práctico –que sólo 20 cambios en genes pueden estar detrás de 17 cánceres aparentemente no relacionados–, lo que da a las empresas una serie de posibles objetivos farmacológicos.


Los estudios provienen de un proyecto de 196 millones de dólares llamado Enciclopedia de elementos del ADN, o Encode, por sus siglas en inglés, cuyo objetivo es tomar la Babel producida por el proyecto genoma humano –la secuencia de las 3 mil 200 millones de “bases” o “letras” químicas que constituyen el genoma humano– y darle sentido.


“Comprendemos el significado de sólo un pequeño porcentaje de las letras del genoma”, dijo el doctor Eric Green, director del Instituto Nacional de Investigación del Genoma Humano, que pagó el grueso del estudio.


Encode se lanzó en 2003 para construir una “lista de partes” del homo sapiens al identificar y señalar las ubicaciones de cada parte del genoma que haga algo, un “mapa de referencias de todos los elementos funcionales en el genoma humano”, explicó el genetista Joseph Ecker, del Instituto Salk de Estudios Biológicos en La Jolla, California.


Producción de proteínas


Los elementos más conocidos del genoma son los aproximadamente 21 mil que especifican qué proteínas produce una célula. Por ejemplo, el gen del receptor de dopamina hace los receptores de esa sustancia en las células del cerebro, y el de la insulina la produce en el páncreas.


Sin embargo, sólo alrededor de uno por ciento del genoma se refiere a las proteínas, y el desafío ha sido descubrir la función del otro 99 por ciento, que durante años se ha descrito como “ADN basura” porque no codifica las proteínas.


Los expertos de Encode son la versión biológica del movimiento de los ocupas, comentó Mark Gerstein, de la Universidad Yale, quien dirigió uno de los equipos. “Durante años, todo el mundo se centró en el uno por ciento; la enciclopedia mira al 99 por ciento”, comentó.


El movimiento de los ocupas suele emplear como lema “Somos el 99 por ciento”.


Al examinar esa parte del genoma, los científicos de Encode descubrieron que en torno a 80 por ciento del ADN antes tachado como basura realiza una función biológica. En primer lugar, este ADN no tan basura es un panel de control de lo más sofisticado, con unos 4 millones de fragmentos de ácido desoxirribonucleico que controlan todo lo demás.


“El ADN basura, 99 por ciento, se encarga en realidad de dirigir los genes”, dijo Gersetein.


Esta regulación puede influir tanto en los genes normales como en los anómalos, afectando las probabilidades de enfermedad.


Eso se debe a que los “factores de transcripción” y otros elementos regulatorios –proteínas producidas por ese ADN controlador– afectan la doble hélice de cada célula, dominándola de una forma que activa o desactiva los genes como un niño que acaba de
descubrir los interruptores de la luz.


El poder de los elementos que controlan los genes podría explicar por qué la secuenciación sencilla del ADN personal concluye en ocasiones que la gente tiene riesgo de desarrollar enfermedades que nunca tienen o deja escapar las señales de las que sí llegan a sufrir. Si el interruptor desactiva un gen insano, “puede reducir los niveles de proteínas que tienen un efecto nocivo”, explicó Ecker. Pero si altera un gen normal, alguien puede desarrollar una enfermedad basada en el ADN.


Interruptores


¿Que tan complicado es ese sistema regulador? Hay casi cuatro millones de interruptores en los principales órganos humanos, y unos 200 mil actúan en cualquier célula dada, como en los músculos cardiacos.


“Nuestro genoma está simplemente lleno de interruptores: millones de lugares que determinan si un gen se activa o se desactiva”, dijo Ewan Birney, del Instituto Europeo de Bioinformática-Laboratorio Europeo de Biología Molecular, y uno de los líderes de Encode.


El sistema de control implica que las compañías farmacéuticas podrían tener que indagar en sitios nuevos en busca de genes influyentes. En uno de los estudios del proyecto, expertos de la Universidad de Washington en Seattle descubrieron que la mayoría de las variantes del ADN relacionadas antes con más de 400 enfermedades están en regiones regulatorias a menudo lejanas del “gen de enfermedad”.


“Los cambios genéticos asociados con las enfermedades están concentrados en los interruptores”, dijo en la nota de prensa John Stamatoyannopoulos, de la Universidad de Washington.


Como resultado, es probable que los análisis de genoma que buscan errores sólo en los genes de la diabetes o en los de cáncer, entre otros, pasen por alto las variantes que causan la enfermedad al determinar cuándo, dónde y cómo se activan los genes.


Ese descubrimiento “cambiará cuando comprendemos la base genética de la enfermedad y abrirá nuevas avenidas para la terapia”, dijo Stamatoyannopoulos. Por ejemplo, en 17 tipos de cáncer, “sólo 20 factores regulatorios aparecen una y otra vez”, dijo. Eso sugiere que los fármacos que se dirijan sólo a esos, y no a los cientos de objetivos que persiguen ahora las farmacéuticas, podrían tratar muchos cánceres.


El grupo de la UW también descubrió que algunas enfermedades aparentemente no relacionadas comparten sistema regulatorio, como la artritis reumatoide, la diabetes de tipo 1 y otros trastornos autoinmunes. De modo que una sola medicina podría ser efectiva contra todas ellas.


Encode también ha mostrado que un gen no es la parte sencilla de ADN que fabrica una proteína, como se enseña a los estudiantes. En cambio, la unidad funcional es una amalgama de secuencias de las dos hebras de la doble hélice, entrelazadas como las dos mitades de una baraja de cartas en las manos de un croupier de Las Vegas.


Nature ofrece de forma gratuita toda la investigación de Encode en www.nature.com/encode y a través de una aplicación para iPad.


Reuters

Publicado enInternacional
Domingo, 19 Agosto 2012 06:17

Obama, Irán

Obama, Irán
El canal 10 de la televisión israelí informó que el presidente Obama se reunirá con el premier de Israel, Benjamin Netanyahu, para ratificarle una promesa: EE.UU. usará la fuerza en junio del 2013 si Irán no desiste de su programa nuclear destinado a obtener la bomba (www.timesofisrael.com, 14-8-12). La reunión tendrá lugar en Wa-shington o Nueva York a fines de septiembre o comienzos de octubre, las fechas en que, según voceros del gobierno israelí, Tel Aviv atacaría aunque no tenga el apoyo estadounidense. Impensable antes de esa reunión.


Para Obama no se trata sólo de una cuestión de guerra o paz. Si Israel ataca antes de las elecciones presidenciales de noviembre, en las que apuesta a su reelección, el ocupante de la Casa Blanca enfrentaría un dilema: si se abstiene de intervenir, es probable que el poderoso lobby judío vuelque su apoyo al candidato republicano Mitt Romney, prestándole un sostén inapreciable. En cambio, si interviene, a saber qué pasaría con el voto de esa mayoría de la opinión pública que se opone a la guerra contra Irán.


Una encuesta realizada por ABC News y el Washington Post indica que el 81 por ciento de los entrevistados se pronunció en favor de conversaciones diplomáticas directas EE.UU./Irán para resolver la pugna. Es que miles de familias estadounidenses han pagado por Irak y Afganistán. A la pregunta sobre las consecuencias de un ataque israelí en solitario, el 88 por ciento opinó que desataría una guerra en toda la región (www.pollingreport.com/iranhtm, 7/10-3-12). Exacto.


Obama prefiere exigir a la ONU que imponga a Irán sanciones cada vez más duras, espiar su programa nuclear, alimentar a la guerrilla marxista-leninista Mujaidin-e-Jaiq, aunque figura en la lista de organizaciones terroristas del Pentágono, continuar las acciones encubiertas de la CIA en territorio iraní que han causado, entre otras, la muerte de cuatro científicos nucleares, y darle largas a negociaciones instaladas en un callejón sin salida. Así posterga el dilema hasta después de las elecciones.


Irán insiste en que su programa tiene fines pacíficos y lo curioso es que los 16 organismos de la comunidad de inteligencia de EE.UU. y el Mossad israelí le dan la razón. Por ahora. “Evaluaciones recientes de las agencias de espionaje estadounidenses –informa The New York Times– coinciden plenamente con la del 2007, que concluye que Irán ha abandonado su programa de armas nucleares años atrás” (www.nytimes.com, 24-212). El diario señala que en este punto coincidieron James R. Clappe Jr., director de Inteligencia nacional, David H. Petraeus, director de la CIA, Leon E. Panetta, jefe del Pentágono, y el general Martin E. Dempsey, jefe del Estado Mayor Conjunto. Hay consenso.


Jay Carney, vocero de la Casa Blanca, afirmó recientemente: “Tenemos ojos, tenemos visibilidad en el programa (nuclear iraní) y sabremos si Irán decide fabricar un arma y cuándo” (AFP, 10-8-12). Un alto funcionario del Consejo de Seguridad Nacional se pronunció en idéntico sentido: “Seguimos evaluando que Irán no está en vísperas de conseguir un arma nuclear” (www.gq.com, 9-8-12). Parece una respuesta a las declaraciones del ministro de Defensa de Israel Ehud Barak, quien subrayó que los nuevos datos obtenidos por los servicios de inteligencia de EE.UU. imprimen más urgencia a la solución del “peligro existencial” que Irán significa para Israel.


Ehud Barak es uno de los más alarmados –y alarmantes– halcones del gobierno israelí y, sin embargo, reconoció en CNN que “los dos (EE.UU. e Israel) sabemos que Jamenei no ha dado la orden de fabricar un arma, pero está decidido a engañar y a de-safiar al mundo entero” (//transcripts.cnn.com, 30-7-12). El notable especialista en relaciones internacionales Kennet N. Waltz arrojó alguna luz sobre la estrategia de Jamenei, líder supremo de Irán, en el bimensuario Foreign Affaires (julio-agosto 2012).


Los expertos coinciden en que Teherán tiene los conocimientos y materiales necesarios para la construcción de una bomba nuclear, pero se refrena y hace espejear la posibilidad de conseguir rápidamente un elemento disuasivo sin tenerlo. “Esa capacidad podría satisfacer las necesidades políticas internas de los gobernantes iraníes al dar a los de la línea dura la seguridad de que podrán tener todos los beneficios de poseer una bomba (más seguridad) sin inconvenientes mayores (aislamiento y condena internacional)”, explica Waltz.


Lo cierto es que la ausencia de una amenaza inmediata y la superioridad nuclear de EE.UU. e Israel impiden justificar un ataque a Irán. El teniente general Ronald Burgess, director del servicio de Inteligencia del Pentágono, declaró ante una comisión del Senado que “es improbable que (Irán) inicie o provoque intencionalmente un conflic-to o lance un ataque preventivo” (www.dia.mil, 16-2-12). ¿Entonces la guerra para qué? ¿O nuevamente se trata de petróleo?

Publicado enInternacional
Viernes, 17 Agosto 2012 05:47

“Hace falta una nueva reforma”

En esta entrevista, el investigador Norberto Fernández Lamarra describe cómo inciden las desigualdades sociales en los sistemas universitarios de la región y propone “crear un espacio latinoamericano de educación superior para defendernos de los colonialismos”.


“Si bien en la mayoría de los países latinoamericanos las políticas universitarias han tenido en los últimos años un carácter prioritario y las matrículas han crecido, las desigualdades sociales en las casas de estudio aún persisten y en algunos casos se han incrementado.” El presidente de la Sociedad Argentina de Estudios Comparados en Educación, Norberto Fernández Lamarra, se basa en ese diagnóstico para plantear la necesidad de crear un espacio latinoamericano de educación superior y desarrollar “una nueva reforma universitaria” para antes de 2018, cuando se cumplirá un siglo de la histórica reforma surgida en Córdoba. Lamarra es vicepresidente del Consejo Mundial de Educación Comparada y director de Posgrados de la Universidad Nacional de Tres de Febrero.


–¿Qué mirada tiene sobre los distintos modelos de educación superior a nivel regional?

–A pesar del crecimiento en la matrícula universitaria, América latina aún mantiene y en algunos casos ha incrementado una situación de injusticia, castigando a los sectores sociales más bajos. Tomemos el caso de Brasil. Allí la desigualdad se da en el acceso a la educación. Los chicos de bajos recursos no logran ingresar en la universidad pública, porque compiten en el examen vestibular con quienes vienen de enseñanzas medias de mejor calidad. Entonces terminan en universidades privadas baratas y de muy baja calidad. En México pasa algo similar, el problema también está en el acceso. Y los estudiantes de bajos recursos terminan en lo que llaman universidades “patito”, de baja calidad. Un caso más injusto todavía, inexplicable en democracia, es el de Chile, que ha mantenido el sistema elitista de la dictadura.


–¿Qué otros modelos latinoamericanos pueden ponerse en debate?

–Cuba y Venezuela. Con el sistema de municipalización de la educación, Cuba ha alcanzado el nivel de escolarización casi de Estados Unidos, alrededor del 65 por ciento de los chicos en edad universitaria están en la universidad y se gradúan. El problema es que no hay trabajo para todos, y muchos terminan en áreas que no se relacionan con lo que han estudiado. Por otro lado, el modelo de la universidad bolivariana ha ampliado notablemente el acceso a las universidades venezolanas, que eran bastante restrictivas. En los dos casos, el interrogante es la calidad. En la Argentina, el interrogante es la retención. Para Brasil, es ver si el sistema público puede recibir no sólo a los de clase media y alta sino también a los sectores más castigados. Para Chile, donde un joven se gradúa con una deuda equivalente a un departamento, el desafío es terminar con la herencia de la dictadura.


–¿Cuáles cree que son las virtudes y debilidades del sistema universitario argentino?

–Argentina es el único país en América latina que tiene en su área urbana una red tan significativa de universidades nacionales, además de tener por lo menos una universidad pública en cada provincia. Nuestra gran virtud es que recibimos a los sectores medios y bajos en la universidad, pero el mayor problema es que no los acompañamos adecuadamente para que avancen en los estudios y se gradúen. Hasta los últimos años estábamos acostumbrados a atender a poblaciones relativamente homogéneas e integradas, con una formación pareja, pero ahora llegan a la universidad chicos de sectores medios bajos, en su mayoría primera generación de estudiantes universitarios. Nuestra responsabilidad es lograr que estos sectores también puedan graduarse, todo un desafío de política universitaria.


–¿Cómo enfrentar ese desafío?

–En primer lugar, debemos pensar que con la universidad estamos formando para 2030, debemos pensar en el largo plazo. Las universidades deben ayudar a mejorar la escuela secundaria. Esto es prioritario. El país necesita buenos graduados del nivel medio, sigan o no en la universidad. La deserción en la enseñanza media se debe a factores sociales y económicos, pero también a cierto desinterés. Exagero con lo que digo, pero materia más, materia menos tenemos el mismo colegio que en 1862 creó el presidente Mitre para formar a las elites dirigentes. Luego se incorporaron los sectores medios, sobre todo con el radicalismo, y luego, con el peronismo, los sectores más bajos. Llegamos a los últimos cuarenta años, con dictaduras, políticas neoliberales y errores de la democracia que nos dejaron importantes sectores marginados. Para estos sectores hay que diseñar una escuela que los atrape para que puedan terminarla, ahora que es obligatoria.


–¿Cuáles deberían ser los pasos siguientes?

–Hay que pensar a qué universidad van a entrar, ¿a una que los expulse en el primer o segundo año? Hay que recibirlos en una universidad que les ayude a dar el paso hacia modalidades del conocimiento que lamentablemente no recibieron. Otro punto es repensar el modelo universitario. En muchos casos estamos usando el modelo histórico de la UBA, de Córdoba, y debemos pensar un modelo más inclusivo. Hay que repensar los planes de estudios, tenemos todavía una universidad basada en la estructura de las disciplinas. Es decir, empezamos por los fundamentos, por lo teórico. Y para quienes tienen debilidades en su formación, empezar por lo teórico no es lo más fácil ni lo más atractivo. Lo teórico puede incorporarse gradualmente para complejizar lo inicial. Hay que repensar la duración de las carreras, hoy tenemos carreras de cinco o seis años con una duración promedio de graduación de ocho o nueve años. Podemos discutir títulos previos al grado. Todos estos temas son muy complejos de llevar a la práctica, pero hay que a debatirlos. Los universitarios no estamos acostumbrados a debatir sino a defender nuestros compartimentos.


–Volviendo a una mirada regional, ¿en qué situación está el debate universitario en los países latinoamericanos?

–En América latina ha avanzado mucho el mercado sobre la universidad, pero todavía tenemos reflejos de la Reforma de 1918. El gran compromiso que tenemos los académicos latinoamericanos para antes de que se cumpla el siglo de la reforma es tener la propuesta de una nueva reforma que tome los principios básicos de los estudiantes de Córdoba, pero con propuestas de un nuevo mundo. Para eso tenemos que crear un espacio latinoamericano de educación superior, para poder defendernos de los embates de los colonialismos. Tenemos que unirnos, no para rechazar al resto del mundo, sino para aceptarlo desde nuestro propio pensamiento. Necesitamos nuestro propio proyecto.

Publicado enInternacional
Ingenieros del Pentágono presentaron un robot muy parecido a un gusano, capaz incluso de desplazarse mediante contracciones de los segmentos de su cuerpo.

 
La máquina está hecha de materiales blandos para poder introducirlo en espacios estrechos o adaptar su forma en terrenos difíciles.
 

“De cuerpo blando, esencialmente maleable, puede deformarse lo que permite al robot atravesar pequeños orificios y recuperar su forma, y sobrevive a grandes impactos”, escribieron los ingenieros en un artículo publicado en la revista IEEE/ASE Transactions on Mechatronics.

 
Según detallaron, utilizar un sistema de movimiento parecido al de los gusanos ayuda a reducir el ruido que producen estas máquinas, lo que las hace idóneas para “labores de reconocimiento”.

 
El gusano robot fue desarrollado por la unidad de investigación de la Agencia de Investigación de Proyectos Avanzados del Pentágono y participaron científicos del Instituto Tecnológico de Massachusetts (MIT), la Universidad de Harvard y la Universidad Nacional de Seúl en Corea del Sur y los resultados se publicaron en la revista.

 
En intentos anteriores se intentó emplear sistemas alimentados por aire o bombeo neumático, pero al parecer este método los hacía poco prácticos en el mundo real.

 
Así que el equipo del Darpa decidió modificar al gusano usando “músculos artificiales”, hechos de fibra de níquel y titanio que pudieran estirarse y contraerse con el calor.

 
La criatura bautizada como Meshworm está hecha con un tubo hecho a base de polímero envuelto en un cable metálico para crear ese músculo artificial.

 
Al colocar este cable metálico alrededor del tubo, los ingenieros replicaron los músculos circulares de las lombrices, creando distintos segmentos en el proceso.

 
De este modo, cuando una corriente se aplica en el cable éste se contrae apretando el tubo.

 
El equipo creó un algoritmo para enviar ondas de contracción a través de los cinco segmentos de la máquina, apretando su cuerpo para impulsar su movimiento hacia adelante. Esto imita el movimiento biológico de la lombriz.

 
Fueron capaces de hacer que el robot se moviera a una velocidad de 5 milímetros por segundo y se añadieron dos músculos adicionales en los lados de la máquina para moverlo de izquierda a derecha y así controlar su dirección.

 
Resistente a golpes

 
Por otra parte, los ingenieros comprobaron que el dispositivo es muy resistente, ya siguió funcionando después de golpearse con un martillo.

 
De acuerdo a los investigadores, la naturaleza blanda del cuerpo del robot permite golpearlo sin generar daño porque su forma cambia absorbiendo los golpes.

 
“Puedes tirarlo y no se romperá”, dijo Sangbae Kim, profesor asistente en ingeniería mecánica del MIT.

 
“Partes del Meshworn son fibrosas y flexibles. Los músculos y el cuerpo son blandos. Estamos empezando a apreciar una capacidad de deformación del cuerpo”.

 
El Meshworm es un más de los varios animales robots que han sido desarrollados por esta agencia experimental del gobierno estadounidense.

 
Otros ejemplos son el robot “Cheetah” que puede correr a velocidades de 29 km/h, el robot-colibrí equipado con cámaras o el AlphaDog, un robot de cuatro patas diseñado para transportar equipamiento militar.


 10 Agosto 2012 Haga un comentario
 
(Tomado de la BBC)

Publicado enInternacional
El Informe de la Comisión Gulbenkian: Abrir las Ciencias Sociales ¿hacia dónde?

El texto de Carlos Eduardo Maldonado: Termodinámica y complejidad. Una introducción para las ciencias sociales y humanas, es un importante aporte a las ciencias sociales que implica posiciones epistemológicas que es necesario analizar, porque amén de su importancia metodológica existe una intención que va más allá de la epistemología y se inscribe, de hecho, al interior de una estrategia política, en virtud de la cual la teoría científica es un momento más de las relaciones de poder.

El texto de Carlos Eduardo Maldonado se construye desde las propuestas teóricas y epistemológicas del premio Nobel de química, Ilya Prigogine y su aporte a la termodinámica del no-equilibrio. En varios capítulos del texto de Carlos Eduardo Maldonado se hace una paráfrasis y una serie de referencias a la obra de Prigogine y su aporte a las teorías de la complejidad, en especial se menciona a categorías como la no-linealidad, la autoorganización, la disipación, las inestabilidades, los cambios súbitos e irreversibles, etc., no solo como una alternativa válida para un cambio de paradigmas en las ciencias naturales sino incluso como una opción metodológica para las ciencias sociales.

Ahora bien, como introducción al pensamiento de Prigogine y de las teorías de la complejidad, creo que el texto de Carlos Eduardo Maldonado, es pertinente aunque hay momentos en los que suele ser redundante, en especial sobre los impasses teórico-metodológicos de la “ciencia moderna”, entendiendo por ésta, básicamente, a las ciencias naturales. Estos impasses se produce por la adscripción de las ciencias naturales a ciertos principios teóricos que conforman los núcleos centrales de la ciencia moderna y que T. S. Khun denomina paradigmas. Uno de los paradigmas al que Prigogine critica, y que recoge Maldonado en su texto, es aquel del segundo principio de la termodinámica que establece el principio de la entropía, es decir, el equilibrio, y que es clave para la biología, la química y las ciencias de la vida.

La visión de Prigogine es diferente al marco estándar de la ciencia. Mientras ésta ve en la entropía el camino final del universo, para Prigogine la entropía es más bien el inicio del universo. La vida, según Prigogine, marca la comprensión de una forma diferente de ver a la entropía. La vida es la apuesta de un universo antrópico por superar, precisamente, esa entropía. La diferencia fundamental de Prigogine con la ciencia natural estándar está en que éste introduce la “flecha del tiempo” como variable significativa y ello le obliga a entender que hay una historia en la física de la misma manera que en las sociedades. Maldonado, en los últimos capítulos de su libro apela, y en este sentido sigue las recomendaciones del Informe de la Comisión Gulbenkian (1), a que las ciencias sociales se abran a los nuevos aportes de las ciencias naturales, de tal manera que se produzca un diálogo entre ciencias sociales y ciencias naturales. “Las ciencias sociales, escribe Maldonado, deben poder abrirse: hacerlo al rigor y a las demostraciones que son, acaso, las principales fortalezas de las ciencias naturales. El rigor comprende el rigor semántico, sintáctico, conceptual, matemático y computacional.” (Maldonado, op. cit., pp. 181).

Ahora bien, no tengo nada que decir con respecto a la propuesta epistemológica de Prigogine, ni tampoco con respecto al prejuicio epistemológico de las ciencias naturales y sus científicos que creen siempre estar haciendo ciencia de la buena (la expresión “buena ciencia” es de Maldonado), pero creo que ameritan una comprensión desde una perspectiva diferente. En efecto, es necesario preguntarse: ¿qué hay detrás de esta apelación a que las “ciencias sociales y humanas” se abran a las “ciencias naturales” tal como propone el Informe de la Comisión Gulbenkian y retoma Maldonado? ¿Qué procesos históricos, qué dinámicas sociales subyacen a esta apelación por un nuevo positivismo? Para responder a estas cuestiones y comprender en qué consiste esta apelación a un positivismo remozado, quizá sea necesaria una breve reflexión sobre el origen de la ciencia moderna y sus aporías.
 

 Hermenéutica vs analítica: hacia la emancipación de la physis


Pienso que la conformación de la modernidad en los siglos XVII y XVIII, estuvo precedida por un acontecimiento estético y epistemológico. El acontecimiento estético fue, sin duda, el renacimiento florentino y flamenco, que introdujeron la idea ontológica de Hombre en un mundo dominado por la idea de Dios. El acontecimiento epistemológico fue la conformación de la ciencia moderna y el concepto correlativo de logos como fundamento de una racionalidad no adscrita a la idea de Dios. La idea de una razón (logos) libre de hipotecas teológicas solo fue posible porque existía su correlato: la idea del Hombre, asimismo, liberada de toda constricción y referencia teológica. Pero es una idea que disputa un estatuto ontológico con la idea de Dios. El Hombre del renacimiento, en ese momento histórico, es más una apuesta al futuro que una realidad. Es un Hombre al que la historia empieza a abrirse bajo la forma de utopía, y que aún debe recuperar para sí mismo ese sentido de historia y de sociedad que en el medioevo europeo late bajo la férula religiosa.

Ahora bien, la ciencia moderna tal como la conocemos ahora nace al interior de la Edad Media europea; en ese sentido, la ciencia que nace lo hace como ciencia de la physis, no como ciencia ni del Hombre ni de lo social, porque el acontecimiento social, en el cual existiría el Hombre, aún no existe como tal. Nace también desde un locus determinado: la Europa medieval y, en consecuencia, está condicionada por los procesos que subyacen a la Europa del medioevo (2).

En la Europa medieval el mundo del Hombre, tal como más tarde lo conocerá la modernidad, no existe, porque el sentido de lo existente está dado desde la idea de Dios. Serán necesarios varios siglos para que emerja de los pliegues de esa historia particular de Europa, la noción de Hombre y, en consecuencia, el concepto de sociedad en términos profanos y desacralizados. De hecho, será la revolución francesa del siglo XVIII la que abra el espacio de posibles históricos y cree el acontecimiento de lo social, pero incluso eso tampoco significa que haya nacido la analítica del Hombre, esa analítica que corresponde a las ciencias sociales es posterior a la revolución francesa y concomitante a los procesos de formación de los Estados-nación modernos y burgueses.

La ciencia moderna tiene que luchar en contra de la escolástica medieval y la ciencia medieval, que son las prácticas históricas específicas y concretas que asume el conocimiento y que están definidas por una forma de saber que puede denominarse como hermenéutica. En efecto, en la Edad Media Europea, el mundo no estaba para ser analizado sino para ser ad-mirado. Cada fenómeno del mundo expresaba de alguna manera la insondable voluntad de la Providencia. En consecuencia, la única forma de conocimiento posible, era aquel de la interpretación de la Voluntad divina. La hermenéutica otorgaba al saber sus condiciones de posibilidad. En el cerrado mundo medieval, la razón como logos tenía que ad-mirar la Creación e interpretarla de acuerdo al canon. El texto sagrado prescribía al contexto mundano. En ese mundo había un sentido de orden que trascendía lo profano y que lo inscribía en designios que solo la Providencia conocía y que el saber intentaba interpretar de acuerdo a los códigos de lo sagrado. Había que aceptar al mundo tal como era, porque había sido creado por una Voluntad omnisciente y omnipotente. Desgarrar el velo de esa Voluntad Divina para advertir las razones por las cuales existía el mundo equivalía a desgarrar a la realidad y su sentido de orden. Implicaba, en definitiva, desafiar al Orden y propiciar el Caos. Ese mundo regido por la idea de Dios se interpretaba, no se analizaba. Y ahí, como guardián celoso y panóptico, estaba la Iglesia Católica: única institución que tenía la legitimidad social para acceder al texto y, desde ahí, interpretar lo Real.

Por ello, me parece obvio que en un mundo centrado en la idea de Dios las posibilidades de la analítica hayan sido nulas. El único espacio que existía para el conocimiento es aquel de la interpretación del mundo. La ciencia medieval es interpretación del mundo (la vita contemplativa). La transición de la interpretación (hermenéutica) hacia la razón analítica que funda al pensamiento moderno es uno de los procesos históricos más importantes en la conformación de la ciencia y el pensamiento modernos.

La ciencia moderna, cuando nace, lo hace desde la analítica (vita activa). A la ciencia moderna no le interesa el porqué del mundo sino el cómo de ese mundo. Apela a la razón analítica porque es la posibilidad de disputar un espacio de saber a la escolástica medieval más fuerte desde la nueva forma del saber. La escolástica está desarmada ante la razón analítica. Solo puede esgrimir argumentos universales cuyo estatuto ontológico es cuestionado por la razón analítica. De ahí el desprecio que tiene la razón analítica que tiene por toda referencia a una hipoteca conceptual previa a sus hipótesis. Empero, la Iglesia Católica había cerrado todas las opciones posibles para la razón analítica y la comprensión del mundo por fuera de las coordenadas teológicas.

Las condiciones históricas desde las cuales puede la razón analítica extraer su pertinencia aún están por nacer. Sin embargo, cuando ese espacio histórico y social empieza a emerger el poder de la iglesia estará ahí para controlarlo y someterlo. La creación de la Santa Inquisición lo demuestra. Lo que persigue el Santo Oficio son los herejes, es decir, aquellos que piensan por fuera del canon. La razón analítica está fuera del canon, porque en el espacio de posibles del medioevo, ese canon está estructurado bajo la idea de Dios y esta idea desaloja cualquier posibilidad metodológica a la analítica de lo Real.

En la Edad Media europea lo Real en cuanto Real es una determinación de la Voluntad Divina. Las Leyes de Dios están hechas para obedecerse no para ser analizadas. Hay un orden en el mundo que releva de la infinita sabiduría divina y es necesario interpretar la inconmensurable obra del Creador (3), pero no hay espacio posible para analizarla, porque implicaría situarse al mismo nivel que la Creación, y ello podría desestructurar el orden existente.

En el mundo de la interpretación (hermenéutica) lo social en cuanto estructura del mundo tampoco existe como tal porque los seres humanos han sido creados, puestos y dispuestos en un orden establecido bajo los inescrutables designios de la Providencia. No existe la historia como futuro sino como proyección del pasado. Los conceptos de progreso y desarrollo son, por definición, modernos, e indican la apertura del tiempo social a la historia. Por ello, la razón analítica no puede ejercerse sobre lo social porque, en el medioevo, lo social tampoco existe, lo social ha sido, si se acepta la metáfora, congelado, petrificado.

La transición desde la hermenéutica hacia la analítica es un camino sembrado de hogueras y mártires. Fueron personajes, como Giordano Bruno, los que demostraron en su propia carne y con su propio dolor, que la emancipación del saber es también emancipación social. No se trataba solamente de cuestionar un modelo geocéntrico o una interpretación teórica de la escolástica, se trataba, en realidad, de disputar al poder y el sentido del mundo. Así, el conflicto de la razón analítica con el saber medieval era inminente y demostró ser desgarrador: las hogueras en los que crepitaban los herejes purificaban al saber medieval pero también alumbraban su crepúsculo. El control de la Iglesia al saber y su intuición de que la razón analítica era una amenaza que ponía en peligro las condiciones de su poder, se revelaron coherentes y consistentes con su comprensión de que no hay poder sin un orden estructurado de verdad y saber.

Pero esa episteme naciente estaba creando algo más que un discurso diferente con respecto a la comprensión de lo existente. En realidad, estaba creando condiciones de posibilidad para un mundo nuevo, con nuevas relaciones de poder, con nuevas formas de dominación ideológica y con nuevas posibilidades hegemónicas, estaba ayudando a crear lo Real desde un sentido profano y desacralizado.

Ese mundo, ahora lo sabemos, era y es la modernidad. Sin esas condiciones de posibilidad, el capitalismo habría sido imposible. La revolución coperniciana, de alguna manera, permitió la modernidad y ésta es la condición de posibilidad para el desarrollo del capitalismo. Hay un hilo conductor entre la moderna idea de Hombre y su capacidad de Logos (conocimiento) con la Mercancía y su valor de cambio. En ese proceso, las relaciones de poder que se estaban configurando sobre la matriz moderna necesitaban disputar la comprensión sobre el sentido del universo, porque sobre ese sentido se inscribía la ideología dominante que permitía, a su vez, la dominación por consenso, requisito clave para consolidar y mantener las modernas relaciones de poder.


La emancipación de la physis y sus cesuras radicales


El orden social en la Edad Media europea es tan cerrado y jerárquico que no permite ningún ejercicio de análisis y comprensión sobre esa sociedad. La idea de un mundo armonioso y jerárquico implica también la noción de una sociedad estructurada de forma armoniosa y, precisamente, las jerarquías sociales están ahí para constatarlo.

Si hay alguna posibilidad de analizar algo no es a la sociedad medieval sino aquello que está fuera de ella: lo que los antiguos griegos denominaban como physis. La physis es todo lo que rodea a lo social. Es el universo infinito como lo planteaba Nicolás de Cusa. Infinito como la Divina Voluntad. Un infinito que tiene como centro del mundo al sillón del Vaticano. La physis es el primer espacio de disputa entre el saber medieval y la analítica moderna. Si no hay posibilidades de comprender y analizar a lo social porque está petrificado en el tiempo histórico, entonces porqué no analizar y entender al universo. Es en esta primera separación de la physis con respecto a la sociedad, en donde radica el primer núcleo de conformación de la ciencia moderna y la razón analítica. En esta separación subyace también uno de los fundamentos mismos de la modernidad: el Hombre separado de su naturaleza y como dueño y poseedor de ésta.

Ahora bien, en la disputa y confrontación con el saber medieval y la transición del mundo cerrado al universo infinito, como lo define Koyré (4), se produce un desgarre ontológico del cual la ciencia moderna que está aún por nacer no es plenamente consciente. Para comprender la physis, por fuera de toda hipoteca especulativa e inaugurar tanto al método cuanto a la episteme moderna, era necesario, en primer lugar fracturar la capacidad del conocimiento de toda referencia y prescripción teológica. El Hombre podía conocer al mundo (physis) y el cómo de ese mundo, por sí mismo, pero al precio de dejar de ser parte de esa physis.

Esa posición de conocimiento implicaba a un Hombre dotado de una capacidad de comprensión (logos) que tiene que salir de ese mundo físico o natural, para convertirse en observador privilegiado de esa naturaleza. Es decir, el mundo que ese Hombre pretende conocer desde su propia racionalidad le es externo a sí mismo. Ese mundo se transforma en physis porque no contiene al Hombre y a su mundo humano-social. Es una realidad eminentemente física y en la cual no puede (ni debe) caber nada de lo humano. Mientras en el saber medieval el sujeto que conoce forma parte del objeto conocido, porque ambos, sujeto y objeto, forman parte de una realidad que los trasciende (la Divinidad), en esta emergencia de la razón analítica, el sujeto que conoce (el Hombre y su capacidad de razonamiento: el logos), se separa radical y ontológicamente del objeto conocido: el mundo convertido ahora en physis.

Esta separación es coherente con la estructura social que está emergiendo en los pliegues del mundo medieval. En esa nueva estructura social, el acto de conocimiento no es inocente: se conoce al mundo para apropiarse de él, y la mejor formulación es el proyecto cartesiano del conocimiento (5). Mientras en el orden medieval, el conocimiento sostiene ideológicamente a un mundo cerrado, jerárquico y axiológico (porque el conocimiento se estructura al interior de un sistema de valores: perfección, armonía, sentido y trascendencia); la nueva forma de conocimiento desgarra de manera profunda y radical a ese orden medieval. El sujeto que conoce se aliena de forma definitiva del objeto que es conocido. La naturaleza (physis) deja de ser humana y el hombre deja de ser natural. Esa fractura no solo que los separa radical y ontológicamente sino que los confronta. El hombre debe vencer a la naturaleza. Debe convertirse, como escribe Descartes, en “maîtres et possesseurs” (amos y señores) de la naturaleza. Esa alienación fundamental y primigenia subyace a la forma del conocimiento moderno. Esta alienación es tan fuerte que se la considera como la forma “normal” de todo conocimiento humano, pero en realidad es la forma “normal” del conocimiento en la modernidad. Los saberes alternativos han logrado salir de esa alienación radical.

Ahora bien, el discurso que se empieza a fraguar desde las posibilidades de la razón analítica no tiene conciencia de esa separación radical entre sujeto y objeto, y aún no comprende que esa separación se convertirá en una ruptura tan radical que a la larga le impedirá comprender incluso a la physis; pero es esta ruptura ontológica la que lo conforma, lo define y estructura como saber moderno. Se conoce para dominar. Nietzsche lo va advertir de forma temprana: para el ser moderno toda voluntad de saber es también voluntad de poder.

En la conformación de la razón analítica que define a la naciente ciencia moderna, el Hombre es desgarrado de todo aquello que lo rodea y que ahora se convierte en physis, y en este desgarramiento la naturaleza se alienará en forma definitiva del Hombre. Por ello, en el nacimiento de la ciencia moderna consta esa fractura radical entre las ciencias del espíritu (que más tarde se denominarán ciencias sociales) y las ciencias de la naturaleza. Pero este desgarramiento y alienación fundamental de la naturaleza es también un proyecto de dominación. La ciencia que nace de las cenizas del orden medieval tiene voluntad de saber pero, al mismo tiempo, expresa en cada acto de conocimiento un momento del poder. A este proceso de desgarre ontológico entre la naturaleza y el Hombre, así como la voluntad de dominación presente en todo acto de conocimiento moderno, y que se expresa en la separación radical entre sujeto que conoce con el objeto que es conocido, lo denomino emancipación de la physis.

Lo denomino de esta manera porque forma parte de otros procesos sociales e históricos que conducen a la emancipación política de la burguesía. A la ruptura radical entre sujeto que conoce con respecto al objeto conocido la denomino como cesura radical. Retomo el término de “cesura” de la teoría de la retórica porque plantea un cambio fundamental en el ritmo poético que implica un cambio de registro sin que éste se note como tal. Esa alteración radical de sentido que provoca desgarres sociales tan fuertes como la separación ontológica entre el sujeto que conoce del objeto conocido, es suturada permanentemente por la ideología. Las cesuras radicales no se notan en su violencia y parecen fenómenos naturales y eternos. En efecto, para todo científico moderno, la separación del sujeto que conoce con respecto al objeto que es conocido le parece un acto absolutamente normal en el proceso del conocimiento. Es más, mientras más separado está el sujeto que conoce del objeto que es conocido, supuestamente más objetivo es su conocimiento y, en consecuencia, tendría más validez “científica”.

Esta separación del sujeto que conoce del objeto conocido se instrumentaliza mediante el “método científico”, que está hecho para sostener, garantizar y perpetuar esta cesura radical, esta ruptura ontológica. En el “método científico” de la razón analítica moderna, es imposible que el sujeto se cuestione a sí mismo por su estatuto de sujeto que conoce en ruptura y oposición a aquello que conoce. Las formas instrumentales del saber (observación, medición, registro, etc.), y las formas de expresión del saber (mathesis) garantizan la fractura ontológica del saber moderno. A esta instrumentalización de la separación radical entre sujeto y objeto, por medio del método científico la epistemología le ha dado el nombre de positivismo y caracteriza, de hecho, a todo el conocimiento moderno.

Empero, hay varias líneas de fuga en esa propuesta tanto epistémica cuanto metodológica del positivismo. Son líneas de fuga que aparecen de forma evidente en la mecánica cuántica y que son recogidas, entre otros, por el mismo Ilya Prigogine. En la mecánica cuántica el sujeto que conoce se “registra” en el objeto conocido. El acto de conocimiento es al mismo tiempo objeto de conocimiento. En la mecánica cuántica el conocimiento se refleja a sí mismo, , y produce paradojas. Una de ellas, quizá la más conocida, sea el principio de incertidumbre de Heisenberg. Según este principio es imposible conocer al mismo tiempo masa y posición, porque el sujeto que conoce pierde su estatuto ontológico, porque el hecho de medir altera la posición en el nivel cuántico de la materia.

La separación del sujeto con respecto a su objeto implica la comprensión de un objeto sin tiempo, sin historia y sin complejidad. La observación científica a la physis implica la comprensión de ésta por fuera de toda constricción social. El tiempo de la physis, es un tiempo independiente de la sociedad, de la historia y también de la misma physis. El filósofo alemán I. Kant adscribirá ese tiempo y ese espacio inmutables como categorías trascendentales al pensamiento crítico, es decir, son apenas marcos de referencia que no interfieren en la conformación de la razón. El espacio de la physis es también un espacio homogéneo, lineal, predecible. Mas, se trata de algo arbitrario y que al parecer, y tal como lo demuestra Prigogine, poco tiene que ver con la realidad de la physis. Al introducir la “flecha del tiempo” en el mundo de la physis, Prigogine está haciendo algo más que un cambio de paradigmas: está cuestionando el formato mismo de la ciencia moderna.
 

Metafísica de la razón analítica: logos y techne


¿Hay leyes en la ciencia? Los científicos ahora son más prudentes, incluso los científicos naturales. En ciencias sociales hay reticencia a hablar de leyes (Badiou, por ejemplo, prefiere hablar de “acontecimientos”). La física cuántica ha servido mucho a que los científicos de la physis sean más precavidos a la hora de enunciar regularidades universales y necesarias como leyes científicas rigurosas y permanentes. El mismo Prigogine plantea y demuestra el hecho de que al salir de las posiciones de equilibrio en la termodinámica clásica no existen regularidades universales, y que toda la naturaleza viva y sus procesos no son dinámicas de equilibrio, es decir, en la naturaleza viva no habrían leyes científicas en el sentido positivista y decimonónico del término. El mismo Popper era propenso y partidario a reconocer a la incertidumbre en las ciencias, de ahí su propuesta de que la ciencia plantea hipótesis que, en realidad, son otra forma de fe. Hipótesis transitorias y sometidas permanentemente a falsación, pero hipótesis al fin, es decir, un conocimiento que no está establecido de antemano y cuyo estatuto epistemológico permanece efímero.

Los científicos modernos empiezan a comprender que la apelación a leyes científicas tiene más de metafísica que de razón positiva. En efecto, el hecho de creer en que las regularidades de la physis eran universales y condición suficiente y necesaria para el conocimiento, tenía un trasfondo metafísico y teológico. Si en el orden medieval la idea de Dios era causa primera y suficiente para interpretar y comprender al mundo, entonces nada ni nadie estaban por fuera de su Divina Voluntad, y todo podía ser explicado o remitido a los insondables designios de la Providencia. Así, Dios era la causa primera, universal, necesaria y suficiente. Una causa que tenía en sí misma los argumentos de existencia tal como lo demostró San Anselmo y su demostración ontológica de la existencia de Dios.

Cuando emerge la razón analítica, su propuesta de leyes científicas universales, necesarias y suficientes, de alguna manera replicaban el orden del saber medieval y su escolástica. Las leyes científicas decimonónicas tenían un tufo a metafísica que no se escapaba a sus críticos.

La deriva hacia leyes universales y necesarias fue una concesión a la metafísica que los primeros científicos modernos ni siquiera se dieron por enterados, pero que fue consustancial a la formulación de la ciencia moderna como una retórica por fuera de la sociedad y que expresaba la separación radical entre sujeto que conoce y objeto conocido. Hacían teleología quizá sin proponérselo y cerraban el mundo del conocimiento a sus propias prescripciones. Esa estructura metafísica de la episteme moderna, a pesar de las críticas hechas a su tenor por otros positivistas como el mismo Popper, resiste y todavía hoy hay muchos científicos modernos que creen en la existencia de leyes científicas universales, necesarias y suficientes.

 La forma por la cual los científicos han recibido la propuesta de termodinámica no lineal de Prigogine también da cuenta de la resistencia de la ciencia moderna a salir de su corsé epistémico de un conocimiento universal, necesario y suficiente para conocer la physis. Pienso que esta resistencia de la ciencia moderna está en la base misma de su conformación analítica. Será muy difícil que los científicos modernos cierren la cesura radical entre el sujeto que conoce con el objeto conocido, a pesar de todas las pruebas en contra que reciben desde la física cuántica o la termodinámica no lineal.

Pienso, asimismo, que las cesuras radicales no solamente separan de forma radical al sujeto del objeto, es decir, a la sociedad de sus propias condiciones de conocimiento, sino que también operan al interior del mismo conocimiento. La razón analítica es el resultado de otra cesura fundamental, aquella que separa el logos (o la ratio) de la techne. Esta cesura se inscribe en el proyecto moderno de convertir al Hombre en el “amo y poseedor de la naturaleza” como lo planteaba Descartes. Se conoce para intervenir, para dominar, para someter. Todo acto de conocimiento es un acto de imposición, de fuerza, de dominación, de sojuzgamiento. No existe un solo acto de conocimiento por fuera de esta voluntad de dominación. Todo saber es poder.

El clivaje de la razón analítica entre saber y poder está dado por la cesura radical del logos que conoce y el logos que transforma (techne). Esta cesura expresa la ruptura, asimismo ontológica, entre el sujeto que conoce de la sociedad de la cual es parte. En el acto de conocimiento, no solo que se ha enajenado de la naturaleza sino también de su propia sociedad. Para el científico moderno, en la soledad de su laboratorio, o al interior de su instituto de investigación, la sociedad es algo tan lejano o extraño como el universo que estudia. Es lejana en el sentido de que ninguna de sus ecuaciones, intuiciones, o propuestas teóricas toman en consideración como variable significativa a esa sociedad. Para conocer esa sociedad y convertirla en objeto de investigación es necesario que el científico social se asuma ante lo humano-social de la misma forma que el científico natural en su laboratorio.

Ahora bien, la techne como el logos de la razón analítica que transforma lo existente es teleológico en sí mismo, y lo es porque expresa esa voluntad de poder del conocimiento moderno. Si el hombre es el “amo y poseedor de la naturaleza”, entonces tiene que conocerla para domeñarla. El acto de conocimiento se transforma en acto de dominación. En este acto de dominación actúa la razón técnica, porque la transformación de la physis es un acto de conocimiento técnico. Este conocimiento técnico ¿necesita de justificación? En absoluto. Este acto de dominación sobre la naturaleza es ya un sentido y una finalidad en sí mismo. Al legitimarse a sí mismo no necesita de ninguna restricción ética.

El logos de la techne, se convierte en aquello que el Círculo de Frankfurt denominaba la “razón instrumental”. Esta razón instrumental actúa al interior de sus propias coordenadas que se expresan por la relación medios/fines. La razón instrumental tiende a maximizar la relación medios-fines y, al hacerlo, tiende a cosificar lo humano-social. En esta cosificación de lo humano-social existe la tendencia de que los problemas humanos y sociales pueden resolverse desde la razón técnica. Es decir, se cree que la teleología del saber instrumental y de la tecnología es tan vasto que no hay problema humano que ésta no pueda resolver.

Ahora bien, la ruptura ontológica entre el sujeto que conoce del objeto que es conocido y que produce la emancipación de la physis, es correlativa a aquella otra que fractura al sujeto que conoce de su propio entorno humano-social. Estas fracturas ontológicas se expresan en el hecho de que el conocimiento moderno está por fuera de toda consideración ética. Por ello, no hay mejor expresión de la amoralidad del conocimiento moderno que la propuesta weberiana de la neutralidad valorativa. Mientras más neutral es el científico, es decir, mientras más profunda sea la cesura entre el sujeto que conoce de su objeto de estudio, más “buena” es su ciencia, mejor es su conocimiento, y menos posibilidades existen de que ese conocimiento sea ético.

La emancipación de la physis, en realidad, es la opresión de lo social. Por ello, cuando leo el texto de Maldonado y su apelación a que las ciencias sociales y humanas se abran hacia las ciencias naturales y aprendan el rigor de éstas, en especial la propuesta epistemológica y metodológica que se desprende de la termodinámica no lineal, al estilo de Prigogine, pienso de que en realidad se trata de una apelación a un nuevo positivismo en un contexto de un profundo desgaste de la ciencia moderna.

Pienso que ese desgaste es consustancial a las cesuras radicales que la conforman. La física cuántica ha permitido descubrir que el sujeto y el objeto nunca están separados tal como lo pretende el conocimiento científico moderno. Algo que por lo demás lo sabían bastante bien los pueblos indígenas andinos. Prigogine propone la integración del sujeto con el objeto a partir de la incorporación de la flecha del tiempo en la physis, empero, será muy difícil que las ciencias naturales cambien de paradigma. Sin embargo, la cuestión es que si la ciencia social incorpora la propuesta epistemológica de las ciencias de la complejidad, se harán más débiles y vulnerables con respecto a las relaciones de poder del sistema, porque todo fortalecimiento teórico de la physis implica mayor opresión para la sociedad.

Mientras más avanza la episteme de la physis, mayor peligro para la sociedad, por las cesuras que implica. Sin embargo, la emancipación de la physis está en su momento más dramático, por decirlo de alguna manera. Todos los intentos por definir un marco general para la physis hasta ahora han fracasado. La teoría de la gravedad con la mecánica cuántica hasta el momento no han logrado una armonización definitiva que se exprese en una Ley General. La teoría de las supercuerdas, así como la termodinámica no estable, entre otras cosas, dan cuenta de los impasses profundos en los que se encuentra la emancipación de la physis. La ciencia moderna quiere resolver ese impasse desde su propia dinámica y su propia episteme, sin comprender que a medida que más apele a la episteme de la physis menos posibilidades tiene de superar ese impasse.
 

 El marxismo como acontecimiento ontológico


Empero, hay otro aspecto que me parece interesante analizar y que se expresa en el pedido de la Comisión Gulbenkian de cómo abrir las ciencias sociales y humanas para que respondan “adecuada y plenamente las objeciones legítimas contra el parroquialismo y así justificar su afirmación de validez universal o aplicabilidad universal” (6) y que, de alguna manera, también lo recoge el texto de Maldonado cuando exhorta a las ciencias sociales abrirse al rigor de las ciencias naturales, vinculando, además, esa apertura hacia las nuevas propuestas epistemológicas de las ciencias naturales, en especial, la termodinámica no lineal de Prigogine.

Me parece que ese pedido obedece a un proceso social que debe ser identificado y cuestionado. La propuesta de la Comisión Gulbenkian de que las ciencias sociales y humanas se abran a la rigurosidad y universalidad de las ciencias naturales, expresa el malestar que sienten las ciencias naturales o ciencias duras con respecto a las ciencias sociales y humanas. Ese malestar se debe a que la cesura radical que consta en el nacimiento de las ciencias naturales, en cambio no fue posible realizarla en el campo de lo social, es decir, las ciencias sociales.

Casi nadie se cuestiona por la supuesta cientificidad de las ciencias naturales. Sus marcos teóricos, sus hipótesis, su mathesis, sus marcos institucionales, sus laboratorios, sus científicos, etc., todos ellos gozan de buena reputación y se supone que la ciencia que ellos producen, al no estar contaminada de polis, es “ciencia de la buena”. Los cuestionamientos que se hacen a su interior son más bien metodológicos, como aquellos realizados, entre otros, por Kuhn, Popper o Lakatos.

Su férreo positivismo es a prueba de historia. Es una armazón que la blinda de todos los conflictos con la historia o con la sociedad. Un físico cuántico en sus ecuaciones jamás pensará que esas mismas ecuaciones forman parte de un entramado de relaciones de poder en la cual su perspicacia analítica sirve para reforzar la opresión de lo social. En efecto, nadie cuestiona el hecho de que las ciencias naturales sean buena ciencia y que, en consecuencia, deban excluir cualquier consideración moral o ética.

En ese sentido, los físicos, los químicos, los biólogos, en fin, los científicos que hacen “ciencia de la buena”, se parecen bastante a los escolásticos de la edad media que hacían, en cambio, metafísica de la buena. Ahora bien, si hay un consenso casi unánime de que las ciencias naturales, a pesar de todas sus aporías y antinomias, es “ciencia de la buena”, también hay un consenso de que las ciencias sociales tienen un estatuto epistemológico un tanto sospechoso.

A las ciencias sociales les falta matemáticas, les falta, como diría Maldonado, rigurosidad semántica y computacional; en realidad, les falta aquello que, en cambio, les sobra a las ciencias naturales: la separación del sujeto que estudia del objeto que es estudiado. Si en la emancipación de la physis era relativamente fácil separar al sujeto de su propio mundo, en las ciencias sociales esa separación es virtualmente imposible: el objeto de estudio es el mismo sujeto que estudia. En las ciencias sociales sujeto y objeto comparten el mismo estatuto ontológico. No se puede separarlos a riesgo de producir fracturas radicales. Una consecuencia de esa separación es la conversión del sujeto en objeto. Convertir al sujeto en objeto es reificarlo. Una ciencia social reificada no puede ser “científica”. La reificación restringe sus posibilidades epistemológicas y la convierte en ideología.

La ciencia social, cuando se viste del ropaje positivista y analiza a la sociedad como a través de un microscopio, o con los mismos criterios con los que un físico analiza la materia o un biólogo la vida, en realidad cosifica al sujeto, lo convierte en objeto. La aporía de una ciencia social verdaderamente científica como quiere el positivismo conduce de forma ineluctable a la reificación. Cuando la ciencia social se disfraza de ciencia natural la cosificación emerge de forma pura y evidente.

Hay varias formas de demostrarlo. El debate del Círculo de Frankfurt en contra del positivismo forma parte de ello, pero quizá el evento que demuestra la reificación de las ciencias sociales disfrazadas de positivismo esté en el denominado “affaire Sokal”. En una reductio ad absurdum, el affaire Sokal demostró la impostación de las cesuras radicales en las ciencias sociales. Cuando Sokal disfrazó a un discurso de análisis social de una serie de incongruencias y sinsentidos de las ciencias naturales, pero que daban la apariencia de un sólido discurso analítico-formal, desnudó la falacia de construir una ciencia social analítica bajo las mismas prescripciones metodológicas y epistémicas que las ciencias naturales (7) .

Aquellas ciencias sociales que querían disfrazarse de ciencias naturales sucumbieron a su propio simulacro, y demostraron que es imposible que las ciencias sociales conjuguen la cesura radical de las ciencias naturales (es decir, la separación ontológica sujeto/objeto y la enunciación de leyes universales y necesarias).

En otros términos, las ciencias sociales jamás serán tan “científicas” como las ciencias naturales. Cuando se vuelven “verdaderamente científicas” se convierten en procesos alienados que nada tienen que ver con la ciencia como lo demostró el affaire Sokal. Por definición, a las ciencias sociales y desde el punto de vista del positivismo de la emancipación de la physis, siempre les faltará más rigor matemático, metodológico, experimental, computacional, etc. El positivismo se estrella contra una falla fundamental del conocimiento moderno, pero no la advierte porque no está preparado para ello. El positivismo piensa que con un par de ecuaciones el problema del conocimiento de la complejidad social puede resolverse. Obsesionado por la forma del conocimiento científico olvida que el sujeto que conoce no puede nunca objetivarse a condición de perder su estatuto de sujeto. Si pierde ese estatuto en una pretendida objetividad, entonces el conocimiento que produce es una cosa que poco tiene que ver con la complejidad de lo social (8).

Un debate que los filósofos del Círculo de Frankfurt lo demostraron fehacientemente en su disputa con los positivistas. Esa carencia se debe a que la emancipación de la physis, como proceso político correlativo a la emancipación de la burguesía, llegó demasiado tarde al campo de lo social.

Cuando la burguesía se emancipó políticamente y construyó lo Real desde sus propias prescripciones, incluyendo en éstas la forma de conocer a lo Real, en su propio interior había nacido su negación fundamental. Esa negación emergió, precisamente, al calor de la conformación de lo social como espacio de posibilidad histórica para la misma burguesía. En la revolución francesa de 1789 la burguesía liquida al ancien régimen, pero crea también sus propias contradicciones que la acotan históricamente.

Lo social se presenta como un campo de tensiones y contradicciones entre una clase social, la burguesía, que quiere construir el mundo a su imagen y semejanza y ese mismo mundo que la resiste y la confronta. Esa tensión que expresa lo social es enunciado por los teóricos más radicales de la revolución francesa, y más tarde por el marxismo, como lucha de clases. La lucha de clases es la negación de que la historia en su desarrollo futuro sería armoniosa, tal como lo pretendía la burguesía.

Si la emancipación de la physis tenía que liquidar las pretensiones de la escolástica medieval para interpretar y a partir de allí legitimar lo Real, el campo de lo social emerge como un campo problemático y contradictorio e inscrito en los mismos procesos históricos que dieron origen a la burguesía: la lucha de clases. Pero esa lucha de clases, como operador analítico, estuvo bien cuando legitimó la eliminación a la monarquía y la aristocracia feudal, pero está muy mal cuando excede sus posibilidades teóricas y pretende comprender y analizar a la propia burguesía. En otros términos, la analítica está muy bien cuando se analiza la realidad natural y sus leyes universales y necesarias, pero cuando esa misma analítica se dirige a la burguesía los resultados no pueden ser de su gusto.

Cuando nacen las ciencias sociales al calor del acontecimiento social (la revolución francesa (9)), nacen por fuera de la emancipación de la physis, pero nacen contaminadas de historia y de polis. Nacen al interior de un campo tensional y contradictorio establecido por la lucha de clases. La lucha de clases no es un invento del marxismo, es la condición de posibilidad del nacimiento de lo social y está inscrita en cada uno de los actos de la revolución política en virtud de los cuales la burguesía liquidó al ancien régimen.

La burguesía quiere comprender lo social con los mismos marcos teóricos y categoriales con los cuales había derrotado a la escolástica medieval, pero el acontecimiento social que abre el espacio histórico para situar en él una analítica de lo social, rebasa a las pretensiones teóricas de la emancipación de la physis porque lo social está más allá de la physis. El mismo conocimiento moderno está construido de tal manera que hace imposible cualquier posibilidad de encuentro entre el acontecimiento social y la emancipación de la physis. Ambos acontecimientos tienen registros históricos diferentes. El problema es que la burguesía intenta comprenderlos desde una sola matriz epistémica: aquella que releva de la emancipación de la physis, vale decir, el positivismo.

En efecto, la respuesta de la burguesía no es la de ampliar el marco de comprensión del positivismo hacia lo social cambiando la estructura del conocimiento científico, sino más bien reducir el acontecimiento social a los límites del positivismo. Las ciencias naturales quieren determinar el estatuto epistemológico de las ciencias sociales sin entender que la aporía que las constituye inhabilita de forma radical una comprensión epistemológicamente coherente de un sujeto convertido en objeto de sí mismo.

Para comprender lo social al interior del acontecimiento que lo produjo era necesaria superar la cesura radical entre sujeto y objeto. Ahora bien, pienso que el acontecimiento histórico-epistémico (en el sentido que Alain Badiou da al término (10)) que fracturó de manera radical al positivismo y que marca de forma trascendente a las ciencias sociales por fuera de la cesura sujeto/objeto, es el marxismo.

En efecto, el marxismo fractura de forma radical la pretensión de construir unas ciencias sociales que sean el espejo metodológico de las ciencias naturales. De hecho, las ciencias sociales se estaban construyendo de esa manera durante el siglo XIX hasta el aparecimiento del marxismo. El debate sobre el estatuto epistémico de las ciencias sociales desde fines del siglo XIX y todo el siglo XX es el debate del marxismo y todas sus variantes, con el positivismo y todas sus escuelas. La cuestión entonces es ¿porqué el marxismo?

Pienso que en el marxismo hay un núcleo de análisis que disputa de manera frontal en contra de la cesura entre sujeto/objeto que conforma la matriz del pensamiento analítico moderno. Ese núcleo aparece en el pensamiento temprano de Marx y es su teoría de la alienación. Marx identifica una cesura radical como constituyente del capitalismo: la separación radical del productor con su producto. En los Manuscritos de 1844, Marx escribe:

“La alienación del obrero en su producto significa no sólo que el trabajo de éste se convierte en objeto, en una existencia exterior, sino además que su trabajo existe al margen de él, extraño a él, y que se convierte en un poder autónomo frente a él, que la vida que le ha prestado al objeto se opone hostil a él, hostil y extraña.” (K. Marx, Manuscritos 1844, Ed. Arca de Noé, s.f., pp.102, cursivas el original)

Me parece interesante vincular la teoría de la alienación de Marx con la reificación de la ciencia moderna. En ambas subyace una ruptura ontológica. En la propuesta de Marx es la separación radical del productor con su producto que, en realidad, es la separación radical del hombre con respecto a su propia sociedad e historia. En la ciencia moderna es la separación entre el sujeto que conoce del objeto conocido. En ambas consta el registro de una cesura radical que produce una fractura ontológica. El proyecto teórico del marxismo será comprender esa cesura radical. El proyecto de la ciencia moderna será subsumir esa cesura radical bajo los contenidos epistémicos del positivismo. Para Marx, la comprensión de esas cesuras radicales implicaba la emancipación real de los seres humanos, es decir, que los seres humanos comprendan que porque hacen la historia pueden transformarla. Para el positivismo de la ciencia moderna se trata de escamotear las condiciones de posibilidad de toda emancipación real de la sociedad inscribiéndola bajo los designios de un mundo social regido por leyes naturales.

De la identificación de esta cesura radical entre trabajo, producción, historia y sociedad, hacia su demostración por la vía de la crítica de la economía política, subyace una de las propuestas teóricas más importantes y que fracturan de manera radical la forma por la cual comprender a lo social. La teoría de la alienación de Marx, forma parte del corpus teórico del marxismo que tiene en la dialéctica de la historia y en la analítica histórica del Capital como relación social de explotación sus momentos más importantes. Después de Marx, la forma de comprender lo Real será radicalmente diferente (11).

Si el productor está separado de su producción y si ésta fundamenta lo social, entonces el acto de conocimiento de lo social no puede partir de una supuesta objetividad de un sujeto libre de alienación, sino más bien de su contrario: la crítica. Si los seres humanos crean su propia historia pero no se reconocen en esa creación, entonces la objetividad es un momento más de la alienación. A esta objetividad alienada Marx la denominaba “ideología”.

Comprender lo social significa superar esa alienación que funda y estructura la sociedad, de ahí la importancia de la crítica. El conocimiento de lo social debe ser un conocimiento crítico que comprenda que no puede existir un sujeto que se estudia a sí mismo objetivamente, es decir, por fuera de la lucha de clases que es la que conforma y define su propia objetividad (y, por supuesto, su propia subjetividad, recuérdese el célebre aforismo de Marx: las ideas dominantes de una época, son las ideas de la clase dominante).

Marx propone un método de comprensión de lo social que incluso coincide por la forma por la cual está construido su magnum opus: El Capital. Este método crítico de la historia parte desde los núcleos reales que estructuran la dialéctica de la historia hasta sus formas fenoménicas y tal como aparecen en el tejido social. Desde la relación fenómeno-esencia, Marx estudia al capitalismo como un sistema social e histórico; pero un sistema desgarrado por sus contradicciones internas. Un sistema que tuvo un origen histórico y, en consecuencia, tendrá también su fin.

Empero, más allá del método dialéctico e histórico del marxismo, hay algo que me parece fundamental y es el rescate de una visión de sociedad que se pierde en el positivismo. Si hay algo que propone el marxismo es la comprensión de lo social en cuanto social, es decir, como una configuración históricamente determinada. El marxismo crea las condiciones de posibilidad para la existencia de una analítica de lo social desde lo social, es decir, de un sujeto que se conoce a sí mismo sin objetivarse (es decir, alienarse), y que comprende que la trama histórica a la que pertenece es densa, compleja y contradictoria.

El marxismo elude las trampas del positivismo. Las leyes que descubre y describe para la crítica de lo social son leyes sociales, no son leyes naturales. Lo social no puede estar adscrito ni prescrito por leyes naturales como lo pretende el positivismo. Son leyes que nacen desde la praxis humana y que incorporan un sentido de emancipación inexistente en el positivismo: si los hombres hacen la historia, entonces pueden transformarla. El campo de lo social es el espacio de los seres humanos en sí mismos y constituidos como sociedad. Las contradicciones que involucran a lo social son contradicciones humanas, es decir sociales y, en consecuencia, históricas.

Desde su génesis, el marxismo ha tenido que bregar con el pensamiento positivo que busca acotarlo, reducirlo a la mínima expresión, evanescerlo del campo de posibles teóricos. Pero el acontecimiento se produjo. En adelante, será imposible cualquier posibilidad de comprender lo social por fuera del marxismo. Puede decirse lo que se quiera con respecto al marxismo (y realmente se ha dicho mucho), incluso se lo puede intentar desalojar de la discusión teórica, como lo pretendió el pensamiento posmoderno, pero, como decía Derrida, la modernidad no ha podido escapar del espectro (fantasma) de Marx.

Lo ideal para el positivismo habría sido ampliar las posibilidades de la emancipación de la physis hacia el campo de lo social: construir una ciencia social que sea el reflejo exacto de las ciencias naturales. Una ciencia en la que las leyes naturales universales y necesarias legitimen el poder de la burguesía, no que demuestren su crisis y su fin inminente. Pero esa idílica historia nunca sucedió. Todas las ciencias sociales están “contaminadas” de marxismo. El marxismo, de esta manera, impidió que la cesura radical que separa al sujeto que conoce del objeto que es conocido, pueda completarse.

Por ello, cuando se apela a que las ciencias sociales se abran, conforme lo propone la Comisión Gulbenkian y también Maldonado en su texto de referencia, en realidad se les pide que renuncien a ese legado crítico que constituyó el marxismo y que se conviertan en un momento más de la emancipación de la physis. Es decir, en ciencias sociales llenas de fórmulas matemáticas, con un lenguaje abstruso e inextricable, con hipótesis supuestamente rigurosas (que incluso pueden relevar de las nuevas propuestas interpretativas como la termodinámica no lineal), pero vacías de historia, vacías de sociedad, amorales e ideológicas. En otros términos, abrir las ciencias sociales es una propuesta por reinventar al positivismo en un momento en el que éste ya no se sostiene (12) .

Por eso pienso que quienes tienen que en realidad abrirse son los científicos de las ciencias naturales, no las ciencias sociales. En éstas, a partir del acontecimiento de Marx se han producido varios acontecimientos que las han transformado profundamente y las han enriquecido (13).

Son más bien las ciencias naturales las que deben abrirse a la sociedad. Abrirse a la ética. Abrirse a su propia historia. Deben superar la reificación de la que son parte. Deben comprender que sus laboratorios, sus hipótesis, sus matemáticas, sus científicos, en fin, todo aquello que los constituye como “ciencia de la buena”, por su amoralidad, por su deshumanización, por su ruptura con su propia sociedad, son en realidad una garantía del poder. Son un momento más de la violencia del sistema.

Notas

  1.  Wallerstein, Inmanuel (Coord.): Abrir las ciencias sociales. Informe de la Comisión Gulbenkian para la reestructuración de las ciencias sociales. Siglo XXI Ed., México, 2006.
  2. La referencia geográfica al nacimiento de la ciencia moderna ha sido uno de los argumentos más importantes para su denuncia por su etnocentrismo. Ver por ejemplo la crítica de Walter Mignolo y su concepto de “lugar geopolíticamente marcado del conocimiento”, en: Mignolo, Walter: La colonialidad a lo largo y lo ancho: el hemisferio occidental en el horizonte colonial de la modernidad. En: Lander, Edgardo, (comp.): La colonialidad del saber, eurocentrismo y ciencias sociales, CLACSO, Buenos Aires, 2000.
  3. La idea de la Creación crea la noción de una interconexión entre todos los seres. Hay una cadena causal entre el hombre, los animales y la naturaleza. La creación expresa los tres simulacros de Dios: la inmensidad, la belleza y la utilidad de todas las creaturas. Cfr. Javelet, Robert: Image de Dieu et nature au XIIe siècle, in La Filosofia Della Natura nel Medioevo, Atti det terzo congresso internazionale di filosofia medioevales, Scita editrice vita e pensiero, Milano, 1964, pp. 290.
  4. Cfr. Koyré, Alexandre: Del mundo cerrado al universo infinito. Siglo XXI, Editores. 6ª. Ed., México, 1988.
  5. “… connaissant la force et les actions du feu, de l’eau, de l’air, des astres, des Vieux, et de Tous les autres corps qui nos environnent, aussi distinctement que nous connaissons les diverses métiers de nos artisans, nous les pourrions employer en même façon à tous les usages auxquels ils sont propres et ainsi nous rendre comme maîtres et possesseurs de la Nature.” Descartes, R.: Discours de la méthode: Vie. Partie.
  6. Wallerstein, I.: Abrir las ciencias sociales, op. cit., pp. 64
  7. Cuando las ciencias sociales acuden a las ciencias naturales para legitimarse también se produce esa “disonancia” por decirlo de alguna manera entre marcos epistémicos diferentes. El mismo Sokal y Brickmont lo demostrarían en su texto: Imposturas intelectuales.
  8.  Hay una bella frase de Wittgenstein que, para el efecto, quizá convenga resaltarla: “Sentimos que aunque estuviesen respondidas todas las posibles cuestiones científicas, nuestros problemas vitales ni se habrían tocado todavía.” Wittgenstein, Ludwig: Tractatus lógico-philosophicus. Citado por Habermas, J.: La lógica de las ciencias sociales. Tecnos, Madrid, 1990, pp. 33.
  9. En realidad, el acontecimiento social que implicó la emancipación política de la burguesía va más allá de la revolución francesa de 1789. Ese acontecimiento social que produjo las condiciones de posibilidad para la emancipación política de la burguesía también comprendería la revolución americana de 1776 y la revolución haitiana de 1791-1804. Cfr. Grüner, Eduardo: La oscuridad y las luces. Capitalismo, cultura y revolución. Ed. Edhasa, Buenos Aires, 2010.
  10.   Cfr. Badoiu, Alain: Lógicas de los mundos. El ser y el acontecimiento 2. Ed. Manantial, 1ª Ed., Buenos Aires, 2008.
  11.   Un detractor y crítico del marxismo como K. Popper lo reconoce: “Ya resulta inconcebible, por ejemplo, un regreso a la ciencia social anterior a Marx, y es mucho lo que todos los autores modernos le deben a éste, aun cuando no lo sepan.” Popper, Karl: La Sociedad abierta y sus enemigos. Vol. II, Ed. Orbis, España, 1984, pp. 269.
  12.   Esta pretensión de convergencia con un nuevo positivismo se hace evidente en el Informe de la Comisión Gulbenkian cuando se establece lo siguiente: “Las convergencias entre las ciencias naturales y las ciencias sociales se hacen mayores en la medida en que las vemos a ambas dedicadas al estudio de los sistemas complejos, en que los desarrollos futuros son resultados de otros procesos temporalmente irreversibles.” Wallerstein, Abrir las ciencias sociales, op. Cit., pp. 84
  13. De la misma manera que el marxismo como acontecimiento fractura el intento positivista de construir unas ciencias sociales sin sociedad, el psicoanálisis (en la tradición Freud-Lacan) produjo una nueva fractura al pensamiento positivista al abrir el estudio del inconsciente desde bases no positivas. El estructuralismo francés (pienso, por ejemplo en Foucault), ha transformado la concepción de las ciencias sociales y su relación con las ciencias naturales.

 

Bibliografía


Badoiu, Alain: Lógicas de los mundos. El ser y el acontecimiento 2. Ed. Manantial, 1ª Ed., Buenos Aires, 2008.
Grüner, Eduardo: La oscuridad y las luces. Capitalismo, cultura y revolución. Ed. Edhasa, Buenos Aires, 2010.
Habermas, J.: La lógica de las ciencias sociales. Tecnos, Madrid, 1990.
Javelet, Robert: Image de Dieu et nature au XIIe siècle, in La Filosofia Della Natura nel Medioevo, Atti det terzo congresso internazionale di filosofia medioevales, Scita editrice vita e pensiero, Milano, 1964.
Koyré, Alexandre: Del mundo cerrado al universo infinito. Siglo XXI, Editores. 6ª. Ed., México, 1988.
Maldonado, Carlos Eduardo: Termodinámica y complejidad. Una introducción para las ciencias sociales y humanas, Ed. Desde Abajo, Colombia, 2011
Mignolo, Walter: La colonialidad a lo largo y lo ancho: el hemisferio occidental en el horizonte colonial de la modernidad. En: Lander, Edgardo, (comp.): La colonialidad del saber, eurocentrismo y ciencias sociales, CLACSO, Buenos Aires, 2000.
Prigogine, Ilya: El fin de las certidumbres. (versión electrónica)
Popper, Karl: La Sociedad abierta y sus enemigos. Vol. II, Ed. Orbis, España, 1984.
Rañada, Antonio F.: Introducción a La nueva alianza de I. Prigogine e I. Stengers, Círculo de Lectores, Barcelona, 1997, pp 9-30.
Wallerstein, Inmanuel (Coord.): Abrir las ciencias sociales. Informe de la Comisión Gulbenkian para la reestructuración de las ciencias sociales. Siglo XXI Ed., México, 2006.

“Tenemos que repensar la universidad”
“Tenemos que repensar el significado de la universidad pública. El asunto no es sólo quién tiene acceso a la universidad, ni cuánto cuesta, sino más bien qué responsabilidad asume ante la sociedad, qué diálogo puede construir con los distintos actores públicos.” La frase es del presidente de la Asociación Internacional de Sociología (ISA), Michael Burawoy, que visitó Buenos Aires para participar del Foro Internacional de Sociología. Británico y marxista, residente en Estados Unidos y profesor de la Universidad de Berkeley, Burawoy mantiene un blog titulado “Universidades en crisis”, tal como nombró a la conferencia que brindó en un seminario de la Untref antes de dialogar con Página/12.


–¿A qué se refiere cuando habla de crisis en la universidad?


–Lo primero para decir es que no creo que las universidades argentinas estén en crisis. Estuve recientemente en Chile, y podría afirmarlo allí, pero no necesariamente en Argentina. Hay cuatro aspectos distintivos, al menos desde un punto de vista exterior, sobre la universidad argentina. En principio, el sistema público domina totalmente; segundo, el ingreso es abierto; tercero, es básicamente gratis; cuarto, hay elecciones democráticas para su administración. Entiendo que estos puntos nunca se dan de modo acabado, pero al menos a primera vista es un conjunto único en el mundo y un buen punto de referencia para evaluar y entender otros sistemas de educación superior.


–Otros sistemas que, al parecer, sí están en crisis. ¿A qué se refiere con ello?


–Hay cuatro crisis que afectan a las universidades en el mundo, aunque lo hacen en grados distintos según los lugares. La primera es una crisis fiscal. En casi todo el mundo la universidad parece haber dejado de ser un bien público para pasar a ser un bien privado que debe financiarse a sí mismo. Se busca obtener dinero de los estudiantes. En Inglaterra pagan alrededor de 10 mil libras cada año. En Chile, obviamente, las protestas tienen que ver con esto. También en Estados Unidos, en la universidad donde trabajo, han incrementado las cuotas tres veces en los últimos diez años. Otra forma de obtener dinero es a través de donaciones de gente rica, y ciertamente varias universidades son exitosas en esto. Pero la otra gran fuente, en realidad, es la investigación: se vende el conocimiento. Más allá de quién se queda con el dinero, la lucha por el patentamiento y los derechos de propiedad intelectual... lo cierto es que la venta del conocimiento se ha transformado en una fuente de ingreso creciente. Esto afecta en la medida en que sólo las disciplinas que generan dinero se vuelven importantes, como medicina, biología, ingeniería, etcétera, mientras que las ciencias sociales y humanas tienen grandes dificultades para sobrevivir.


–¿Cuáles son las otras tres crisis que observa?


–Tenemos también una crisis de gobierno en las universidades. La pregunta aquí es si vamos a construir universidades como corporaciones, que trabajen como multinacionales, o si vamos a continuar con el antiguo sistema colegiado donde las facultades forman parte de la administración. Es una disputa entre dos visiones, y por ahora el modelo corporativo es el que gana. Por eso tenemos cada vez más administradores vendiendo la universidad a los estudiantes y al mercado. La tercera crisis que ubico es la que llamo crisis de legitimidad. No bien la universidad se convierte en un bien privado, por el que tenemos que pagar para ingresar, no bien pierde su autonomía vendiéndose a las corporaciones, su apoyo público disminuye, cae su legitimidad. Luego tenemos la cuarta crisis, la de identidad. Profesores, estudiantes, administradores, empiezan a preguntarse qué significa la universidad, y por lo general tienden a confundir lo que en verdad es, el verdadero rol que ocupa en la sociedad. Estas cuatro crisis, por supuesto, están interrelacionadas.


–¿Qué expresiones de este proceso encuentra en Latinoamérica?


–En Chile, por ejemplo, crecen las universidades privadas, así como las cuotas y las protestas estudiantiles. El sistema universitario chileno tiende a ser bastante elitista, y tiene una particularidad: casi ningún estudiante trabaja mientras estudia. Las familias cargan con los préstamos, por eso las protestas estudiantiles son tan interesantes e inusuales. Están apoyadas por los padres, los abuelos, por toda la familia, algo insólito para Europa. En Estados Unidos los estudiantes sacan préstamos para pagar sus cuotas universitarias, pero trabajan, y asumen responsabilidades para afrontar sus deudas. La lógica es individualista, es el alumno el que paga el préstamo, y no la familia. Es más, cuando tenemos una crisis económica y los estudiantes van a las protestas, la gente les dice “ustedes de qué protestan, son más ricos que nosotros”. De modo que, en realidad, el público en general no suele estar a favor de las protestas estudiantiles. Es el opuesto de lo que sucede en Chile. Y acá en Argentina lo asombroso es que aún mantengan la educación pública. Es un milagro, quiero decir, tiene sus problemas, pero no deja de ser asombroso. Parece una forma extrema del antiguo modelo de educación pública.


–¿Qué puede hacer la universidad para contrarrestar este proceso de crisis que describe?


–Hay dos conjuntos de presiones exteriores que las universidades deben contrarrestar. El primero es la mercantilización y la presión por obtener dinero a cambio de la producción de conocimiento. Lo segundo es la importancia creciente de los rankings globales. Comenzaron en China. La Universidad de Shanghai quería evaluar a las universidades chinas comparándolas con las americanas, porque suponían que eran las mejores del mundo. Y con el tiempo la mayoría de los países comenzaron a evaluar a sus propias instituciones bajo el mismo sistema. El costo de este proceso es que los investigadores son incentivados para producir conocimiento en revistas occidentales, en inglés, mientras los problemas locales y nacionales se vuelven menos importantes, y hasta el enfoque de las cuestiones empieza a distorsionarse, porque el investigador debe situarse en la forma en que Estados Unidos o Europa entienden los problemas. Así, el capitalismo hoy en día tiene un sistema de ranking, y sabe, en base a ello, en qué universidades invertir. Por eso todos los países quieren tener una o dos universidades entre los primeros puestos.


–Acá no se les presta demasiada atención a los rankings mundiales de universidades...


–¿Crees que no, en serio? Los profesores son incentivados y obtienen más puntos si publican en una revista en inglés, incluso en Argentina, estoy seguro. Hay rankings en Latinoamérica también, y creo que los rectores de las universidades están buscando dónde aparecen. ¿Dónde aparece la UBA?, se pregunta el rector, ¿dónde aparece La Plata?, y compiten entre ellos al interior del país. Es una forma maliciosa de penetrar en los sistemas de educación.


–Y ante estas presiones exteriores, ¿pueden construirse modelos alternativos de incentivo y de producción?


–Bueno, habrá que ver si es posible crear modelos de discusión crítica en las universidades. ¿Puede una universidad constituir entre sus facultades, estudiantes e investigadores una comunidad en donde se discuta colectivamente qué es la universidad y cuál es su lugar en la sociedad? Los académicos suelen ser muy competitivos e individualistas.


–¿Qué rol tiene la sociología en introducir esta discusión?


–Depende de lo que se entienda por un sociólogo. Desde mi punto de vista, un cientista social vincula experiencias micro con parámetros macro desde la perspectiva de la sociedad civil. Los economistas, en cambio, tienen como punto de partida la expansión del mercado. Los politólogos lo hacen desde la consolidación del Estado y el poder. Creo, por lo tanto, que los sociólogos tienen un lugar especial en la constitución de la universidad pública como la entiendo, porque la universidad tiene que ser capaz de entablar un diálogo con la sociedad civil, no sólo con el Estado, y no sólo con el mercado.


Entrevista: ´

Publicado enInternacional
Déjese de ordenadores y utilice bacterias
Hay investigadores que creen que la miniaturización de los componentes electrónicos de los ordenadores llegará a un punto en el que, al alcanzar determinados límites físicos, será imposible bajar más de escala. Y que ese día está más cerca que lejos. Entonces, habrá llegado el momento de imitar o incluso tratar de echar mano directamente de estructuras microbianas, que puedan cumplir el papel de cables o de discos duros.
 

Otros científicos sostienen, sin embargo, que no tiene mucho sentido tratar de reproducir estructuras que la industria ha conseguido no solo reducir con habilidad, sino abaratar enormemente a lo largo de las últimas décadas, cuestiones en las que ha mostrado una elevada eficiencia. “El objetivo no es tanto replicar un ordenador en miniatura con otros materiales”, expone Francesc Posas, director del centro de ciencias experimentales y de la salud de la Universidad Pompeu Fabra de Barcelona. “Nosotros pretendemos programar un sistema vivo para que ejecute operaciones diseñadas por nosotros”, explica. Por ejemplo, células o sistemas de células.
 

Unos y otros investigadores trabajan para avanzar en lo que, desde distintos puntos de vista, se podrían denominar ordenadores biológicos.

 
En el primer grupo, aquellos que aspiran a mirarse en el espejo de los microorganismos para seguir bajando de escala y aumentar la velocidad de cálculo, se encuentran los investigadores británicos y japoneses que hace unos meses presentaron a unas bacterias con propiedades magnéticas como punto de partida para desarrollar una alternativa microscópica de futuro a los discos duros actuales. Científicos de la Universidad de Leeds en colaboración con un equipo de la Universidad de Agricultura y Tecnología de Tokio se fijaron en la bacteria Magnetospitillium magneticum, cuyo hábitat natural se encuentra en lagunas donde el oxígeno es escaso.

 
Cuando estos microbios comen hierro, unas proteínas que tienen en su interior crean minúsculos cristales de magnetita, el mineral más magnético que existe. El resultado es una especie de superficie imantada similar a la de los discos duros de los ordenadores.


Este componente destinado a albergar la memoria permanente de la computadora (frente a la memoria RAM, temporal) es uno de los que más espacio físico ocupan en el interior de la caja del ordenador. El primer disco duro, creado por el gigante informático IBM en 1954 pesaba una tonelada y podía almacenar 5 megabytes (Mb) de información (una canción de unos cuatro minutos grabada a calidad media en formato mp3 ocupa entre 3 y 4 Mb). Medio siglo más tarde es habitual encontrar memorias externas para uso doméstico de 260 gramos con capacidad de almacenamiento de 1 terabyte (con capacidad para 250.000 canciones grabadas en mp3, unos dos años de escucha seguida). La reducción de tamaño mientras se aumentaba la velocidad de acceso a los datos ha sido espectacular, pero quizás no se pueda mantener por mucho más tiempo.

 
Algo similar ha sucedido con los procesadores gracias, en buena parte, el uso de nuevos materiales como el silicio, además de la reducción de escala. Ya lo vislumbró allá por el año 1965 el cofundador de Intel, Gordon Moore, al vaticinar que el número de transistores de un chip se duplicaría aproximadamente cada dos años, una regla que en términos generales se ha ido cumpliendo. Pero, ¿hasta cuándo podrá seguir manteniéndose este ritmo?

 
“Estamos llegando a los límites de la fabricación electrónica tradicional”, señalaba la coordinadora del trabajo, Sarah Staniland, en una nota distribuida por la Universidad de Leeds. “Las máquinas que hemos utilizado para construir los ordenadores son torpes a pequeña escala, pero la naturaleza nos ha proporcionado la herramienta perfecta para solucionar este problema”, indica.

 
Tras estudiar el proceso por el cual las bacterias generan minidiscos duros en su interior —especialmente cómo moldean y posicionan los minúsculos imanes en su organismo—, los científicos reprodujeron este método y lo aplicaron en el laboratorio, de forma que consiguieron recubrir una superficie con imanes similares en un trabajo publicado en la revista Small. “Si seguimos usando los procesos industriales actuales, que básicamente consisten en obtener pequeños imanes a partir de trocear uno de gran tamaño, nos será cada vez más difícil producirlos más diminutos y con el tamaño y forma que necesitaremos para almacenar datos”.


La alternativa, para Johana Galloway, otra investigadora del equipo de Staniland, consiste en encargar este trabajo a las proteínas que se ocupan de ello en las Magnetospirillum magneticum y transforman el hierro en cubos magnéticos del mismo tamaño. Ya lo han conseguido, aunque aún queda trabajo. Especialmente en lo que se refiere a reducir el tamaño de los imanes.

 
También en Small, el mismo grupo —esta vez dirigidos por el equipo japonés—, ha publicado otro trabajo en el que se ha empleado otra proteína para desarrollar minicables eléctricos a través de nanotubos formados por lípidos. “En un futuro, podríamos conectarlos con otros componentes como parte de un ordenador biológico completo”, señala Masayoshi Tanaka, de la Universidad de Agricultura y Tecnología de Tokio.

 
Los cables de origen biológicos son otro de los modelos de la naturaleza que los investigadores pretenden replicar y aplicar a la parcela de la nanobiotecnología. Antes del trabajo de Small publicado hace semanas, otra investigación de la Universidad Hebrea de Jerusalén ya sugirió esta posibilidad. El artículo, que reprodujo Cell en marzo del año pasado, planteaba un nuevo sistema de comunicación entre las bacterias. Más allá de relacionarse a través de la secreción y absorción de moléculas, se descubrió que las bacterias emplean nanotubos para conectarse entre sí y que les sirven para intercambiar pequeñas moléculas, proteínas o incluso pequeños fragmentos genéticos conocidos como plásmidos.

 
No fueron bacterias, sino levaduras, los microorganismos empleados por un grupo de estudiantes de dos universidades valencianas (la Universitat de València y la Politécnica) para crear una pantalla con la que alcanzaron el tercer puesto de un concurso sobre biología sintética (International Genetically Engineered Machines) organizado por el Instituto Tecnológico de Massachusetts en 2009.

 
Los alumnos emplearon unas levaduras a las que les introdujeron en gen de la Aequiorina, una proteína con propiedades luminiscentes de las medusas. Estos microorganismos funcionaban como píxeles (la biopantalla tenía 96 cultivos celulares) que se encendían y apagaban para formar imágenes en respuesta a una señal eléctrica. Al recibir un impulso eléctrico, las levaduras abrían en sus membranas determinados canales que permitían la entrada en la célula de iones de calcio, que activaba la Aequoina y la emisión de luz.
 

Ya se trate de microimanes, nanocables o levaduras luminiscentes que funcionan como píxeles, la filosofía que subyace a todos estos casos es la misma: producir componentes hasta ahora elaborados de forma industrial a través de otros procesos con la ayuda o reproduciendo las estructuras de los microorganismos. Pero, en el fondo, se trata de copiar, de reproducir la estructura de los ordenadores actuales.

 
¿Tiene sentido competir con una industria que está consiguiendo buenos resultados no solo en cuanto al desarrollo de mayor capacidad de procesamiento, sino también a los costes del producto? ¿Merece la pena esforzarse en replicar una tecnología que ya funciona?


Ricard Solé, director del laboratorio de sistemas complejos de la Universidad Pompeu Fabra (UPF), no lo tiene nada claro. “Nosotros trabajamos en una computación que no intenta copiar los ordenadores convencionales. En lugar de ello, tratamos de diseñar sistemas biológicos capaces de tomar decisiones”, explica a este diario desde el Instituto de Santa Fe de Estados Unidos, donde es profesor externo.

 
“¿Qué es un ordenador”, se pregunta Francesc Posas, director de la unidad de señalización celular de la UPF. “Básicamente, es un circuito que procesa la información que recibe en función de una programación preestablecida y, a partir de ahí, arroja un resultado”.

 
El equivalente en la computación biológica consistiría en contar con un sistema programable vivo (una comunidad de células) de tal forma que, al ser introducido en un organismo, fuera capaz de captar distintas señales (moléculas) y, en función de estos estímulos químicos, ejecutar las órdenes aprendidas (segregar otras moléculas, por ejemplo).

 
Esto ya se puede hacer, en cierta medida, a través de la ingeniería genética mediante la manipulación de células aisladas. Pero la computación biológica da un paso más al ser capaz de combinar células modificadas para que la respuesta de unas sean los estímulos de otras, creando una especie de circuito y complicando la capacidad de cálculo del sistema.

 
Posas y Soplé, ponen el ejemplo, aún en el terreno de las hipótesis, del tratamiento de la diabetes a través de esta fórmula. El páncreas de los pacientes afectados por esta enfermedad es incapaz de producir (al menos de forma suficiente) insulina, la hormona encargada de trasladar la glucosa a las células para que la usen como energía. Para evitar un exceso de glucosa en sangre, las personas con diabetes se inyectan insulina de forma periódica. Junto a esta hormona, existe otra, el glucagón, que eleva el nivel de glucosa en la sangre. Su secreción también está alterada en los pacientes diabéticos. Del equilibrio de ambas depende la presencia adecuada de glucosa.
 

“Podríamos crear un circuito celular que fuera capaz de captar la presencia de glucosa en sangre y, en función de esta información, que secretara glucagón o insulina para tratar a los diabéticos”. Se trataría, de esta forma, de una terapia inteligente autorregulable.


Las células vivas, explica Ricard Solé, “han sido comparadas a menudo con un ordenador paralelo y, en muchos sentidos, rivalizan con el mayor supercomputador que exista en la actualidad. Es un ordenador peculiar, que detecta los cambios en el mundo en su superficie (en la membrana) y lleva a cabo los procesos de computación en su interior”, explica Ricard Solé. “Es un entorno fluido y muy ruidoso, pero con la ventaja de que las células son mucho más fiables que nuestros ordenadores y los fallos en las partes de la maquinaria molecular son rápidamente corregidos”.

 
Esta es la teoría, pero ¿se puede conseguir que varias células computen? “Sí, la cuestión es encontrar los límites de la complejidad de los procesos que pueden asumir”, responde Posas, una incógnita en la que se encuentra trabajando su equipo. Posas y Solé han demostrado que se pueden diseñar circuitos complejos de computación biológica usando como materia prima levaduras (organismos unicelulares) modificadas genéticamente. Lo hicieron en un trabajo publicado en Nature en 2011. Y demostraron que con tres células es posible construir computadoras biológicas que realicen más de cien funciones distintas.

 
“En electrónica es muy sencillo conectar transistores con cables eléctricos, en el mundo de la biología la información pasa de célula a célula segregando y detectando moléculas en el medio en el que se encuentran a través de la membrana. Ahora mismo estamos explorando los límites de la computación biológica”, explica.

 
Otro de los problemas a los que se enfrenta esta tecnología es su estabilidad. En el trabajo de Nature, coordinado por los dos investigadores de la Universitat Pompeu Fabra, los autores consiguieron que el sistema mantuviera el orden durante nueve generaciones de levaduras (36 horas). Tampoco están resueltos los potenciales riesgos de rechazo inmunitario de las células introducidas en pacientes con fines terapéuticos. En cualquier caso, son cuestiones que se deberán resolver cuando estas aplicaciones sean viables.

Publicado enInternacional
El descubrimiento del bosón de Higgs es, sin dudas, el más grande acontecimiento en el campo de la física en los últimos 50 años. Esta hazaña, fruto de 20 años de trabajo por parte de un equipo interdisciplinario de más de 3.200 científicos de 180 universidades del mundo, trabajando aunadamente, tiene numerosas implicaciones, alcances y significados en diversos planos. Quisiera considerar aquí tres significados filosóficos, así:

El carácter contraintuitivo de la ciencia
La ciencia contemporánea, particularmente a partir de comienzos del siglo XX hasta la fecha es alta y crecientemente contraintuitiva. Es decir, la percepción natural no es suficiente –y, en muchas ocasiones, incluso no es necesaria– para explicar o comprender los fenómenos de la realidad. El último giro de esta tendencia es el reciente anuncio del descubrimiento del bosón de Higgs. El acelerador de partículas en el CERN ayuda a ‘visualizar’ el bosón, cuya realidad, análogamente a los quarks, ha sido demostrada matemáticamente, aunque no físicamente. Y ciertamente no en términos físicos, si por ello se piensa en la física newtoniana que se ocupa(ba) de masas, cuerpos, volúmenes y magnitudes macroscópicas. La realidad del mundo se funda cada vez en el universo microscópico, y con ello en la física cuántica y los fenómenos subcuánticos.

La física cuántica es la física de partículas y fenómenos microscópicos, aunque también de fenómenos macroscópicos que existen o se plasman en la escala macroscópica, tales como los rayos láser, los superconductores y otros. Lo singular es que existen, adicionalmente, fenómenos y procesos de escala subcuántica, que son aquellos que tienen lugar en escenarios distintos de los de las partículas, tales como las cuerdas, las branas, las m-branas, y otros. La física ha abandonado el paradigma newtoniano, en rigor el de la mecánica clásica, según el cual la física se ocupaba de cuerpos, masas, volúmenes y magnitudes en el sentido visual o perceptual. La realidad física es mucho más que la de la material, e incluye también como procesos fundamentales a la energía y la información. La física ya no se ocupa de qué es y cómo es la realidad, sino de qué podemos decir acerca de la realidad.

El modelamiento y la simulación, el desarrollo de nuevas matemáticas y el trabajo conceptual y de imaginación se erigen cada vez más como factores determinantes para dar cuenta de los fenómenos y procesos más fundamentales de la realidad del universo y la naturaleza.

El (eterno) debate ciencia-religión y cosmología
El bosón de Higgs contribuye enormemente a la comprensión del origen y el desarrollo del universo. Así, el primer campo importante de reflexión es la cosmología, que, si clásicamente perteneció al mito y la religión, se hace ciencia particularmente a partir de la década de los 1970. Los acontecimientos que le dan estatuto científico propio han sido los descubrimientos según los cuales la totalidad del universo que literalmente vemos es tan solo el 4 por ciento. El otro 96 es materia oscura y energía oscura. Vemos demasiado poco de lo que constituye al universo. Pero esta es otra historia.

El estatuto científico de la cosmología desplaza a lugares cada vez más alejados del foco principal a la religión y muy particularmente a la teología. Esto es, cuestionan enormemente el papel que la divinidad desempeña en la explicación del orden natural. Pues, bien, el bosón de Higgs logra explicar cómo en el primer segundo del Big Bang las partículas comienzan a tener núcleo, y con ello masa, y así, a diferenciarse para crear la materia que constituye el universo. Tanto la del 4 por ciento conocida –y que es el objeto de la química inorgánica y orgánica en sus niveles y procesos fundamentales– como, incluso, verosímilmente, del restante 96 por explicar.

La epistemología de la nueva física y el Modelo Estándar
Como quiera que sea, la física forma parte de la investigación de punta según la cual los fenómenos y procesos reales se explican cada vez menos con base en lo que percibimos en el sentido habitual de la palabra. Así, la ciencia amplía magníficamente no sólo el espectro de la realidad sino además el de nuestra propia comprensión respecto a lo real. Para decirlo en términos elementales, lo real ya no es lo que está ahí como las cosas, lo actual y lo evidente. La realidad es una construcción que coincide con la historia misma de la investigación.

En otras palabras, el conocimiento ya no es algo que sucede exclusivamente del lado del sujeto y que se dirige al objeto como a una realidad exterior diferente. Antes, bien, en el acto de conocimiento, sujeto y objeto son contemporáneos. Esto es, la historia –del descubrimiento– del objeto es simultáneamente la historia –del descubrimiento– del sujeto por parte de sí mismo. Sólo que, hoy día, el sujeto ya no es, como fue en toda la historia de la humanidad occidental, un agente individual. Por el contrario, el sujeto es hoy una comunidad de investigadores de diferentes disciplinas y tradiciones que cruzan lenguajes, enfoques e intereses disímiles a partir del hecho de que comparten una preocupación común.

De manera particular, las relaciones entre bosones y fermiones nos enseñan que, desde la física, ya no se habla de fuerzas (en contraste con lo que sucede en las ciencias sociales), pues éstas son en realidad el resultado de interacciones y cruces entre partículas. De esta suerte, el conocimiento del universo que nos rodea y que somos nosotros mismos no se explica con los supuestos de la epistemología y la filosofía clásicas, desde los griegos hasta aquella que se proyecta hasta los años 1980 (posmodernismo, etcétera). Ya no es sostenible ningún tipo de dualismo (sujeto/objeto, mente/cuerpo, etcétera); por el contrario, accedemos a un universo de complejidad creciente, que a cada paso se explica con los nuevos descubrimientos y las nuevas explicaciones, y no con base en la tradición. Manifiestamente, nos encontramos en el centro de una revolución científica y tecnológica. Este es apenas el comienzo de una historia aún más sugestiva y apasionante.

* Profesor titular Universidad del Rosario

Publicado enEdición 182