Crean nanopartículas que llevan la quimioterapia solo a células cancerosas

El uso de nanopartículas terapéuticas contra los tumores sin dañar las células sanas, han mostrado resultados prometedores en un ensayo clínico en curso, según un nuevo estudio del Instituto Técnico de Massachusetts (MIT), en Estados Unidos.
 

Las nanopartículas tienen una molécula mensajera que les permite atacar específicamente las células cancerosas, y son las primeras partículas de este tipo que se utilizan en estudios clínicos en humanos. Originalmente desarrollado por investigadores del MIT y del Hospital Brigham and Women de Boston, las partículas están diseñadas para llevar el medicamento de quimioterapia docetaxel, que se utiliza para el tratamiento del cáncer de pulmón, próstata y mama, entre otros.

 
En el estudio, que apareció descrito en la revista Science Translational Medicine, los investigadores demuestran la capacidad de las nanopartículas para llegar a un receptor que se encuentra en las células cancerosas y se acumulan en los sitios del tumor. El uso de estas partículas parece ser seguro y eficaz: muchos de los tumores de los pacientes se redujeron como resultado del tratamiento, incluso cuando recibieron dosis más bajas que las que generalmente se administran.

 
“Los primeros resultados clínicos de la regresión del tumor, incluso en dosis bajas del fármaco, valida nuestros hallazgos preclínicos”, dijo Robert Langer, del Instituto David H. Koch, profesor del Departamento de Ingeniería Química del MIT y autor principal de la investigación. “Los intentos anteriores para desarrollar nanopartículas específicas no habían tenido  éxito durante los estudios clínicos en humanos, debido a la dificultad inherente en el diseño y la ampliación de una partícula capaz de atacar los tumores, que además fuera capaz de evadir el sistema inmune y permitiera el uso de fármacos de forma controlada”, añadió.

 
La Fase I del ensayo clínico la realizaron investigadores de BIND Biosciences, una compañía cofundada por Langer y Omid Farokhzad en 2007.

 
“Este estudio demuestra por primera vez que es posible generar medicamentos con propiedades concretas y programables, que pueden concentrar el efecto terapéutico directamente en el sitio de la enfermedad, lo que podría revolucionar el tramiento para enfermedades complejas como el cáncer”, dije Farokhzad, director del Laboratorio de Biomateriales y Nanomedicina en el Hospital Brigham, quien es además profesor asociado de anestesia en la Escuela Médica de Harvard y también figura entre los autores principales de la investigación de Science Translational Medicine.


 5 Abril 2012 
 
(Traducido por Cubadebate)
 

Publicado enInternacional
Hay millones de planetas en zonas habitables de la Vía Láctea
Santiago de Chile, 28 de marzo. Un equipo internacional de astronómos detectó que hay decenas de miles de millones de planetas en las zonas habitables de la Vía Láctea, reveló hoy en Chile el Observatorio Europeo Austral (OEA).

“Nuevas observaciones con el telescopio Harps señalan que 40 por ciento de las estrellas enanas rojas tienen una supertierra orbitando su zona de habitabilidad”, dijo el francés Xavier Bonfils, jefe del equipo científico.

En dichas áreas siderales es posible la existencia de agua en la superficie de los planetas, detalló Bonfils.

Las investigaciones, que duraron seis años, destacaron que sólo en la Vía Lactea existen 160 mil millones de estrellas rojas enanas y que al menos hay un centenar de mundos habitables cerca del sistema solar.

Estrella anfitriona


"Ahora que sabemos que hay muchas supertierras alrededor de enanas rojas cercanas (...) esperamos que alguno de esos planetas pase frente a su estrella anfitriona, lo que abrirá la excitante posibilidad de estudiar su atmósfera y buscar signos de vida", agregó Xavier Delfosse, otro de los miembros del equipo.

Los científicos descubrieron además que la frecuencia de la presencia de supertierras, planetas con masa de una a 10 veces la del nuestro, en la zona de habitabilidad es de 41 por ciento.

En cambio, planetas más grandes, como Júpiter y Saturno, no son comunes alrededor de estrellas enanas rojas.

En Londres, astrónomos que buscan planetas rocosos con la temperatura adecuada para poder albergar vida estiman que podría haber decenas de miles de millones de ellos sólo en nuestra galaxia.

Coincidieron en que si hay alrededor de 160 mil millones de enanas rojas en la Vía Láctea, el número de mundos que potencialmente son lo suficientemente cálidos y húmedos como para permitir la vida es enorme.

Dpa y Reuters

Publicado enInternacional
El trabajo académico: patrimonio cultural de la humanidad
Apartir de una propuesta inicial del editor Fernando Valdés y la colega Ana Ornelas, miembros de la comunidad educativa, cultural, artística y literaria se han manifestado –en diversos foros, incluyendo el Congreso de la Unión– en favor de que el quehacer académico con sentido social y pacífico sea reconocido por la Unesco como Patrimonio cultural inmaterial de la humanidad. Esto en razón del visible deterioro que experimentan las sociedades humanas actuales y los entornos naturales del planeta por la aplicación del modelo neoliberal, y en virtud de su impacto cotidiano en las condiciones de vida que afectan directamente la labor intelectual.

Los promotores de esta propuesta están conscientes de que los criterios plasmados por la Unesco para el reconocimiento del patrimonio cultural inmaterial son muy recientes, y muy grandes las dificultades para su identificación, pues abarca amplias esferas de la actividad humana social, cultural, creativa. No obstante, quienes apoyan la iniciativa parten de constatar que “la importancia del patrimonio cultural inmaterial no estriba en la manifestación cultural en sí, sino en el acervo de conocimientos y técnicas que se transmiten de generación en generación”. Asimismo, la propuesta se fundamenta en los criterios emanados de las directrices de la Convención para la Salvaguardia del Patrimonio Cultural Inmaterial, así como en los señalamientos publicados en las distintas ligas electrónicas de la Unesco y el documento desprendido de dicha convención titulado Preparación de candidaturas para la lista del patrimonio cultural inmaterial que requiere medidas urgentes de salvaguardia (Proyecto 2.1, de 15 de marzo de 2011).
Se define el concepto de Trabajo académico con sentido social y pacífico (TASOP) como la actividad docente, humanística, cultural, artística e investigación científica en todos los campos del conocimiento, motivada por el bien común y dirigida al beneficio de las comunidades humanas, la paz y los entornos naturales donde habita nuestra especie.

Precisamente, no todo lo que tiene que ver con la investigación y docencia atraviesa por esta circunstancia de riesgo, sino únicamente aquel trabajo académico motivado y dirigido al bien común, el interés humanitario y pacífico, la concientización y formación de pensamiento crítico. En contraste, en el ambiente economicista-mercantilista e instrumental que domina la trasnacionalización capitalista, los recursos financieros y apoyos complementarios se destinan prioritariamente a proyectos atravesados por el beneficio económico y, en los países hegemónicos, el complejo militar-industrial que lo protege.

Se propone salvaguardar el TASOP por ser un bien útil al desarrollo humano. Éste es producto de distintas e históricas tradiciones, tanto teóricas como metodológicas y prácticas, transferidas en el contexto de la formación escolar y universitaria de los distintos colectivos intelectuales. Contiene en sí mismo una inagotable riqueza cultural, creativa y de conocimiento, en virtud de que refleja el nivel de desarrollo de los pueblos y sociedades en general. Por ello, posee un enorme valor su preservación, y fortalecimiento en las mejores condiciones materiales y sociales.

La propuesta responde a la toma de conciencia de que este importante recurso de desarrollo humano atraviesa por circunstancias que lo ponen en serio peligro y en circunstancias de grave detrimento. Esto es, en las recientes tres décadas y como consecuencia de los efectos del neoliberalismo globalizado, el TASOP ha sido emplazado y cuestionado sobre todo en su carácter público, laico y gratuito, merced a que la dinámica impuesta por la cultura del consumo, el pensamiento y la racionalidad regidos por el mercado, así como el conocimiento para fines bélicos, extendidas por el neoliberalismo planetario, hace que paulatinamente desaparezcan las condiciones materiales, subjetivas e institucionales para su realización plena. Particularmente, la calidad del TASOP ha ido a menos como consecuencia de la turbulenta y caótica automatización de la vida actual, que ha creado una suerte de fuerza centrífuga, en tanto que dispersa, desarticula, desorganiza y cada vez hace más difícil el quehacer académico que antaño giraba en torno a estructuras institucionales que ofrecían, si no las condiciones idóneas, sí las mínimas requeridas para su avance, habitualmente en sintonía con los nobles objetivos de producir conocimiento y brindar educación de calidad a las nuevas generaciones.

Al proponerlo como patrimonio cultural de la humanidad, se pretende recuperar al TASOP como un elemento visible y significativo por su importancia para preservar la dignidad de la vida en todas sus formas, en un marco de crecimiento, progreso y bienestar humano, así como reconquistar el respeto social del que antaño gozaba. Es indudable que el TASOP, como cualquier otra tradición cultural, local, regional o mundial, ha ido evolucionando y se transmite a las generaciones jóvenes, con lo cual contribuye “a infundirnos un sentimiento de identidad y continuidad, creando un vínculo entre el pasado y el futuro a través del presente. El patrimonio cultural inmaterial no se presta a preguntas sobre la pertenencia de un determinado uso a una cultura, sino que contribuye a la cohesión social fomentando un sentimiento de identidad y responsabilidad que ayuda a los individuos a sentirse miembros de una o varias comunidades y de la sociedad en general”. La propuesta cuenta con el apoyo del ámbito intelectual y cultural, grupos e individuos vinculados directa e indirectamente con la academia, en virtud de que son precisamente quienes experimentan, de modo más cercano, el demérito del que ha sido objeto su trabajo. La salvaguardia del patrimonio vivo se hace por tanto cada vez más necesaria para el desarrollo sostenible de nuestros pueblos.
Publicado enInternacional
Miércoles, 21 Marzo 2012 06:10

Neuronas, alcohol, marihuana, embarazos

 Neuronas, alcohol, marihuana, embarazos

–Usted es la directora del Instituto de Biología Celular y Neurociencia de la Facultad de Medicina de la UBA.

–Así es.
 

–Y yo soy un Jinete Hipotético.

–Sí, se ve.
 

–Bueno, me alegro. Cuénteme lo que hace aquí.

–A ver... Le cuento en resumidas cuentas. Toda mi vida trabajé en el sistema nervioso, básicamente en la parte morfológica. Cuando me incorporé al instituto, la parte de morfología, estudio a nivel de microscopía óptica y electrónica, fue la base de todo, y estudié las relaciones neurogliales...
 

–¿Neurogliales?

–Son las relaciones que establecen las neuronas con células de la glía. La glía son los tipos celulares que están en el sistema nervioso, que junto con las neuronas componen el parénquima fundamental del sistema nervioso. En general, se habla de las neuronas y las sinapsis, pero la glía tiene mucho que ver. Entonces siempre estudié esas relaciones y dentro de las neuronas estudié el sistema serotoninérgico.
 

–¿Qué tipo de células son las células de la glía?

–Hay de varios tipos. Yo me dedico fundamentalmente al estudio de las relaciones entre las neuronas y la astroglía (o astrocitos). Son células que preservan el medio ambiente y dan la estructura para que las neuronas puedan funcionar e interconectarse unas con otras. Los sistemas neurotransmisores tienen que estar en un equilibrio determinado. Cuando hay algo externo que lo altera, no sólo se alteran las neuronas sino que también se alteran las células de la glía respondiendo a esa injuria. Desde hace diez años, entonces, estamos estudiando con mi grupo el alcoholismo materno-fetal. Nosotros lo que hacemos es desarrollar un modelo en ratas, que ya está ampliamente estandarizado en la bibliografía, pero hay cosas que todavía falta analizar. Entonces nosotros tenemos ratitas a las que exponemos a alcohol. A las madres las mantenemos en una alcoholemia baja y vemos qué le pasa a la cría. La cría tiene alteraciones que condicen, de alguna manera, con lo que uno ve en la clínica médica que les ocurre a los hijos de madres alcohólicas. La idea es tratar de desentrañar los mecanismos por los cuales el alcohol actúa sobre las neuronas y sobre la glía produciendo esas alteraciones, para ver si uno puede revertir ese daño.
 

–¿Cómo actúa el alcohol sobre las neuronas?

–Por ahora lo que encontramos son alteraciones muy importantes a nivel de la morfología neuronal. La neurona tiene un cuerpo determinado que, si se altera, modifica las funciones. Hay una importante alteración del citoesqueleto. En el mundo actual, la juventud está tomando alcohol con bastante asiduidad y no se tienen en cuenta las consecuencias. Nosotros tenemos un estudio que hicimos en ratas adolescentes. Les dimos alcohol durante seis semanas y después les dejamos un período de abstinencia. Las ratas con alcohol bajo se la bancan bien, no tienen alteraciones mayores del comportamiento. Uno ve que si la deja, después de las seis semanas con alcohol, diez semanas sin, la rata puede revertir muchas de las alteraciones morfológicas que nosotros señalamos. Salvo en corteza cerebral, donde las neuronas siguen alteradas. Eso debe tener que ver con algunas alteraciones cognitivas que tiene el alcohólico que se recuperó.
 

–¿Y cuando la alcoholemia es alta?

–Todo se complica más, porque hay una intoxicación. Nosotros no estamos intoxicando, estamos produciendo un efecto tóxico suave. Ahora estamos trabajando en el desarrollo embrionario para ver cómo migran... A ver, antes tengo que decirle esto. Nosotros tenemos una corteza cerebral que está estratificada, en la cual las neuronas tienen que estar en determinado lugar, con determinadas conexiones con el entorno. Durante el desarrollo prenatal esa estratificación cortical se ve alterada y, del mismo modo, se ve alterada la migración neuronal. Entonces estamos estudiando esos efectos que ocurren a nivel de sistema nervioso.
 

–¿Y es muy grave la situación de alcoholemia de las mujeres embarazadas?

–Yo creo que no hay todavía un gran estudio epidemiológico que nos provea esos datos. Pero de todas maneras, está muy documentado. El síndrome alcohólico fetal está bien estudiado desde hace más de un siglo. Y se ve de todo: si la alcoholemia es alta se puede producir incluso un aborto, o crías con problemas cráneofaciales importantes, desarrollo del sistema nervioso central muy disminuido (con lo cual se ven niños con retraso mental, epilepsia). Hay toda una gama de alteraciones que produce el alcoholismo materno, que van desde algo que puede pasar inadvertido (como, por ejemplo, problemas de conducta) hasta, como le decía, otras alteraciones graves.
 

–Cuando habla de alcoholismo, ¿a qué se refiere? ¿Una mujer embarazada no puede tomar un vaso de cerveza?

–La verdad es que no es aconsejable. Yo la parte clínica no la manejo en profundidad, pero habría que tratar de que, si toma, tome lo menos posible. Y hay determinados períodos críticos del desarrollo embrionario que son cruciales para el desarrollo. En la rata la gestación dura 21 días más una semana posnatal...
 

–¿Por qué?

–Cuando nace todavía no tiene el sistema nervioso maduro. La primera semana de vida en la rata es equivalente al tercer trimestre de gestación de los hombres. Todo esto iba a que depende del período de la gestación el daño que produzca el alcohol.
 

–Es alarmante lo que me cuenta.

–Sí, lo es. Lo más alarmante sin dudas son las chicas que no se cuidan, que pueden quedar embarazadas sin saberlo, que dos o tres veces por semana toman alcohol en muy grandes cantidades. Eso es lo más complicado. Concientizar a las chicas es una tarea fundamental.
 

–¿Qué más quiere contarme?

–Bueno, la otra línea en la que trabajo es con el sistema canabinoide. El sistema canabinoide es aquel en el sistema nervioso central sobre el que actúan los efectos trópicos de la marihuana. Lo que estamos analizando, justamente, es qué pasa si durante el desarrollo embrionario tratamos a la madre con una sustancia sintética agonista de los receptores canabinoides que hay en el sistema nervioso central.
 

–O sea, una sustancia que va a ir a parar a esos receptores canabinoides.

–Exacto. Que va a ir adonde va la marihuana. Ahí vemos que durante el desarrollo embrionario los efectos no son tan drásticos como con el alcohol, pero que hay alteraciones en la migración neuronal, en la ubicación de neuronas en corteza, y eso también tendría que ver con alteraciones que se observan en hijos de madres consumidoras de marihuana. Como la marihuana, por otro lado, según algunos postulan, podría tener algunos efectos neuroprotectores, estamos desarrollando con una becaria un modelo de “stroke” (producimos una hipoxia cerebral) y analizamos si agonistas o antagonistas de canabinoides podrían tener efectos sobre la reparación.
 

–¿Y tienen?

–Estamos en una etapa muy preliminar, pero estamos obteniendo resultados alentadores.
 

–¿Tiene efectos reparadores?

–Podría tenerlos, sí. Lo cual no quiere decir que uno tenga que fumarse diez porros por día. Además hay que tener cuidado, porque yo estoy trabajando con un agonista en particular, pero hay muchas sustancias diferentes. La marihuana, de hecho, tiene un montón de sustancias y algunas de ellas muy nocivas. Ojo, entonces, que la cosa no es tan llana y transparente. Lo que tratamos de hacer nosotros, entonces, es desarrollar modelos con sustancias que pudieran tener algún efecto neuroprotector frente a alguna injuria. En una colaboración, por ejemplo, producimos una falta de oxígeno en la célula. Y vemos que administrándole a la rata un agonista de receptor canabinoide se producen efectos reparadores en la conducta motora y en la estructura de la zona lesionada
 

Publicado enInternacional
Caracoles espías, otra investigación financiada por la agencia de EEUU que inventó Internet
Hace unos meses hablamos de una serie de trabajos de investigación que combinaban electrónica y biología en las que se colocaban implantes electrónicos a insectos para aprovechar la energía generada en su aleteo o en el movimiento de sus patas para alimentar estos “sistemas empotrados”.

Los resultados eran bastante llamativos y en el caso de DARPA (Agencia de Desarrollo de Tecnologías Avanzadas del Pentágono, la misma que inventó la Internet), se trabajaba en la senda de la instalación de sensores para poder utilizar los insectos como sondas (algo muy real aunque pareciese cercano a la ciencia ficción). Parece que los insectos no son los únicos seres vivos que podrían ser utilizados como sondas y las últimas investigaciones han puesto el foco en moluscos como el caracol.

¿Caracoles espías? He de reconocer que suena bastante raro puesto que un caracol, precisamente, no es un ser vivo que se desplace una gran velocidad como para, por ejemplo, atravesar un campo de batalla o explorar una superficie contaminada, sin embargo, según un artículo publicado en la revista Journal of the American Chemical Society, el caracol podría generar electricidad suficiente como para alimentar sensores que sirviesen para utilizar a este molusco en tareas de recopilación de datos sobre condiciones ambientales o sobre inteligencia militar que, posteriormente, fuesen enviados a un centro de control para su procesamiento.

La base de estos caracoles-cyborg es la instalación de una celda de biocombustible instalada en la concha del caracol y en la que aprovechando un proceso metabólico en el que se produce una transferencia de electrones a partir de glucosa se produciría una corriente eléctrica que podría alimentar un sistema externo durante varios meses.

Según las pruebas realizadas en el laboratorio, la concha del caracol podría actuar como una batería recargable de la que extraer 7,45 microvatios de potencia que, tras un uso prolongado, bajan a 0,16 microvatios debido al agotamiento de la glucosa en la superficie de la concha del caracol. ¿Y entonces cómo es posible obtener una autonomía de varios meses? Según los investigadores, cuando el caracol se alimenta y descansa, el sistema se recarga y, por tanto, puede seguir produciendo energía.

La investigación ha sido llevada a cabo por un equipo de la Universidad de Clarkson, en el Estado de Nueva York, y como era de esperar por la temática de la misma (espionaje y sensores) está sufragada por el Departamento de Defensa de Estados Unidos a través de DARPA dentro del proyecto que tiene como objetivo el despliegue de sistemas sensores basados en seres biológicos y que también podría utilizarse como base para el desarrollo de marcapasos que no requieran el cambio de su batería.

Tras experimentar con los caracoles, el equipo de investigación pasará a trabajar con animales algo más grandes, con la idea de que su metabolismo sirva para generar mucha más energía y, con tal fin, trabajarán con langostas.


15 Marzo 2012 Haga un comentario

caracol-800x600

(Tomado de ALT1040.com)
Publicado enInternacional
El primer virus creado y censurado por el hombre

Hace unos meses, en un laboratorio científico de alta seguridad de Rotterdam (Holanda), sucedió algo tan temible como esperado. Un hurón al que le habían inyectado el virus de la gripe aviar H5N1 le pasó la enfermedad a un congénere por el aire, a través de una tos o un estornudo. La cadena de contagios continuó, y más hurones sufrieron fiebre, moqueo y estornudos característicos de la enfermedad.

Los investigadores que los observaban al otro lado del cristal supieron en ese momento que tenían algo grande entre manos. Por primera vez, una variante del H5N1 había evolucionado para transmitirse entre mamíferos.


Por el momento la gripe aviar H5N1, que según la OMS ha matado a 340 personas, no se transmite entre personas, sino sólo de aves a humanos. El valor del virus de Rotterdam era por ello incalculable. Su estructura genética permitía averiguar qué mutaciones son necesarias para que la gripe aviar salte la barrera entre especies y comience a transmitirse entre mamíferos.

Como si se tratase de la fotografía de un criminal, los investigadores del Erasmus Medical Center, con Ron Fouchier a la cabeza, detallaron las características del virus para difundirlas por laboratorios de todo el mundo a través de una revista científica. A su vez, los laboratorios de referencia que vigilan la expansión de la gripe aviar podrían haber usado ese retrato para dar la alerta temprana ante mutaciones "sospechosas" y desarrollar nuevas vacunas.

Pero nada de esto sucedió. El pasado diciembre, en un hecho sin precedentes, un panel científico de bioseguridad del Gobierno de EEUU, el NSABB, recomendó que aquel estudio no se publicase. Lo mismo dijo sobre otro trabajo realizado en EEUU por Yoshihiro Kawaoka y que también contenía detalles sobre variantes del H5N1 transmisibles entre mamíferos.


Los 22 investigadores que respaldaban la decisión advertían de que, si el virus escapaba del laboratorio o si supuestos terroristas lograban replicarlo, sucedería una "catástrofe inimaginable". En un artículo publicado en la revista Nature, una de las dos que debían publicar los estudios del H5N1, compararon la situación con la que existía en la década de 1940 con el desarrollo de las primeras bombas nucleares.

Poco después, Science y Nature acordaron no publicar los estudios. Los autores de los dos trabajos criticaron la censura y relativizaron el riesgo que la publicación supondría en términos de bioterrorismo. Pero, empujados por la creciente publicidad del caso y sus implicaciones, acordaron firmar una moratoria de 60 días en las que se comprometían a parar en seco sus estudios sobre el H5N1. Junto a ellos firmaron decenas de expertos en gripe de todo el mundo que apoyaban su decisión de cara a la galería.

El virus de Rotterdam ha desencadenado una de las mayores polémicas científicas de las últimas décadas. La censura ha dividido a la comunidad científica entre defensores en virtud de la seguridad y críticos que ven una zancadilla innecesaria a los esfuerzos de vigilancia contra la gripe aviar. Por el momento, el asunto no tiene solución.

"El escape de este virus presenta un peligro enorme", opina Juan Ortín, investigador del Centro Nacional de Biotecnología (CNB) y uno de los mayores expertos en gripe de España.

Como ejemplo del riesgo cita un rebrote del síndrome respiratorio agudo severo SARS que sucedió en China en 2004. Su origen fue una muestra del patógeno que escapó de un laboratorio gubernamental de alta seguridad en Pekín debido a una negligencia, y que mató a una persona e infectó a nueve. Ortín defiende que se retengan los estudios, ya que la información que contienen "no permitiría parar una pandemia ni es útil para el desarrollo de vacunas". Las mutaciones que hacen transmisible al virus de Rotterdam han sido provocadas y, por tanto, el virus salvaje podría adoptar otras diferentes, argumenta. "Hay que esperar", opina, y cree que el virus debería almacenarse en "un solo laboratorio de contención" o ser destruido. "Yo lo eliminaría, ya que con la información disponible se podría recuperar cuando se desee", opina. La clave, dice, es que en este caso los pros de publicar los estudios son mucho menores que los contras.

Justo lo contrario piensa Luis Enjuanes, compañero de edificio de Ortín y uno de los mayores especialistas del mundo en SARS. "Muchos laboratorios públicos y privados podrían empezar a desarrollar vacunas para variantes peligrosas gracias a estos estudios. No se debe prohibir su publicación", asegura.

Enjuanes estuvo en una situación similar a la de Fouchier. Ahora la usa como moraleja de los beneficios de no poner trabas a la investigación. El Gobierno de EEUU se planteó declarar el SARS como "patógeno clasificado". "Cuando un virus entra en esa lista, el trabajo se complica porque hace falta un laboratorio con vigilancia las 24 horas, cámaras de televisión, inspecciones del FBI, es decir, una inversión muy alta". Declarar el SARS patógeno clasificado hubiera sacado a Enjuanes de la investigación con ese virus. "La prohibición hubiera sido un desastre", reconoce. Finalmente EEUU reculó y Enjuanes ha logrado la primera vacuna efectiva contra el virus que, de momento, es capaz de proteger al 100% a modelos animales.

Muchas preguntas siguen sin respuesta. ¿Es la nueva variante contagiosa para humanos? ¿Podría un terrorista ensamblar el virus y usarlo para expandir la enfermedad? ¿Es lícito retener información científica financiada con fondos públicos por razones de seguridad?

Estas y otras preguntas han sido respondidas de forma vehemente por Peter Palese desde que comenzó la polémica. El jefe de Microbiología del Hospital Monte Sinaí de Nueva York ha tenido acceso al estudio de Fouchier. En un artículo publicado en PNAS, Palese dice que "muchos" otros colegas también han visto el trabajo. ¿Podrían los datos usarse para crear un arma biológica? "La respuesta es simplemente no". El experto argumenta que ya hay fármacos que han demostrado efectividad contra las gripes H5. Por otro lado, crear ese arma biológica requeriría complejos laboratorios, conocimientos muy avanzados en biología molecular y experiencia en recomponer genéticamente virus de la gripe. "No es realista pensar que estos virus de hurón se pudieran usar contra humanos", asegura.

Sin coordinación

Si en algo están de acuerdo la mayoría de investigadores es que esta polémica sólo la puede solucionar un pacto internacional. La idea es reproducir la Conferencia de Asilomar, que en 1975 desatascó el uso de la técnica conocida como ADN recombinante que permite unir fragmentos de ADN de distintos organismos. Unas 140 personas entre biólogos, médicos y abogados se reunieron en California para pactar un código ético sobre el uso de la técnica. El pacto se hizo realidad y permitió la difusión de una práctica sin la que no existirían la insulina que usan los diabéticos, algunas vacunas y la inmensa mayoría de estudios y empresas biotecnológicas actuales.

"Se ha actuado correctamente con la moratoria", explica Mariano Esteban, investigador del CNB que dirige la vacuna española contra el HIV. "La Organización Mundial de la Salud es la que debe decidir ahora qué hacer", añade.

Pero esta vez la comunidad internacional duda. Organismos claves como la Organización Mundial de la Salud (OMS) no se han pronunciado sobre el tema. La agencia sanitaria de la ONU ha organizado el jueves y el viernes una "pequeña" reunión de expertos que "establecerán los hechos e identificarán los asuntos más urgentes respecto a los estudios de Fouchier y Kawaoka", según explicó a este diario un portavoz de la OMS. El Centro Europeo para el Control de Enfermedades también sigue el asunto de cerca y se plantea "revisar la evaluación de riesgos para virus A (H5N1) y en especial los transmisibles", explican desde el organismo de la UE.

En EEUU, la Academia de Ciencias de Nueva York o la Asociación de Microbiología de EEUU han organizado encuentros con expertos y representantes de agencias federales de salud. ¿Se puede esperar de estos encuentros otro Asilomar? Tajantemente "no", según Mike Osterholm, uno de los miembros del NSABB que pidió la censura de los estudios. Por ahora, el pacto internacional no tiene ni fecha, ni texto, ni lugar.
 

Por NUÑO DOMÍNGUEZ MADRID06/02/2012 10:13 Actualizado: 06/02/2012 10:13

 

Publicado enInternacional
Científicos hallan signos de daño cerebral en adictos a Internet
Por primera vez se ha vinculado la adicción a Internet con cambios en el cerebro similares a los observados en adictos al alcohol, la cocaína y la cannabis. Investigadores usaron resonancia magnética para revelar anormalidades en el cerebro de adolescentes que pasan varias horas en Internet, en detrimento de su vida social y personal. Los hallazgos podrían arrojar luz sobre otros problemas de conducta y llevar al desarrollo de nuevos métodos de tratamiento, comentaron los científicos.

Se calcula que de 5 a 10 por ciento de los usuarios de la red son adictos, es decir, incapaces de controlar su uso. La mayoría son jugadores tan absortos en su actividad que pasan largos periodos sin comer ni dormir, con efectos negativos para su educación, su trabajo y sus relaciones.

Henrietta Bowden Jones, consultora siquiátrica en el Colegio Imperial de Londres, quien dirige la única clínica del sistema de salud pública de Gran Bretaña para adictos a Internet y jugadores compulsivos, señaló: "La mayoría de las personas que observamos con adicción seria a Internet son jugadores: personas que pasan largas horas desempeñando papeles en diversos juegos y desatienden sus obligaciones. He visto personas que dejaron de ir a clases en la universidad, no completaron sus estudios o fracasaron en su matrimonio porque fueron incapaces de conectarse emocionalmente con cualquier cosa que no fuera el juego".

Si bien la mayor parte de la población pasa más tiempo hoy frente a la computadora, eso no significa adicción, añadió. “Es diferente. Lo hacemos porque la vida moderna requiere que nos conectemos en la red por motivos de trabajo, relaciones profesionales y sociales, pero no de modo obsesivo. Cuando alguien viene y dice que no durmió la noche anterior porque pasó 14 horas jugando en la red, y que lo mismo ocurrió una noche antes, y que trató de parar pero no pudo… sabemos que hay un problema. En particular son los juegos los que tienden a atrapar a las personas.”

Investigadores en China escanearon el cerebro de 17 adolescentes diagnosticados con "trastorno de adicción a Internet", referidos al Centro de Salud Mental de Shanghai, y compararon los resultados con los observados en 16 personas de la misma edad.

Los resultados mostraron atrofia severa en las fibras de materia blanca que conectan regiones vinculadas al procesamiento emocional, la atención, la toma de decisiones y el control cognitivo. Se han observado cambios similares en la materia blanca en otras formas de adicción, en el caso de sustancias como el alcohol o la cocaína.

"Los hallazgos sugieren que la integridad de la materia blanca podría ser un nuevo objetivo de tratamiento en el trastorno de adicción a Internet", escriben en el periódico en línea Public Library of Science One. Los autores reconocen que no pueden precisar si los cambios en el cerebro son la causa o la consecuencia de la adicción a Internet. Podría ocurrir que los jóvenes que presentan los cambios cerebrales observados sean más propensos a la adicción.

El profesor Michael Farrell, director del Centro de Investigación sobre Alcohol y Drogas de la Universidad de Nueva Gales del Sur, en Australia, comentó: “Las limitaciones del estudio son que no fue controlado, y es posible que las drogas ilícitas, el alcohol u otros estimulantes basados en la cafeína hayan causado las alteraciones. También es cuestionable la especificidad del ‘trastorno de adicción a Internet’”.


Jeremy Laurence
The Independent

Traducción: Jorge Anaya

Publicado enInternacional
Lunes, 28 Noviembre 2011 10:31

Utopología desde nuestra América

Utopología desde nuestra América

 

Edición 2012. Formato: 17 x 24 cm, 158 páginas
P.V.P:$29.000 ISBN:978-958-8454-41-2



Reseña.

Las metáforas o los rostros de la utopía y de lo utópico son diversos, y, sin embargo, a estas alturas de la reflexión, ¿estamos ya en condiciones de construir una teoría de lo utópico? Probablemente aún no se haya consumado esta tarea, pero varios de los autores que la trabajan apuntan hacia ello. La construcción de una utopología exige por lo pronto una lectura sintética de la rica producción filosófica sobre el asunto, al mismo tiempo que se impone la exigencia, en este nuevo milenio, de darles paso a la imaginación y la razón utópicas, ceñidas por la crítica. También supone desplazar las vacuas fantasías de ideologizaciones y espejismos que intentan disolver nuestra más íntima capacidad y nuestra voluntad transformadora, mediante las cuales nos afirmamos como humanos al declarar que no es posible otro mundo.

Afrontando este límite, en el presente texto se profundizan-en la posibilidad de pensar el futuro-la esperanza, la utopía y lo utópico, despejados y despojados de ataduras, sin perder de vista el ser que deviene alternativamente, porque ambos, ser y pensar, están abiertos a la posibilidad, al novum arraigado en la propia experiencia humana de ser de la historia.

 

Maria del Rayo Ramírez Fierro. Méxicana.Licenciada y maestra en Filosofia.Ha realizado su formación en la Facultad de Filosofia y Letras de la Unam, para la cual es actualmente candidata al grado de doctorado en Filosofia.

Se dedica a la docencia desde 1984 en los niveles medio superior y superior.Desde 2006 es profesora-investigadora de tiempo completo de la Universidad Autónoma de Ciudad de México, donde junto a Francesca Gargallo conduce el Seminario Permanete de Filosofía Nuestroamericana.

Además de numerosos artículos en revistas nacionales e internacionales, publicó el libro "Simón Rodríguez y su utopía para América" (1994).Ha participado en trabajos colectivos como coordinadora del "Diccionario de Filosofia Latinoamericana" (2000) y como autora del "Diccionario de pensamiento alternativo" (2008) y "El pensamiento filosófico latinoamericano del Caribe y latino , 1300-2000" (2010)

 

 


Adquirir en Librería Virtual
 
 

 

Informes-Pedidos:

 


Transv 22 N 53D-42. Int 102 (Bogotá)

Carrera 48 N 59-52 Of. 105 (Medellín)

E-mail: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo. (todas las ciudades)

Teléfonos: 345 18 08 / 217 89 92 (Bogotà y otras ciudades) / 291 09 69 ( Medellìn)

Whatsapp: 3204835609

Facebook : http://bit.ly/2bwXbER

 

 

Domingo, 27 Noviembre 2011 10:20

El hombre Internet

 El hombre Internet
Unos días atrás, caminando por las oficinas argentinas de Google, Vint Cerf tropezó con una mesa y cayó al suelo. Entonces alguien hizo un chiste que estaba servido en bandeja: “Uy, se cayó Internet”, espetó y corrió una carcajada. Es que Vint Cerf, en efecto, es Internet. Ahora también es vicepresidente de Google en su cargo de “evangelizador de la red”. Pero para la comunidad tecnológica mundial, Cerf es el hombre que junto a Bob Kahn en 1973 pensó el protocolo TCP/IP por el cual las computadoras se conectan entre sí. Con apenas treinta años, Cerf trabajaba en el área de defensa e investigación de los Estados Unidos (Darpa), lugar del cual salieron los primeros experimentos de conexión entre computadoras. Afuera corría la Guerra Fría y el Sputnik soviético surcaba los cielos interestelares. La estructura de Internet fue diseñada para evitar ataques nucleares; pero jamás nadie pensó que iba a tomar el tamaño actual.
 
Con la Guerra Fría acabada, Cerf fundó las dos organizaciones que todavía hoy funcionan como la estructura política de Internet: la Icann, organismo que administra los números de Internet (IP) entre otras cosas, y la Internet Society, organización que trabaja en ofrecer soluciones tecnológicas vinculadas a la red. Así que, hay que repetirlo: Vint Cerf es Internet. Aun a pesar de su increíble capacidad de predicción, Cerf jamás pensó en sus comienzos que las 4300 millones de direcciones disponibles en la versión inicial de Internet (IPv4) iban a terminarse. Pues bien, eso sucedió este año, cuando la Icann se quedó sin reservas de direcciones IPv4. Recién entonces se aceleró un cambio que venía muy paulatinamente hacia una tecnología nueva llamada IPv6, que tiene una cantidad espectacular de direcciones disponibles (3,4 x 10 a la 38).
 
En conversación con Página/12 en una de esas oficinas donde “Internet se cayó”, Cerf observa una calcomanía pegada en la computadora de este cronista y se pone contento: “¿Estás listo para IPv6?”, dice la calco. “Yo le haría esa pregunta a cada proveedor de la Argentina”, sentencia.
 
–¿Usted cree que el cambio de IPv4 a IPv6 está yendo lento?
 
–Este año se acabaron las IPv4. Pero nosotros nos dimos cuenta en 1992 de que eso iba a pasar. Cuando diseñamos IPv6 trabajamos fuertemente para conservar la versión anterior, y eso funcionó tan bien que no se nos acabaron hasta 2011. Ahora estamos vacíos. Lacnic (el órgano que controla Internet en América latina) tiene algunas direcciones, Arin (Estados Unidos) también tiene algunas. Pero Apnic (Asia y el Pacífico) ya no tiene más direcciones IPv4.
 
–¿Y por qué no incorporan el nuevo protocolo?
 
–Los proveedores de Internet están diciendo dos cosas: primero, “los usuarios no me piden IPv6, ¿por qué debería dárselos?”. Pero los usuarios ni siquiera saben de qué se trata. Saben de nombres de dominio y direcciones, pero nunca van a pedir IPv6, ni siquiera por IPv4, porque no saben que existe. Es una respuesta tonta. La segunda cosa es que están diciendo básicamente que aunque se acaben las direcciones todavía pueden servir a sus usuarios con la IPv4 sin problema. No están preocupados en implementarlo, porque no se les acaban a ellos. Pero no entienden que el usuario en América latina tiene que hablar con alguien a quien que se le acabó el IPv4 en Asia y la única forma de hacerlo es sirviendo IPv6 para ver a alguien que ya no tiene IPv4. Y se rehúsan a reconocer estas cosas. Algunos proveedores como Comcast en Estados Unidos son muy agresivos en implementar IPv6, otros están esperando demasiado tiempo. Algunos creo que piensan que están ahorrándose plata pero les va a costar más al final. ¡Hay que implementarlo ahora!
 
Hace 38 años, Vint Cerf era menos conocido que su padre Vinton Thurston Cerf, un ejecutivo espacial. Se recibió de matemático en la Universidad de Stanford, trabajó en IBM, se doctoró en la UCLA, donde conoció a Bob Kahn, quien ya trabajaba en Arpanet, la primera red de la cual surgió Internet. En ese entonces, Cerf y Kahn subestimaron su propio invento. “En 1973, cuando estábamos trabajando en el diseño, pensamos que había tres grandes redes en Estados Unidos: una era Arpanet, otra era la radial y otra era la satelital. Pero estas redes son caras, pensamos. No habrá más de una o dos por país. Si hay 120 países, entonces 256 redes deberían ser más que suficientes. Además estábamos haciendo un experimento. No pensábamos en hacerlo como una cuestión comercial, sólo tratábamos de ver cómo funcionaba la tecnología. De pronto creció muy rápido cuando apareció la tecnología de ethernet y teníamos millones de redes. De hecho, con IPv4 interpretamos que había que cambiar estas redes que iban a ser millones, pero aun así nos quedamos sin direcciones en 2011.”
 
El lector podría pensar que con la nueva versión de Internet habrá lugar para casi cada átomo del planeta. Pero Cerf va más allá, siempre va más allá: lleva años trabajando en la creación de una Internet Interplanetaria junto a la NASA, desarrollando una tecnología que permita comunicarse a través de los planetas y las naves espaciales. El desarrollo fue iniciado por Cerf a través del Jet Propulsion Laboratory y desde hace unos años los satélites enviados al espacio también llevan esta tecnología que permite comunicarse a través del espacio interestelar. “Pasamos a un nivel diferente de Internet”, dice Cerf.
 
–¿A qué se refiere?
 
–Usamos dos niveles de direcciones de Internet. Si alguien está en Marte y quiere mandar algo a la Tierra hay dos niveles de routers: primero hay que saber dónde está la Tierra. Y luego, en algún lugar de la Tierra, saber dónde está yendo uno realmente en el planeta. En la parte interestelar sólo hay que preocuparse por cómo llegar al planeta, y luego de tener este destino, entonces entra en juego la dirección local.
 
–Si no fuera usted, no le creería una sola palabra.
 
–(Se ríe.) Estamos estandarizando protocolos planetarios. Las naves espaciales ya están usando el protocolo interplanetario. El mismo protocolo está en Marte, estamos empujando esta tecnología paso a paso, misión por misión.
 
–O sea que si hubiese Internet en Marte, usaríamos directamente IPv6 desde el principio.
 
–También podemos usar IPv4. Las direcciones son independientes, los routers que van entre planetas hablan en otro idioma. Primero nos fijamos si vamos al planeta correcto, o al satélite correcto, y luego vemos en el interior.
 
@blejman
Publicado enInternacional
La propuesta de una nueva Ley de Educación Superior que presentó el presidente Juan Manuel Santos para reemplazar la Ley 30 de 1992 es de crucial importancia para el país, pues contiene la concepción del actual gobierno sobre los alcances del Estado para liderar y posibilitar la actualización científica y tecnológica de la sociedad colombiana, en un momento de grandes transformaciones mundiales, marcadas por la producción y la circulación de conocimiento. En este texto abordaremos el análisis del modelo planteado por la propuesta y sus implicaciones para la construcción de un proyecto modernizante con características autónomas, teniendo en cuenta la concepción de la cual parte, definida en el Plan Nacional de Desarrollo presentado por la actual administración.

Ciencia y tecnología, hoy

Al comenzar la segunda década del siglo XXI, el mundo se mueve en diversas direcciones para consolidar un modelo productivo, en formación desde por lo menos la década de los años 80 del siglo XX. En lo económico, tal modelo se caracteriza por una nueva estructura de costos en la generación de bienes y servicios, en la cual tienen mayor peso los componentes del llamado “capital conocimiento”, como son los honorarios del personal de alta formación académica de las ingenierías y las ciencias básicas, los pagos por regalías sobre patentes y derechos de autor, y los procesos internos de investigación y desarrollo1.

La competencia internacional en torno a la circulación de las mercancías con alto contenido de valor agregado se da entre los países avanzados en el desarrollo científico-tecnológico, que han abierto campos en la utilización de nuevos materiales, elaborados a partir de materias primas novedosas (coltán, litio, tierras raras), o de nuevas aleaciones y estructuras químicas que se obtienen mediante la aplicación de principios de las ciencias de la vida (biología, biotecnología). La nanotecnología se presenta como un frente que revolucionará esa misma gama de materiales y productos al poder intervenir la materia en escalas milmillonésimas y obtener incluso robots biológicos para tratar de manera personalizada enfermedades previstas a través de la identificación del código genético de los individuos. Clave para todos estos avances ha sido el gran potencial de la microelectrónica, que permite procesar inmensas cantidades de información y aplicarlas a los procesos y productos. Simultáneamente, las inquietudes de investigación se enfocan en la búsqueda de nuevas fuentes de energía que superen el agotamiento próximo y la contaminación generada por las fuentes fósiles tradicionales.

Como síntesis de lo anterior, la estrategia de la innovación se constituye en arma competitiva entre países y grandes corporaciones transnacionales, y en el gran reto del desarrollo para los países son dependientes en el contexto mundial del conocimiento producido por aquellos (2).

Las necesidades de formación y la investigación

El nuevo modelo productivo impone exigencias a los procesos de educación, formación y capacitación de los trabajadores a lo largo de la cadena de producción, distribución y circulación de las mercancías, que tienen que ver con el desarrollo de un pensamiento formal, especialización transversal en tareas y habilidad de interactuar con otros dentro de un nuevo patrón de organización flexible de los procesos, lo que incluye las propias relaciones laborales e industriales del mundo laboral. El proceso de formación que obedece al nuevo patrón es uno integrado en niveles diferenciados de educación básica, intermedia para el trabajo, y superior con exigencia de actualización y capacitación permanentes, que permita la migración entre esos niveles y la puesta al día según el ritmo cambiante de la tecnología.

En esta dirección, la formación para la investigación que conduzca a innovación se impone en los procesos educativos y de formación, que deberán dotar de suficiente pensamiento complejo a los educandos, pero además brindar los espacios en los que se puedan desarrollar y probar esas capacidades, es decir, estructurar programas de investigación básica y aplicada que aportará a las empresas y asimismo a solucionar las sociales necesidades del país.

El correlato social del modelo es una creciente precariedad en la contratación y el proyecto de vida que puedan trazar los trabajadores, afrontados a creciente competencia entre ellos por los puestos de trabajo más especializados y escasos.

Bases internacionales de la producción de conocimiento

La propiedad sobre los avances en el conocimiento constituye entonces la base de la competencia entre capitales y los mecanismos para la valorización de las empresas, por lo que este nuevo modelo productivo corresponde a un modelo de acumulación de capital que requiere movilizar grandes sumas de dinero para financiar los proyectos de investigación básica y de su aplicación a la producción, lo que ha sido reforzado por la conformación de grandes capitales financieros que circulan por el mundo en tiempo real, utilizando las tecnologías de la información y las comunicaciones, con lo que se ha configurado una extendida impronta financiera de la economía global.

Al mismo tiempo, se ha generado una profunda tensión entre la ciencia propietaria (aquella apropiada por empresas mediante patentes, secretos comerciales, derechos de autor y otros títulos de propiedad intelectual) y ciencia abierta, por la cual claman grupos de la sociedad que persiguen la libre circulación del conocimiento, lo que es facilitado por diversos mecanismos desarrollados a partir de esas mismas tecnologías de utilización libre de software y acceso a bases de datos, cada vez más restringidos por los Estados y por las prácticas de las empresas líderes.


La investigación que permite todo esto es llevada a cabo en las grandes corporaciones internacionales pero también en universidades e institutos financiados por el Estado con fondos públicos. Algunos arreglos institucionales establecen la conexión entre unos y otros, pero siempre con el liderazgo de las instituciones universitarias dedicadas a la investigación básica, que permite avanzar el conocimiento en los problemas fundamentales de la ciencia y la tecnología y, a la vez, formar los científicos que interactúan con el sector privado de investigación y producción.

El modelo del Plan Nacional de Desarrollo

En contraste con los movimientos internacionales descritos en las secciones anteriores, el Plan Nacional de Desarrollo-Prosperidad para todos (PND) del gobierno Santos proyecta para Colombia la consolidación de un modelo económico basado en la extracción y exportación de recursos primarios, provenientes de la extracción minera y extensas explotaciones agrícolas del tipo palma africana o caña de azúcar. Aunque el documento “Bases del PND 2010-2014” reconoce la importancia de la innovación en la economía mundial, las acciones en él delineadas se quedan en el plano general y remiten al sector privado buena parte de la responsabilidad por concretar la iniciativa.

Presentada como una de las llamadas cinco locomotoras del progreso (Nuevos sectores basados en la innovación; Agricultura y desarrollo rural; Infraestructura de transporte; Desarrollo minero y expansión energética; Vivienda y ciudades amables), en las proyecciones del Plan la innovación hace el aporte más importante al aumento de la productividad nacional (1,6%), a la tasa de inversión a PIB (31,0%) y a la tasa de crecimiento del PIB (6,2%). Para ello, plantea fortalecer la infraestructura de ciencia y tecnología, al reconocer que la inversión en I&D es un escaso 0,2 del PIB, y cualificar el llamado capital humano mediante alianzas Universidad-empresa-sector público.

El desafortunado concepto de locomotora [“nuevos sectores que avanzan más rápido que el resto de la economía” (DNP, pág. 59), que llevaría a que los sectores no hacen parte de la economía] implica que la innovación se potenciaría con “el fortalecimiento de “un sistema de educación superior con pertinencia” (DNP, pág. 63), pues afirma reconocer que un problema es el insuficiente recurso humano para la investigación y la innovación (DNP, pág. 64). La estrategia consistiría en el uso del conocimiento y la innovación, sustentada en tres lineamentos: financiar, formar y organizar (DNP, pág. 66). En cuanto a lo primero, la financiación se dirigiría a proyectos, personal e infraestructura, pero con recursos inciertos que provendrían de la reforma al sistema de regalías (10% del total) y “demás fondos”, que no se precisan en el texto. Resta por ver si la reforma a las regalías que se tramita en el Congreso de la República finalmente incluye este rubro.

La apropiación de nuevas tecnologías e innovación se remite en el Plan a sectores definidos sin criterios muy claros y que se encuentran incluidos en la “Política de Transformación Productiva” formulada años atrás: (1) software y servicios de tecnologías de la información y las comunicaciones; (2) Procesos de negocio tercerizados a distancia (BPO&O, sigla inglesa); (3) Turismo de salud y bienestar; (4) Textil, Confecciones, diseño y modas; (5) Industria de la comunicación gráfica; (6) Cosméticos y productos de aseo; (7) Autopartes y vehículos; (8) Energía eléctrica, bienes y servicios conexos; y (9) Agropecuarios (Chocolatería, confitería y sus materias primas; Carne bovina; Palma, aceites y vegetales; y Camaronicultura) (DNP, pág. 173).

En síntesis, la opción por la ampliación del mercado interno y la inclusión de más del 60 por ciento de la población que se encuentra por fuera de él es dejada de lado, al continuar la estrategia primario-exportadora, definida para el país desde la primera apertura de las administraciones Barco y Gaviria, de los años 80 y 90 del siglo XX.

Operacionalización del modelo en la Ley de educación superior

El modelo primario-exportador así definido tiene su manifestación en la propuesta de configuración del nuevo sistema de educación superior en el cual el Estado colombiano abandona la responsabilidad de construcción de nación, haciendo de lado la función planificadora y estratégica de desarrollo en el mediano y el largo plazos de la educación, para darles prioridad a los intereses inmediatos del sector empresarial privado. Ignora la investigación estratégica de interés público que no necesariamente está en línea con los intereses de la inversión privada, enfocada a la rentabilidad de corto plazo (MEN, 2011). En la propuesta la educación, pasa a ser un bien privado ‘normal’ que será provisto por el mercado mediante el juego de la oferta y la demanda, con lo cual, adicionalmente, se estaría rompiendo el trinomio educación-investigación-extensión, sello distintivo misional de las universidades y espacio para brindarle a la sociedad los avances alcanzados en el conocimiento.

Sin embargo, esta propuesta sí es coherente con el modelo internacional descrito anteriormente en dos de sus dimensiones: énfasis en el papel de la financiación privada y en la profundización de la precariedad laboral, pues las condiciones del mercado de trabajo colombiano ya la incluye, lo que se vería reforzado con los escasos niveles de educación y formación que el sistema propuesto permitiría. No es claro en la concatenación PND-Reforma educativa cómo el sistema de educación superior logre en un plazo de ocho años pasar de 1.632 personas con formación doctoral a 55.000 en 2019. La explicación pudiera provenir de la definición de “universidad” que hace el Proyecto de reforma: aquellas instituciones que cuentan con investigación en grupos clasificados por Colciencias y con “al menos un programa de doctorado debidamente autorizado” (MEN, pág. 6), condicionamiento que llevará a la proliferación de “doctorados de garaje” o por educación virtual mediante alianzas con instituciones extranjeras, como muchas de diversos orígenes que ya ofrecen este tipo de programas; o mediante el establecimiento de universidades de bajo nivel provenientes de los Estados Unidos, en lo que constituye la implantación del Tratado de Libre Comercio con ese país, aun antes que entre en vigencia. Y sigue en duda la calidad de ese tipo de formación, definida como fin en sí mismo, no como medio para la modernización institucional.

El otro aspecto del modelo es el de la investigación. El requisito de contar con grupos registrados en posiciones altas de Colciencias y por lo menos en tres áreas del conocimiento (MEN, pág. 6) lleva a un callejón cuya salida puede consistir en relajar los criterios construidos en los últimos años por esta institución para la clasificación de la investigación. A esto quizá contribuya la necesidad del nuevo Departamento Administrativo de Ciencia, Tecnología e Innovación de ejecutar un presupuesto anual aumentado si le llegan los nuevos recursos provenientes de la distribución de las regalías.

Calidad de la educación y calidad de la investigación son, pues, dos caras de la incertidumbre que, aunque declaradas de preocupación central, ninguno de los documentos en mención aborda con precisión, al remitir a las condiciones impuestas por el mercado a través de las alianzas Universidad-empresa-sector público para calificar el “capital humano” (PND, pág. 35), para alcanzar “mayor pertinencia y énfasis en el emprendimiento innovador a través del aprendizaje en y con la empresa desde los primeros años de estudio”, y “la ampliación de los acuerdos Universidad- Empresa para el fortalecimiento de la relación entre investigadores y empresas (PND, pág. 70). La sumisión de la educación superior está definida por las necesidades privadas tanto desde el PND como desde la Propuesta de reforma, que además abre el espacio para reconocer nuevas instituciones educativas con fines explícitos de lucro (MEN, art. 13).

Conclusiones

La propuesta de reforma al sistema de educación superior está lejos de obedecer a las necesidades de formación e investigación que el país requiere para superar sus múltiples problemas de pobreza y justicia social, pero aleja aún más de las posibilidades de avanzar en la apropiación de las tecnologías que hoy día constituyen la punta de lanza del desarrollo con base en el conocimiento alcanzado en procesos de investigación definidos y diseñados de acuerdo con esas necesidades, pero también con base en la utilización sostenible de los recursos con que cuenta el país, de modo que permita el acceso al conocimiento y la información por parte de la población marginada. Justamente esas no son las urgencias del sector privado y su accionar mediante el mercado, cuyo fin inmediatista de rentabilidad no está interesado en construir proyectos de sociedad de largo plazo.

Esta es sin duda la responsabilidad que el Estado colombiano abandona al renunciar a plantear estrategias de largo plazo en la educación y la investigación científico-tecnológica, con objetivos que vayan más allá de las necesidades del mercado. La visión cortoplacista, a pesar de que se afirme lo contrario, sigue siendo la que define la hoja de ruta, y más bien tiende a afianzarse al no definir una estrategia que se enfoque en una visión de futuro, en democracia, no sólo política sino además del conocimiento y las oportunidades para todos los colombianos.

1    Una descripción más detallada del nuevo modelo y sus implicaciones para el mundo del trabajo se encuentra en Moncayo, 2010.
2    La Cátedra José Celestino Mutis de la Universidad Nacional de Colombia abordó en detalle el conjunto de las innovaciones productivas y sociales del nuevo modelo en publicación reciente (Bejarano et al, 2010).

Referencias
Bejarano, P.; Zerda, A.; Cortés, C. (eds.) (2010) Innovación. Desafío para el desarrollo en el siglo XXI. Bogotá, Editorial Universidad Nacional de Colombia.
Departamento Nacional de Planeación (DNP), 2011. Bases para el Plan Nacional de Desarrollo. Prosperidad para todos. Bogotá.
Ministerio de Educación Nacional (MEN), 2011. Propuesta de reforma a la Ley 30 de 1992, por la cual se regula el servicio público de la Educación Superior. Versión de marzo de 2011, Bogotá.
Moncayo, H.-L. (ed.) Trabajo y capital en el siglo XXI. Bogotá, Ilsa.