“La mayoría de universidades del mundo van a desaparecer”

El experto en innovación y miembro de Singularity University, la universidad de Silicon Valley, cree que la certificación ya no es útil



Cuando David Roberts era pequeño, su padre le contó que Thomas Edison había hecho mucho más por la humanidad con el descubrimiento de la bombilla que cualquier político en la historia. Esa idea marcó su camino. Roberts es uno de los mayores expertos en tecnología disruptiva del mundo y también uno de los rostros más conocidos de Singularity University, la universidad de Silicon Valley creada en 2009 con el apoyo de la NASA y de Google.


Roberts considera que el negocio de las universidades tiene los días contados y que solo sobrevivirán aquellas que tengan una gran marca detrás. Singularity University ha roto con el modelo de certificación; no expide títulos ni existen los créditos. Su único objetivo es formar líderes capaces de innovar y atreverse a romper las normas para alcanzar el ambicioso reto que se ha marcado la universidad desde su creación. Sus alumnos están llamados a utilizar la tecnología para resolver los 12 grandes desafíos del planeta: alimentar a toda la población, garantizar el acceso al agua potable, la educación para todos, la energía sostenible o cuidar el Medio Ambiente, entre otros. Todo en menos de 20 años.


Roberts atiende a EL PAÍS en la Oslo Innovation Week, un encuentro organizado por el gobierno noruego estos días para detectar las nuevas tendencias en innovación que están transformando la economía.


Pregunta. En Singularity University (SU) los cursos no están acreditados. Eso quiere decir que están rompiendo con los títulos oficiales. Las universidades y los gobiernos hacen negocio con ello. ¿Creen que están dispuestos a cambiar el modelo?


Respuesta. No, no creo que estén abiertas a transformarse. Estos años estamos viendo la mayor disrupción de la historia en la educación y la mentalidad habitual ante estas transformaciones tan radicales suele ser la de pensar que lo anterior es mejor. Sucedió en el mercado estadounidense cuando llegaron los coches japoneses; eran más baratos y todos pensaban que de peor calidad, hasta que se demostró que eran mejores. Con la educación va a pasar lo mismo; las grandes universidades no quieren ofrecer sus contenidos online porque creen que la experiencia de los alumnos será peor, que no hay nada que pueda igualar el cara a cara con el profesor en el aula. Mientras ignoran la revolución que está sucediendo fuera, la experiencia de aprendizaje online irá mejorando.


Los programas académicos cerrados y la acreditación ya no tienen sentido porque en los cinco años que suele durar los grados los conocimientos se quedan obsoletos. Nosotros no ofrecemos grados ni créditos porque el contenido que enseñamos cambia cada año.


P. ¿Hay alguna plataforma de aprendizaje online que esté destacando sobre las demás?


R. Udacity. En 2011 el profesor de la Universidad de Stanford Sebastian Thrun, el mejor experto en Inteligencia Artificial de los Estados Unidos, se planteó impartir uno de sus cursos en Internet, gratis y para todo el mundo. Casi 160.000 estudiantes de más de 190 países se apuntaron y el porcentaje de alumnos que obtuvo una A (un sobresaliente) fue superior al de las clases presenciales. Thrun dejó Stanford y montó Udacity, donde ha desarrollado una metodología de enseñanza totalmente nueva. Además, ha creado un nuevo modelo de negocio: si terminas el curso a tiempo te devuelven tu dinero y si no consigues un trabajo tres meses después, también. ¿Te imaginas esto en una universidad tradicional? Las únicas universidades que van a sobrevivir son las que tienen una gran marca detrás, como Harvard o Stanford, o en el caso de España las mejores escuelas de negocios. Las marcas dan caché y eso significa algo para el mundo. El resto, van a desaparecer.


P. Uno de los programas que ofrece SU, el Executive Program, cuesta 14.000 dólares (unos 12.800 euros) y tiene una duración de seis días. Ese precio se aleja bastante de uno de sus retos: la educación accesible para todos.


R. La nuestra es una universidad excepcional. No se trata solo de adquirir información o aprender algo muy específico online, como sucede, por ejemplo, con Khan Academy. Nosotros vamos más allá. Ofrecemos una experiencia que cambia tu mentalidad, que transforma a la gente y cuando se marchan no vuelven a ser los mismos. A mí me sucedió. Unos años después del 11-S me puse a disposición del Gobierno y me incorporé como oficial de las fuerzas aéreas. Cuando escuché que querían crear una universidad para resolver los grandes problemas del mundo, tuve claro que participaría. Y lo hice; primero como alumno y después como vicepresidente y director del Global Solutions Program. Allí te das cuenta de que la vida es corta y de que puedes hacer cosas ordinarias o extraordinarias. Cuando estás en clase con otras personas, empiezas a darte cuenta del potencial que tienes, tu visión de ti mismo y de futuro cambia. No llegas a ese punto con el método habitual de recibir información únicamente.


Reconocido como uno de los mejores expertos en innovación disruptiva del mundo, David Roberts fue vicepresidente de Singularity University y director de su programa Global Solutions Program. Graduado en Ingeniería Informática por el Massachusetts Institute of Technology (MIT), más tarde se especializó en Inteligencia Artificial e Ingeniería Bio-Computacional y cursó un MBA en Harvard Business School. Es presidente de la compañía de drones HaloDrop, de la primera empresa de software para ordenadores quantum 1Qbit y asesor de Made-In-Space, responsable de la creación del primer objeto fabricado con una impresora 3D para la Estación Espacial.


P. ¿Cuál es hoy es principal problema de la educación?


R. La educación se ha roto. Hemos enseñado a la gente de la misma forma durante los últimos 100 años y, como hemos crecido en ese sistema, creemos que es normal, pero es una locura. Enseñamos en las escuelas lo que los colonialistas ingleses querían que aprendiese la gente: matemáticas básicas para poder hacer cálculo, literatura inglesa... Hoy no tiene sentido. Tenemos que enseñar herramientas que ayuden a las personas a tener una vida gratificante, agradable y que les llene. Algunos son afortunados de tener unos padres que les ofrecen eso, pero la mayoría no. Los programas académicos están muy controlados porque los gobiernos quieren un modelo estándar y creen que los exámenes son una buena forma de conseguirlo. Otro de los grandes dramas es la falta de personalización en las aulas. Cuando un profesor habla, para algunos alumnos irá demasiado rápido, para otros muy despacio y para cuatro a la velocidad idónea. Luego les evalúan y su curva de aprendizaje no importa, les aceleran al siguiente curso. Hoy sabemos que si nos adaptamos a los diferentes tipos de inteligencias, el 98% de los alumnos obtendrán el mejor resultado.


P. ¿Qué materias deberían ser imprescindibles?


R. La idea de aprender mucho, solo por si algún día hace falta, es absurda. Quizás deberíamos sustituir la idea de educación por la de aprendizaje y permitir que la gente aprenda en tiempo real, según sus necesidades. El verdadero propósito de la escuela debería ser crear curiosidad, gente hambrienta de aprender, ahí es donde los profesores tienen que ser buenos. Las habilidades emocionales van a jugar un papel muy importante en la nueva economía. Pongo un ejemplo. Los conductores de Uber en Estados Unidos son puntuados por los clientes de uno a cinco. Si alguno de los conductores tiene menos de 4,6 o más de tres opiniones negativas, directamente se le saca de la plataforma. Lo mismo sucede con los usuarios, si tienen menos de 4,6, ningún conductor les recogerá. ¿Quién me enseña hoy a ser honesto, íntegro y a tener compasión?


P. Se ha hablado mucho de que en menos de 50 años los robots terminarán con la mayoría de trabajos. ¿Cómo será el nuevo mercado laboral?


R. Hace 50 años éramos granjeros. Todos estaban preocupados porque las máquinas nos quietarían el trabajo, era la única manera de ganar dinero: tener una granja y vender comida. Hoy las cosas cambian 50 veces más rápido; hace 20 años nadie sabía lo que era un desarrollador web y ahora hay miles, es muy fácil y cualquiera puede hacerlo. Todo el mundo se pregunta en qué trabajo seremos mejores que los ordenadores. En ninguno. Esa no es la pregunta correcta. Hay que plantearse qué tareas no queremos que hagan, aunque lo puedan hacer mejor. No los queremos como militares, ni como alcaldes, tampoco que decidan qué presos pueden abandonar la cárcel. Eso es lo que tenemos que enseñar a la gente a decidir.


P. ¿Cómo podemos estar seguros de que habrá trabajo para todos?


R. La cuestión que me preguntas es si el dinero va a ser más o menor importante en el futuro. Yo solía pensar que la evolución de la tecnología hace que los costes bajen y que la gente pague menos por los mismos servicios. Siguiendo esa predicción, se podría pensar que vamos a trabajar menos porque no necesitaremos tanto dinero y vamos a tener más ocio. Es incorrecto. El ser humano va a seguir creando productos excepcionales, como el iPhone; todo el mundo querrá uno. Tendremos que ser capaces de crear valor para generar dinero y poder comprar esas cosas. La realidad virtual, la impresión 3D, o la salud van a ser algunos de los campos que nos van a sorprender. El mundo seguirá girando alrededor del dinero, que es la energía para hacer cosas o cambiarlas. Esos nuevos inventos te inspirarán a trabajar para poder comprar.


P. La clave del éxito, ¿está en la confianza en uno mismo? ¿Se aprende eso en SU?


R. Como alumno, yo aprendí que una sola persona puede impactar positivamente a todo el planeta. Ese don no está reservado a personas especiales, sino a gente normal, como tú y yo. La gente se convierte en lo que piensa. ¿Qué potencial tiene un bebé? La mayoría de la gente responde que es ilimitado, pero si les preguntas sobre su potencial, no responderán lo mismo. Mi misión ahora es viajar por el mundo bajo la marca de Singularity University para mostrar a los gobiernos, empresas e instituciones que el poder para innovar está ahí, solo tienen que dar el primer paso: cambiar su mentalidad.


P. ¿Cree que los universitarios deben cambiar también su mentalidad?


R. Sí. La aspiración no debe ser que una empresa te contrate. Eso significa que te van a pagar menos de lo que mereces. No tenemos que enseñar cómo conseguir un trabajo, sino cómo crearlo.

 

Oslo 24 OCT 2016 - 20:17 COT

China pone en órbita su misión tripulada más larga hasta la fecha

Dos astronautas inician 33 días de misión a bordo de la nave Shenzhou-11, que se acoplará al laboratorio Tiangong-2 para iniciar los preparativos para la futura estación orbital del gigante asiático alrededor de la Tierra.

 


China ha puesto en órbita este lunes su mayor misión espacial tripulada hasta la fecha, enviando al espacio a dos astronautas que pasarán 33 días en el laboratorio Tiangong-2 para iniciar los preparativos para la futura estación orbital del gigante asiático alrededor de la Tierra.

La nave 'Shenzhou-11' ha despegado desde el Centro de Lanzamiento de Satélites de Jiuquan, ubicado en el desierto de Gobi, según ha informado la agencia china de noticias Xinhua. La misión forma parte del plan de las autoridades del gigante asiático de contar con una estación espacial tripulada de cara a 2022.


La tradicional cuenta atrás desde diez dio paso al encendido de los propulsores y, tras provocar un ruido estruendoso, el cohete se elevó sobre del desierto rumbo a las estrellas, cuando todavía no terminaba de salir el sol y la luna estaba iluminada.

Los cuatro cohetes de apoyo se separaron a los tres minutos de vuelo del cuerpo principal, que se despegó de la nave, a su vez, poco antes de llegar a los diez minutos y, al desplegarse los paneles solares de la cápsula trece minutos después del lanzamiento, los responsables de la misión la declararon exitosa.

"El Shenzhou-11 está en su órbita determinada según el plan original. Por tanto, la puesta en órbita de la misión tripulada ha sido un éxito", anunció desde la base un oficial militar. Con el lanzamiento de la undécima nave de la familia Shenzhou -que en mandarín significa, literalmente, "barco divino"-, China cierra un paréntesis de más de tres años sin enviar astronautas al espacio.

El presidente del país, Xi Jinping, ha enviado un mensaje de felicitación por el exitoso lanzamiento de la 'Shenzhou-11', agregando que "supone la primera vez en la que astronautas chinos estarán en órbita durante un plazo medio de tiempo".

Así, ha pedido al personal de la misión "que sigan rompiendo barreras" en el programa espacial del país, con el objetivo de que "el pueblo chino dé mayores pasos y avance en las investigaciones espaciales".

Los astronautas Jing Haipeng y Chen Dong, la tripulación de la Shenzhou-11, son los encargados de ejecutar las tareas de la sexta misión tripulada que el gigante asiático envía al espacio, tras las cinco que se lanzaron entre 2003 y 2013, y que será, si se cumplen los planes, la más larga.

Jing, un veterano de 50 años que ya participó en las misiones Shenzhou-7 (2008) y Shenzhou-9 (2012), comandará la nave con la ayuda de Chen, debutante en los viajes espaciales a los 37 años.

La primera estación espacial china, Tiangong-1, lanzada en septiembre de 2011, sigue funcionando. Fue visitada por una nave Shenzhou sin tripulación y dos misiones Shenzhou pilotadas entre 2011 y 2013. Tiangong-2 fue desarrollado sobre la base de su predecesor.

Tiangong-2 también probará tecnologías que con el tiempo se pueden aplicar en la primera estación espacial de China, como por ejemplo un brazo robótico.

Más de una docena de tareas y experimentos están programadas para llevarse a cabo en el laboratorio, que abarca áreas tales como la microgravedad, la física fundamental, la ciencia de materiales y ciencias de la vida en el espacio.

“La herramienta de la ciencia es la imaginación”

Imagínese perdida en el espacio.


Veo estrellas, planetas.

..
Saque todo eso. Está negro. Vacío.


No me castigue en la nada.


Esa nada es algo, es como la tela del universo. Lo planteó Einstein en 1915: Si sobre esa tela se coloca una estrella, esta creará curvas que aunque no podamos ver , ahí están. Así que usted caerá hacia la estrella.


La gravedad.


Correcto. Pero ahora imagine dos estrellas que giran una alrededor de la otra: la tela creará unas ondas, cómo si la agitáramos, y a su paso nuestro tamaño oscilará y el tiempo se acelerará y desacelerará, porque esa tela se llama espacio tiempo.


Es la última gran noticia científica: las ondas gravitacionales. ¿Qué implica?


Desde el comienzo de la humanidad todo lo que sabemos del universo lo sabemos a través de la luz, pero las ondas gravitacionales no son luz, son otro tipo de ojo que hemos creado para observar el universo.


¿Pero qué tienen que ver conmigo?


Nada, por el momento. Cuando se descubrió la física cuántica era pura teoría, pero sin ella hoy no tendríamos móviles, ni ordenadores, ni la radio, ni la televisión, escáneres, láseres...


A usted, ¿qué le fascina?


Quizá suene estúpido, pero me pone la piel de gallina que nosotros, estas cosas diminutas de un diminuto planeta, hayamos sido capaces de entender algo de la vida y el universo. Quiero saber más. Stephen Hawking dijo...


Su maestro, con él investigó los agujeros negros.


Sí, y me dijo que descubrir algo que nadie sabe es como el sexo pero dura más tiempo.


Entonces, ¿por qué abandonó usted la investigación?


Vivimos en una época en la que las falsas verdades están más extendidas que las verdades. En el discurso político, la verdad no importa.


...Y usted quiere contar verdades.


Sí. Es esencial para el futuro de nuestras democracias dar herramientas a los ciudadanos para que puedan distinguir entre la verdad y la ¬mentira.


Nos controlan a través de la mentira.


Sí, es muy efectiva. La diferencia entre los conocimientos reales y las mentiras políticas radica en que el conocimiento es sutil, y en política se usan frases cortas, poco tamizadas pero con mucha fuerza; es difícil luchar contra ellas.


Nos han llevado a más de una guerra.


En China (y durante años en Occidente), el gobierno ha estado afirmando que el cambio climático no es real... ¡y se quedan tan anchos! ¿Cómo se puede luchar contra algo tan alejado de la verdad y tan contundente?


¿Con racionalidad y espíritu crítico?


Sí, y creo que cada vez hay más personas que deciden informarse y formarse. En un mundo en el que no te puedes fiar de los poderes establecidos, el conocimiento es algo que no te pueden arrebatar. Yo quise colaborar en eso, lo sentí con mucha fuerza. En cuatro años he explicado el universo a más de 300.000 niños.


¿Cuál será el descubrimiento que cambiará nuestras vidas?


Encontrar vida extraterrestre.


Han encontrado agua y vida en Europa, una luna de Júpiter.


De eso hace años, pero a la NASA le gusta dar noticias a lo grande cuando le conviene.


¿Las fuerzas nucleares del universo nos amenazan?


Es lo contrario, las fuerzas nucleares hacen brillar al sol, sin ellas no existiríamos. Hay muchísimos peligros en el espacio, pero no ese, y debemos investigar para afrontarlos.


Usted ha dado día y hora de nuestra extinción: un jueves dentro de 5.000 años.


Sólo el conocimiento nos permitirá sobrevivir a la muerte del sol habitando otros planetas.


Pero si el tiempo no existe y todo ocurre en paralelo...


Hay una diferencia entre las ideas teóricas y la vida.


¿Qué sabemos?


Sabemos que cuando eliminamos todo lo demás, nos queda el espacio tiempo y el vacío cuántico, que es una sopa de partículas que aparecen, desaparecen y vuelven a aparecer por todas partes y todo el tiempo.


¿Y eso también ocurre en nosotros?


En todas partes, se ha comprobado experimentalmente muchas veces.


¿Por qué lo que es cierto para las partículas no lo es para quien está hecho de ellas?


Tantas cosas son así... Nada de lo que creemos sobre el mundo que nos rodea es cierto en el mundo cuántico.


A veces la ciencia es muy poética.


Porque su herramienta es la imaginación, y eso es pura locura. A través de la imaginación descubrimos nuevos mundos, nueva materia, nuevas partículas, nuevos aspectos del espacio tiempo. Y volviendo a la política...


No, por favor.


Eliminar en época de crisis el dinero destinado a la investigación es arrebatar el futuro a las próximas generaciones, porque la tecnología del mañana se hace con la teoría de hoy.


Su maestro dijo que su mayor conclusión científica es que todo es posible.


Si mañana nos amenazara un gran meteorito, todas las naciones del mundo colaborarían. Cuando unimos todas nuestras energías, podemos lograr cosas que no lograríamos por separado, y espero que Europa llegue a entenderlo .

Amazon, Facebook, Google, IBM y Microsoft se unen para desarrollar Inteligencia Artificial

No es muy habitual que cinco grandes multinacionales se pongan de acuerdo en algo. Sin embargo, como una generosa excepción, Facebook, Google, Microsoft, Amazon e IBM han creado una sociedad con la que vigilar el crecimiento de la inteligencia artificial y evitar malas prácticas en el futuro.


Hasta hace no mucho, hemos visto cómo las grandes tecnológicas seguían su propio camino en esta disciplina. Sin embargo, algo ha hecho cambiar el criterio de estos cinco gigantes. Facebook, Google,Microsoft, Amazon e IBM han puesto en marcha “Partnership on AI”, una sociedad que pretende, según su página web, “estudiar y formular mejores prácticas en tecnologías de inteligencia artificial, avanzar en su comprensión por parte del público y discutir sobre su influencia en la sociedad”.


Aunque seguirán compitiendo entre sí, pues todas llevan tiempo investigando en este área, se han propuesto unificar criterios para evitar malas prácticas en el futuro. En este sentido, prometen ser muy vigilantes en materias como la ética y la privacidad, una de las grandes batallas de nuestro tiempo.


Sin Apple ni Twitter


“Partnership on AI” (Asociados en la inteligencia artificial) tiene como objetivo, dice, “apoyar la investigación y recomendar las mejores prácticas en áreas como la ética, la equidad y la inclusión; la transparencia y la intimidad; la colaboración entre las personas y los sistemas de inteligencia artificial”.


Esta asociación, a la que todavía no se han sumado ni Apple ni Twitter, pretende ser una especie de consejo de sabios. Aspira a reunir regularmente a expertos en disciplinas como la psicología, la filosofía, la economía o la sociología “para discutir y y orientar sobre las nuevas cuestiones relacionadas con el impacto de la inteligencia artificial en la sociedad”.


(Tomado de ABC)

Optogenética: encender y apagar neuronas para entender el cerebro

¿Qué haría usted con tres millones de dólares? La pregunta parece el reclamo publicitario de un anuncio de loterías. La respuesta, en ese caso, sería la habitual retahíla de objetos lujosos y prescindibles: yates, chalets, cruceros, cochazos... Cosas caras (incluso divertidas) que el dinero puede comprar. Cuando un periodista le hizo esa pregunta a Ed Boyden tiempo después de haber ganado el premio Breakthrough -el más cuantioso al que puede optar un científico, dotado con exactamente tres millones de dólares-, de sus planes no surgió una sola frivolidad. Reconoció, con cierto pudor, que había destinado una cantidad a asegurar la educación de sus hijos para el futuro. El resto, como todo en su vida, lo dedicó a la ciencia, concretamente a financiar experimentos “demasiado locos”, según sus palabras, para encontrar financiación. Esas investigaciones locas son las que han permitido encontrar soluciones terapéuticas inimaginables o resolver grandes enigmas científicos en el campo de la biología. Un terreno en el que, quizá, la gran incógnita continúa siendo cómo funciona el órgano que nos permite hacernos tantas preguntas: nuestro propio cerebro.


Gracias a Ed Boyden estamos un poco más cerca de comprender esa máquina tan compleja que hace única a nuestra especie. El cerebro humano tiene cientos de miles de millones de neuronas, miles o decenas de miles de células diferentes, de distintas formas, conectadas a través de un intrincado circuito que activa distintas regiones cerebrales. Pero a pesar de su dificultad, si queremos encontrar la solución a desórdenes neurológicos como el Alzheimer, por ejemplo, la única posibilidad es conseguir desentrañar el funcionamiento del cerebro. Hasta ahora estas enfermedades han sido enfrentadas con tratamientos químicos o estimulación eléctrica de las neuronas. Ambas técnicas comparten los mismos problemas, en opinión de Boyden. En primer lugar no curan la enfermedad, en el mejor de los casos consiguen paliar los síntomas. Y, en segundo, no es posible controlarlas de forma precisa, con lo que a veces el daño que se produce en las neuronas que rodean las células afectadas es muy importante. ¿Cómo entonces curar estas enfermedades? La única posibilidad es conocer exactamente cómo funciona el cerebro y qué células entran en juego en cada caso. Y eso es lo que Boyden está intentando descubrir a través de la optogenética, una nueva tecnología que ha diseñado junto a Gerhard Nagel y Karl Deisseroth.


La idea -sencilla como todas las ideas hermosas- consiste en conseguir que las neuronas se iluminen cuando entran en funcionamiento aprovechando las descargas eléctricas que producen. Para ello, hay que inocular en las células de nuestro cerebro una proteína que existe en determinadas algas capaces de convertir la luz en electricidad. Esto nos permitiría activar o desactivar células a distancia sin dañar a sus vecinas. La sencillez de la idea encierra, sin embargo, una gigantesca dificultad para ser llevada a cabo. Algo que no asusta a Boyden, creador del principio de pereza aplicada “a veces hacemos demasiadas cosas sólo para estar ocupados. Y eso no es necesariamente lo correcto, cuando podrías estar pensando en una idea mejor con un mayor poder de transformación”.


Aun en sus primeros pasos, la optogenética, cuenta con unas enormes posibilidades de desarrollo y ya ha sido probada con éxito en experimentos con animales para curar algunos tipos de ceguera, actuando sobre las células de la retina.

“Necesitamos practicar la medicina sin riesgos, asegura, y hacer que la resolución de enfermedades complejas sea tan sencillo como programar una aplicación para un teléfono. Podemos hacerlo verificando previamente el terreno; es decir, mapeando los bloques que constituyen la vida, entendiendo cómo funcionan y qué es lo que se estropea cuando están enfermos”. Suena casi como echarse una partida al Minecraft para comprender cómo se puede construir un puente antes de lanzarse a mezclar el hormigón y el acero. Con gente como Ed Boyden, en un futuro, será así...


Edición: Maruxa Ruiz del Árbol / Mikel Agirrezabalaga
Texto: José L. Álvarez Cedena

Sábado, 24 Septiembre 2016 06:36

La jaula mundial

La jaula mundial

“La tecnología prometió liberarnos. En lugar de eso nos ha capacitado para aislarnos del mundo a través de la cultura de la distracción y la dependencia. Poner en duda Silicon Valley no es oponerse a la tecnología. Es pedir más a nuestros tecnólogos, a nuestras herramientas, a nosotros mismos. Es situar la tecnología en el plano humano que le corresponde”. Formidable artículo de Nicholas Carr, quien fuera director del Harvard Business Review y que escribe sobre tecnología desde hace casi dos décadas.


Era la escena de una pesadilla: un chacal con la cara de Mark Zuckerberg estaba encima de una cebra recién muerta, royendo las entrañas del animal. Pero yo no estaba dormido. La visión llegaba al mediodía, provocada por el anuncio del fundador de Facebook -divulgado en la primavera de 2011– de que “la única carne que estoy comiendo es la de animales que he matado yo mismo”. Zuckerberg había comenzado su nuevo “reto personal”, aseguró a la revista Fortune, mientras hervía una langosta viva. Luego despachó a un pollo. Siguiendo con la cadena alimentaria, liquidó a un cerdo y cortó la garganta de una cabra. En una expedición de caza, según informó, le disparó a un bisonte. Él estaba “aprendiendo mucho”, dijo, “sobre la vida sostenible”.


Me las arreglé para eliminar la imagen del hombre-chacal de mi memoria. Lo que no pude evitar fue la sensación de que en el último pasatiempo del joven empresario yacía una metáfora a la espera de una explicación. Si tan sólo pudiera centrar la atención y juntar las piezas dispersas, podría conseguir lo que había buscado durante mucho tiempo: una comprensión más profunda de los tiempos extraños en que vivimos.


¿Qué representa el depredador Zuckerberg? ¿Qué significado podría tener la garra enrojecida de la langosta? ¿Y qué el bisonte, sin duda la más simbólica resonancia de la fauna americana? Estaba en lo cierto. Al menos, pensé, tenía que ser capaz de sacar una historia decente para mi blog. El artículo nunca fue escrito, pero muchos otros lo hicieron. Había comenzado a “bloguear” a principios de 2005, justo cuando parecía que todo el mundo estaba hablando de la ‘blogosfera’. Había descubierto, después de una pequeña investigación en el registro de dominios GoDaddy, que ‘roughtype.com’ estaba todavía disponible (un descuido característico de los pornógrafos), por lo que llame mi blog Rough Type (Tipo Rudo). El nombre parecía adaptarse a la crudeza provisional que tenía la calidad de la escritura en línea en ese momento.


El “blogueo” ya se ha subsumido en el periodismo -ha perdido su personalidad-, pero en aquel entonces se sentía como algo nuevo en el mundo, una frontera de lo literario. El disparate colectivista de los “medios conversacionales” y la “mente de la colmena” que llegó a rodear la blogosfera perdió su momento. Los blogs terminaron siendo producciones personales malhumoradas. Fueron diarios escritos en público, comentarios continuos de cualquier cosa que al escritor se le ocurriera escribir, lo que estuviera observando o pensando en el momento. Andrew Sullivan, uno de los pioneros, lo expresó así: “Usted diga lo que le dé la gana”. El estilo favorecía el nerviosismo de la web, necesitada de una agitación oceánica. Un blog era impresionismo crítico o crítica impresionista, y tenía la inmediatez de una discusión en un bar. Pulsabas el botón “Publicar”, y tu artículo se publicaba en la web, para que todos puedan verlo.


O, simplemente, ignorarte. Los primeros lectores de Rough Type fueron insignificantes, lo que, en retrospectiva, fue una bendición. Yo empecé a bloguear sin saber qué demonios quería decir. Solo murmuraba fuerte en un bazar. Luego, en el verano de 2005, llegó la Web 2.0. La Internet comercial, en estado de coma desde el accidente punto com de 2000, volvía a estar de pie, con los ojos abiertos y con hambre. Sitios como MySpace, Flickr, LinkedIn y la recientemente lanzada Facebook estaban sacando dinero de Silicon Valley. Los nerds se enriquecían de nuevo. Pero las jóvenes redes sociales, junto con el rápido incremento de la blogosfera y la interminablemente discutida Wikipedia parecían anunciar algo más grande que otra fiebre del oro. Eran, si se puede confiar en el bombo, la vanguardia de una revolución democrática en los medios de comunicación y la comunicación, una revolución que cambiaría la sociedad para siempre. Una nueva era estaba amaneciendo, con una salida de sol digna de la Hudson River School.


Rough Type tuvo su tema.


***


La mayor de las religiones locales de los Estados Unidos –mayor que los Testigos de Jehová, mayor que la Iglesia de Jesucristo de los Santos de los Últimos Días, mayor incluso que la Cienciología-, es la religión de la tecnología. John Adolphus Etzler, un emigrante a Pittsburg, tocaba la trompeta en su testamento “El paraíso al alcance de todos los hombres” (1833). Mediante el cumplimiento de sus “fines mecánicos”, escribió, “los EE.UU. se convertirían en un nuevo Edén, en un “estado de sobreabundancia”, donde “habrá un banquete continuo”, “fiestas del placer”, “novedades, deleites y ocupaciones instructivas”, sin que tenga que desdeñarse la “infinita variedad y apariencia de los vegetales”.


Predicciones similares proliferaron a lo largo de los Siglos XIX y XX, con visionarios que se rendían a “su majestad tecnológica”, como el crítico e historiador Perry Miller que escribió: “nos encontramos con el verdadero americano sublime”. Podríamos mandar besos a los agricultores como Jefferson y a los amantes de los árboles, como Thoreau, pero nosotros hemos creído en Edison y Ford, Gates y Zuckerberg. Son los tecnólogos quienes nos inspiran.


El ciberespacio, con sus voces sin cuerpo y avatares etéreos, parecía algo místico desde el principio, y su inmensidad no terrenal un receptáculo para los anhelos espirituales y los tropos estadounidenses. “¿Qué mejor manera -escribió el filósofo Michael Heim en “La ontología erótica del Ciberespacio” (1991) “de emular el conocimiento de Dios que generar un mundo virtual constituido por fragmentos de información”. En 1999, el año en que Google pasó de un garaje de Menlo Park a una oficina de Palo Alto, el profesor de computación de Yale, David Gelernter, escribió un productivo manifiesto sobre “la segunda llegada de la computadora, repleta de delgadas imágenes de ‘cybercuerpos’ a la deriva en el cosmos computacional’ y ‘hermosas colecciones de salida de información, como gigantes jardines inmaculados’”.


La retórica milenaria se incrementó con la llegada de la Web 2.0. “He aquí”, proclamó Wired en un artículo de portada en agosto de 2005, que estamos entrando en un nuevo mundo, impulsado no por la gracia de Dios, sino por la “electricidad de la participación” de la web. Esta será un “paraíso de fabricación propia, manufacturado por los usuarios”. Las bases de datos de la historia serán borradas, la humanidad se reinicia. “Usted y yo estamos vivos en este momento”.


La revelación continúa hasta nuestros días, el paraíso tecnológico brilla para siempre en el horizonte. Incluso los hombres de dinero se han contagiado con el futurismo ilusorio. En 2014, Marc Andreessen, cofundador de la empresa Netscape Communications Corporation y miembro prominente del capitalismo de riesgo, envió una rapsódica serie de tweets -lo llamó un “tweetstorm”- anunciando que las computadoras y los robots estaban a punto de liberar a todos de las “limitaciones de la necesidad física”. Convocando a Etzler (y a Karl Marx), él ha declarado que “por primera vez en la historia la humanidad podrá ser capaz de expresar su naturaleza plena y verdadera: vamos a ser quien queramos ser”. Y: “Los principales campos del esfuerzo humano serán la cultura, las artes, las ciencias, la creatividad, la filosofía, la experimentación, la exploración, la aventura”. Lo único que quedó fuera fueron los vegetales.


***


Tales profecías no deberían ser descartadas por ser una charla de chicos ricos consentidos, sino porque han conformado la opinión pública. Mediante la difusión de una visión utópica de la tecnología, una visión que define el progreso como esencialmente tecnológico, han animado a la gente a apagar sus facultades críticas y dar a los empresarios y a los financieros de Silicon Valley vía libre para rehacer la cultura y adaptarla a sus intereses comerciales.


Si, después de todo, los tecnólogos están creando un mundo de sobreabundancia, un mundo sin trabajo o casi, no quieren que se ponga en duda que sus intereses son indistinguibles de la sociedad. Interponerse en su camino, o incluso cuestionar sus motivos y tácticas, sería contraproducente. Eso sólo serviría para retrasar la inevitable maravilla.


Los teóricos de las universidades y tanques pensantes le han otorgado una impronta académica a la línea de Silicon Valley. Los intelectuales que abarcan el espectro político desde la derecha randianista hasta la izquierda marxista, han retratado la red informática como una tecnología de la emancipación. El mundo virtual, argumentan, proporciona un escape a las represivas restricciones sociales, corporativas y gubernamentales; libera a las personas para ejercer su voluntad y una creatividad sin límites, ya sea como empresarios que buscan riquezas en el mercado o como voluntarios que participan en la “producción social” fuera del mercado. Como escribió el profesor de derecho de Harvard, Yochai Benkler, en su influyente libro “La Riqueza de las Redes” (2006):


Esta nueva libertad es una gran promesa práctica: una dimensión de la libertad individual; una plataforma para una mejor participación democrática; un un medio para fomentar una cultura más crítica y auto-reflexiva; y, en una creciente economía global dependiente cada vez más de la información, un mecanismo para lograr mejoras en el desarrollo humano en todas partes.


Llamarla una revolución, dijo, no es una exageración.


Benkler y su grupo tuvieron buenas intenciones, pero sus suposiciones no eran acertadas. Ellos pusieron demasiado entusiasmo en la precoz historia de la web, cuando las estructuras comerciales y sociales del sistema eran incipientes y sus usuarios eran una muestra sesgada de la población. No pudieron apreciar cómo la red canalizaría las energías de la gente en un monitoreado sistema de información con administración centralizada, organizado para enriquecer a un pequeño grupo de empresas y a sus propietarios.


La red generaría mucha riqueza, pero sería la riqueza de Adam Smith – y que se concentraría en unas pocas manos, no muy extendidas. La cultura que surgió en la red, y que ahora se extiende profundamente en nuestras vidas y en nuestras mentes, se caracteriza por la producción y el consumo frenético -los teléfonos inteligentes han hecho de todos nosotros máquinas al servicio de los medios de comunicación–, con poco poder real y aún menos capacidad reflexiva. Es una cultura de la distracción y la dependencia. Eso no significa negar los beneficios que supone tener acceso a un eficiente y universal sistema de intercambio de información, sino negar la mitología que envuelve el sistema. Supone negar la teoría de que el sistema, con el fin de crear beneficios, tuvo que tomar su forma actual.


Al final de su vida, el economista John Kenneth Galbraith acuñó el término de “fraude inocente”. Lo utilizó para describir una mentira o una verdad a medias que, debido a su adaptación a las necesidades o conceptos de aquellos que están en el poder, se presenta como un hecho verídico. Después de mucha repetición, la ficción se convierte en sabiduría común. “Es inocente porque la mayoría de quienes lo emplean no son conscientes de su error”, escribió Galbraith en 1999. “Es un fraude porque está, silenciosamente, al servicio de un interés especial”. La idea de la red informática como motor de la libertad individual es un fraude inocente.


Me encantan los buenos artilugios. Cuando, como adolescente, me senté en un ordenador por primera vez – una cosa con terminal monocromática conectadaa un procesador de computadora central de dos toneladas -, estaba maravillado. Tan pronto llegaron las asequible PCs me rodeé de cajas de color beige, disquetes y lo que antes se llamaba “periféricos”. Una computadora, descubrí, es una herramienta de múltiples usos, pero también un rompecabezas con muchos misterios. Cuanto más tiempo pasaba en averiguar cómo funcionaba, en aprender su lenguaje y lógica, sondeando sus límites, más posibilidades se abrían. Al igual que la mejor de las herramientas, invita y recompensa la curiosidad. Además, fue muy divertida, a pesar de los dolores de cabeza y los errores fatales.


A principios de 1990, puse en marcha un navegador por primera vez y se me abrieron las puertas de la web. Yo estaba cautivado – mucho territorio y pocas reglas. Pero no pasó mucho tiempo para que llegaran otros aventureros. El territorio comenzó a ser subdividido a modo de centro comercial y, como el valor monetario de sus bancos de datos creció, se empezó a convertir en una mina de oro. Mi emoción se mantuvo, pero se vio atenuada por la cautela. Sentí que los agentes extranjeros empezaron a intervenir mi ordenador a través de su conexión a la web. Lo que había sido una herramienta bajo mi propio control fue transformándose en un medio bajo el control de otros. La pantalla del ordenador se estaba convirtiendo, como tienden a convertirse todos los medios de comunicación, en un entorno, en un ambiente, en un recinto, o peor, en una jaula. Parecía claro que los que controlarían la pantalla omnipresente serían, si se les daba vía, quienes controlarían la cultura.


“La Informática ya no se refiere a los ordenadores”, escribió Nicholas Negroponte, del Instituto de Tecnología de Massachusetts en su bestseller Ser digital (1995). “Se trata de la vida”. Por eso en este siglo Silicon Valley estaba vendiendo, más que aparatos y software, una ideología. El credo se estableció en la tradición estadounidense de la tecno-utopía, pero con un toque digital. Los fanáticos de Silicon Valley eran feroces materialistas – lo que no puede ser medido no tiene sentido-, sin embargo, detestaban lo material. En su opinión, los problemas del mundo, desde la ineficiencia y la desigualdad a la morbilidad y la mortalidad, emanaban del físico mundo, a partir de su realización en la torpe e inflexible materia en descomposición. La panacea era la virtualidad – la reinvención y la redención de la sociedad en código informático. Nos construirían un nuevo Edén con átomos, pero sí con bits. Todo lo que es sólido se derretiría en su red. Esperábamos estar agradecidos y, en su mayor parte, lo estábamos.


Nuestro anhelo de regeneración a través de la virtualidad es la última expresión de lo que en Sobre la fotografía (1977), Susan Sontag describe como “la impaciencia de EEUU con la realidad, el gusto por las actividades cuya instrumentalidad es una máquina”. Lo que siempre hemos encontrado difícil de admitir es que el mundo sigue un guión que no escribió. Esperamos que la tecnología no sólo manipule la naturaleza, sino que la posea, que sea una envoltura para un producto que puede ser consumido pulsando un interruptor de luz o un pedal de gas o un botón que disparo. Anhelamos

reprogramar la existencia, y las computadoras es el mejor medio para hacerlo. Nos gustaría ver este proyecto como heroico, como una rebelión contra la tiranía de un poder ajeno. Pero no es eso en lo absoluto. Es un proyecto que nace de la ansiedad. Detrás se encuentra el temor de que el mundo atómico desordenado se rebelará contra nosotros. Lo que Silicon Valley vende y compramos no es la trascendencia, sino el aislamiento. La pantalla proporciona un refugio, un mundo mediático más predecible, más manejable, y sobre todo más seguro que el mundo recalcitrante de las cosas. Acudimos a lo virtual porque las demandas reales son demasiado pesadas para nosotros.


“Usted y yo estamos vivos en este momento”. Esa historia de Wired – bajo el título “We Are the Web“- me fastidiaba tanto como el entusiasmo por el renacimiento de internet en el 2005. El artículo era irritante, pero también una inspiración. Durante la primera semana de octubre, me senté en mi Power Mac G5 y elaboré una respuesta. El lunes por la mañana, publiqué el resultado en Rough Type – un breve ensayo bajo el portentoso título “La amoralidad de la Web 2.0”. Para mi sorpresa (y, lo admito, placer), los blogueros abundaban alrededor de la nota como fagocitos. En cuestión de días, había sido visto por miles de personas y había brotado una cola de comentarios.


Así comenzó mi discusión -cómo debo llamar este fenómeno cuando hay tantas opciones: la era digital, la era de la información, la era de Internet, la era del ordenador, la edad conectada, la era de Google, la era emoji, la era nube, la era teléfono inteligente, la era de los datos, la era de Facebook, la era robot, la era post-humana. Entre más nombres usaba, más vaporoso parecía. En fin, esta es una era orientada a los gerentes de marca. Terminé por llamarlo el “Now” (ahora).
Fue a través de mi discusión sobre ese “Now”, una discusión que ha generado más de un millar de artículos en blogs, que llegué a mi propia revelación; sólo a una modesta y terrestre revelación. Lo que quiero de la tecnología no es un mundo nuevo. Lo que quiero de la tecnología son herramientas para explorar y disfrutar el mundo que tenemos ante nosotros con todas sus “cosas contrastantes, originales, restantes, extrañas”, como Gerard Manley Hopkins lo describió una vez. Quizás todos podemos vivir ahora dentro de Silicon Valley, pero todavía podemos actuar y pensar como exiliados. Todavía podemos aspirar a ser lo que Seamus Heaney, en su poema “Exposure”, llamaba “emigrantes interiores”.


Y acerca de aquel bisonte muerto. De aquel multimillonario con una pistola. Supongo que el simbolismo era bastante obvio desde el principio.

 

23 septiembre 2016
Original en inglés: The world wide cage
(Artículo publicado en Aeon.co. Traducido para Cubadebate por Dariena Guerra)

Martes, 20 Septiembre 2016 06:43

“Hoy llevamos la biblioteca a todos lados”

“Hoy llevamos la biblioteca a todos lados”

Mitra cuestiona los modos de enseñanza –basados en la memoria– y de evaluación –basados en el método– dominantes en el sistema educativo. Promueve la incorporación de las tecnologías informáticas al aula.

 

“Las personas que dirigen hoy el sistema educativo siguen pensado que cualquier cosa que tiene dos cables es tecnología, pero los niños no ven así el concepto y eso es un problema”, describió Sugata Mitra, uno de los principales investigadores sobre las tecnologías de la educación a nivel mundial. Mitra nació en la India hace 64 años, se graduó en el Instituto de Tecnología de Nueva Delhi y se doctoró en Física. Fue en Delhi donde realizó su experimento “El agujero en la pared”, que le dio fama internacional, cuando demostró que los niños, más allá de su conocimiento previo, podían utilizar correctamente una computadora sin que nadie les dijera cómo: les alcanzaba con observar para aprender. Mitra es crítico de los procesos educativos que excluyen las tecnologías del aula, pero también de los docentes que la utilizan sin su adecuado conocimiento. Actualmente dicta clases sobre tecnologías educativas en la Universidad de Newcastle, ciudad donde vive en Inglaterra.


“Lo que entendemos ahora por acceso a la tecnología es quién tiene acceso a internet y quién no. Después, la frecuencia con la que la usan. Existen tres categorías: las personas que no usan internet, las que la usan y no hacen mucho, y las que la utilizan las 24 horas del día. La gente que no tiene internet está decreciendo. De siete billones son dos billones los que no tienen acceso”, dice, en una entrevista con Página/12.


–¿Cómo se saldan las diferencias económicas en el acceso y el uso de las tecnologías?


–Si efectivamente hay acceso, no hay diferencia. El problema es socioeconómico. Es probable que las empresas de telecomunicaciones provean mucho menor ancho de banda donde hay menos gente, porque les interesa menos. Los gobiernos deben proveer donde las empresas no van a llegar.


–¿Hay resistencia a la tecnología en las escuelas?


–Sí, de tres tipos. Los que dicen no necesitar tecnología para enseñar, esos a veces tienen un problema de ego: el que no la necesita es porque es muy bueno, el problema es que hay muy pocos. Los que dicen saber todo acerca de la tecnología y no quieren recibir ayuda, pero sólo usan el PowerPoint pensando que eso es tecnología: son los más peligrosos, porque piensan que están actualizados, pero no. Y el tercer tipo, con el que más empatizo, son los docentes que saben que el sistema educativo tiene 200 años funcionando y, como no tienen tiempo para incorporar tecnologías a sus clases, no lo hacen: a este sujeto debe apoyar el gobierno, sacándole carga horaria para que pueda incorporar tecnología en la enseñanza.


–¿Por qué dice que la educación es invasiva?


–El viejo modelo militar-industrial asume que uno llega vacío a la escuela. Entonces el sistema te desarrolla la mente y la inteligencia, como si la mente fuera una máquina industrial, pero sabemos que no lo es. Por eso es invasiva, se apropia de la mente.


–¿Qué le critica al actual modelo de enseñanza?


–Se da por sentado que memorizar es igual a saber, pero no tiene por qué ser así. La otra premisa que no se cuestiona es que se necesita saber una cantidad de datos por si los necesitás algún día. Eso tiene su base en la idea de que no podés llevar con vos la biblioteca a todos lados, pero es un error, un concepto antiguo, porque hoy sí tenemos la capacidad de llevar la biblioteca a todos lados. Es casi una creencia que, si buscás todo el tiempo datos en tu biblioteca digital, tu cabeza esta vacía. Es una concepción peligrosa, porque cuando uno busca algo está aprendiendo. Sucede que muchas cosas se buscan sólo una vez. El sistema educativo hoy intenta amontonar todo en los primeros 17 años, pero la verdad es que la educación se expande a lo largo de toda la vida.


–¿Cuál cree que sería el mejor método para comprobar el conocimiento?


–Estamos trabajando en eso, tengo parte de la respuesta. Hay que concentrarse en el trabajo productivo por encima del método. Un ejemplo: si le pedís a alguien que te haga el desayuno, pero la evaluación es que describa cómo lo prepara, una persona que no sabe probablemente fracasaría. Pero si el examen es que traiga un desayuno que preparó, y lo hizo rico, no me interesa cómo lo hizo. A eso me refiero con el producto final y no con el proceso.


–¿Por qué se tomó siempre el proceso como lo más importante?


–Son hipótesis sobre las que seguimos elaborando. Si vas en un barco a un lugar que no conoces, y necesitás averiguar latitud y longitud, debes saber el método exacto, tenés que saber hacer ese cálculo. Ese mundo es relativamente nuevo, existe hace 150 años y exige saber el método, no había un rango de métodos. Esa sociedad creó un método de evaluación donde lo importante era el proceso, así funcionó muchos años el mundo.


–¿El método que usted pregona es superador del anterior modo de enseñanza?


–A veces estoy confundido con ese tema. Es una cuestión de flexibilidad de qué método se usa bajo qué circunstancia.


–Antes de realizar el experimento que relata en el libro El agujero en la pared usted vivió una situación similar con su hijo. ¿Dónde está la racionalidad de que quien utilizó mejor el objeto nuevo fue quien tenía menos conocimiento previo?


–El propósito de esa anécdota es para decir dos cosas: que los niños aprenden mirando, cosas complejas inclusive. Mi hijo sólo veía cómo yo utilizaba la computadora, pero un día yo no sabía qué hacer y él me orientó. La enseñanza en la actualidad no toma eso en cuenta.


El descubrimiento de Sugata Mitra fue probado en muchos países, con chicos de diferentes sectores sociales, algunos que asistían a la escuela y otros que no. Todos arrojaron resultados muy similares, que los niños aprendían rápidamente observando e interactuando entre ellos.


–¿Esto es extrapolable a la educación superior?


–Tal vez con adultos se obtengan mejores resultados, pero hasta el momento no se hizo nada. Cuando evalúan hoy a un ingeniero civil le preguntan cómo hacer un puente sobre tal río. El nuevo sistema de evaluación le diría cómo haría para averiguar qué tipo de puente hay que construir sobre este río. Ya no es cómo lo harías, sino cómo averiguas cómo hacerlo.


–¿Por qué?


–Un ingeniero que se graduó en la UBA hace varios años hoy tiene un conocimiento obsoleto, a menos que se haya actualizado. Su certificado ya no significa nada. Hace 150 años, 15 años no significaban nada, pero hoy es distinto. Yo me doctoré en Física hace 38 años, pero el 50 por ciento de lo que aprendí hoy sé que está mal. Si alguien usa ese título para hacer algo, quizá haga algo peligroso.


Antes de ponerse su boina e irse a comer un bife de chorizo a un restaurant de la zona, para después retornar a la sede del sindicato docente Fedun, donde brindó una charla para el nuevo Instituto de Investigación en Tecnologías y Aprendizaje creado por Aduba, Sugata Mitra contó que en Newcastle, hace algunos días, se cruzó con un chico al que le preguntó si le gustaba usar la tecnología. “¿Qué es la tecnología?”, le preguntó el chico. Mitra se quedó perplejo. “Hay un desfasaje muy grande –finalizó– entre quienes dirigen el sistema educativo y quienes asisten a las aulas.”

Publicado enCultura
Diez hechos sorprendentes sobre el cerebro humano

“Mi atención perseguía [...] células de formas delicadas y elegantes, las misteriosas mariposas del alma, cuyo batir de alas quién sabe si esclarecerá algún día el secreto de la vida mental...”


Así hablaba sobre las neuronas el científico español más importante, Santiago Ramón y Cajal.


Junto con Camillo Golgi, recibió el Premio Nobel en Medicina y Fisiología en 1906 por descubrir las neuronas y por formular teorías sobre cómo funciona el sistema nervioso.


Hoy por hoy, el trabajo de descubrir los misterios del cerebro continúa. Y es que, cuanto más investigamos sobre el cerebro humano, más enigmas se nos presentan ante nosotros.


Este poderoso órgano encierra una asombrosa complejidad en tan sólo un kilo y medio de peso y es el director de nuestro cuerpo, pensamientos y acciones.


Esta continuamente en marcha, consumiendo sus cien mil millones de neuronas hasta un 20% de nuestra energía. De hecho, con esa energía que genera podría iluminarse una bombilla de 20 vatios.


Esto es porque las neuronas intercambian a través de sus conexiones impulsos eléctricos y químicos a gran velocidad. Para hacerse una idea, el cerebro puede procesar hasta 10 elevado a 27 bits por segundo.


Dejando aparte todos estos impresionantes hechos, existen más descubrimientos sobre el cerebro que la ciencia brinda y son dignos de conocer.


1. En la tercera semana de gestación se producen 200.000 células al minuto


Sobre los 18 días de gestación, las células se ponen en marcha para comenzar a formar el sistema nervioso. En las primeras 20 semanas las neuronas van a empezar a nacer masivamente, produciéndose más de 200 mil cada minuto.
Posteriormente se van situando y organizando en distintas capas, creando poco a poco la estructura cerebral adulta.


2. Existe un mecanismo natural que mata las neuronas


Curiosamente, al nacer el bebe tiene el mismo tamaño cerebral que el adulto y posee muchas más neuronas de las que necesita a lo largo de su vida.


Este proceso de muerte neuronal se conoce como “apoptosis”. En el nacimiento se tienen el doble de neuronas de las que realmente se van a utilizar. Una vez que alcanzan sus lugares correspondientes y empiezan a conectarse entre sí, las sobrantes e innecesarias se eliminan poco a poco.


3. Hay partes del cerebro que se desarrollan más rápido que otras


El crecimiento del cerebro no es lineal. Al contrario; tiene picos de más y menos crecimiento según las distintas etapas de la vida.


Primero se desarrollan las áreas dedicadas a reacciones más simples que permiten la supervivencia, por ejemplo, las que manejan los sentidos. El tacto es el primer sentido que se desarrolla.


Más adelante van evolucionando las zonas que se encargan de tareas más complejas, como el área prefrontal del cerebro que se vincula con el autocontrol, la resolución de problemas, la reflexividad, la toma de decisiones...


Por otra parte, la complejidad de la corteza cerebral se correlaciona con el desarrollo de conductas progresivamente más elaboradas (Roselli, 2003).


De hecho, esta parte del sistema nervioso es la que más tarde finaliza su desarrollo, creciendo hasta los 21 años de edad o más. Sin embargo, también es la que primero se deteriora con el paso del tiempo.


Así, las distintas regiones de la corteza cerebral se desarrollan en momentos diferentes: primero las áreas sensoriales y motoras primarias, y luego las áreas de asociación parietales y frontales.


Un método para medir el avance del sistema nervioso es su peso: a más peso, más desarrollo.


4. El ambiente en el que se vive puede modificar el cerebro


Está claro que si de pequeño una persona crece en un ambiente lleno de experiencias, juguetes, libros, música, etc. (un ambiente enriquecido) va a aprender más cosas, lo que se refleja en un mayor desarrollo de su cerebro.


Estos tipos de ambientes provocan un aumento de las conexiones neuronales del cerebro, manteniéndolo estimulado y activo. Sin embargo, si en el entorno no hay recursos es posible que el sistema nervioso no alcance todo el potencial deseado.


5. Algunos acontecimientos pueden provocar la muerte de neuronas


Durante la vida o tras alguna lesión cerebral, algunas neuronas mueren. Esto ocurre por diversas causas, por ejemplo: el estrés, el tabaco, abuso de drogas o fármacos, dormir poco o ciertas enfermedades neurológicas.


Un adulto promedio puede perder en situaciones normales de 10.000 a 50.000 neuronas cada día (O’Connor, Wells & Applegate). Lo patológico es perder muchas más de manera continuada, como ocurre en la enfermedad de Alzheimer.
Lo cierto es que nunca más vuelven a nacer otras neuronas nuevas, sólo las que ya existen se organizarán de la mejor manera que puedan para compensar la pérdida. Esta capacidad del cerebro para cambiar adaptándose al medio se denomina plasticidad neuronal.


No obstante, en las últimas investigaciones se ha descubierto que nacen nuevas neuronas en algunas partes del cerebro como el bulbo olfatorio. Esperaremos más estudios científicos para confirmarlo.


6. El cerebro procesa y almacena lo aprendido durante el sueño


Este es uno de los motivos por el que dormir bien es fundamental. El cerebro aprovecha este momento en el que no llegan estímulos del exterior para afianzar lo aprendido durante el día.


Hay numerosos estudios que confirman esto. Por ejemplo: después de aprender cosas nuevas, se tiene más cantidad de sueño REM (la etapa en la que se sueña). Por otro lado, también se ha demostrado que si no se duerme lo suficiente, los recuerdos no se almacenan tan bien como deberían.


7. El cerebro no puede sentir dolor


El cerebro puede interpretar el dolor en otras partes del cuerpo, pero, una herida directamente en este órgano no provoca dolor alguno.


¿Por qué ocurre esto? Porque el cerebro no contiene nociceptores, también llamados receptores del dolor.


Muchos neurólogos se han valido de esto para intervenir en pacientes con lesiones y para la investigación con animales. Así, pueden estimular ciertas partes del cerebro pasando corrientes eléctricas, o registrar su actividad mientras los sujetos están despiertos sin que sufran.


8. El cerebro posee las neuronas de la empatía


Las neuronas espejo se activan al intentar predecir lo que otra persona va a hacer, o al hacer suposiciones sobre lo que está sintiendo.


Por ejemplo: cuando observas a alguien haciendo un movimiento, en el cerebro se activan las mismas áreas que esa persona está activando para realizarlo. Eso sí, es una activación muy leve que no llega a ser suficiente para ponerse en marcha y hacer el mismo movimiento.


Gracias a estas neuronas las personas se pueden hacer una idea de cómo se encuentran los demás.


9. No se utiliza solo el 10% del cerebro


Está claramente demostrado que esta afirmación es falsa.


Siempre se usa el 100% del cerebro en todo momento, sólo que según las tareas que se estén llevando a cabo se activan algunas áreas más que otras.


Una prueba de que esto es sólo un mito son las lesiones cerebrales. Supongamos que no se utiliza el 90% del cerebro: si esto es verdad, una lesión cerebral no afectaría a las capacidades físicas y mentales. Sin embargo, esto no es así. Cualquier lesión cerebral por localizada que sea siempre da lugar a algún déficit en alguna de las habilidades.


Una segunda prueba convincente es lo observado en las técnicas de neuroimagen. Aun utilizando diferentes métodos para ver la actividad cerebral, no se han encontrado todavía zonas del cerebro que estén inactivas, a no ser que los tejidos estén dañados.


10. El cerebro utiliza un 20% del oxígeno del cuerpo


Una muestra de la importancia del oxígeno para el sistema nervioso es que sólo 5 minutos de su privación provocarían lesiones cerebrales.


De hecho, mueren neuronas cuando el cerebro recibe menos oxígeno del que necesita. Esto ocurre por ejemplo en fumadores o personas con apnea del sueño.


Por otro lado, el bostezo también está relacionado con el oxígeno y el cerebro. Según parece, bostezar puede ser una señal de que el cerebro necesita oxígeno. Cuando alguien bosteza entra una gran cantidad de oxígeno con el objetivo de mantener el funcionamiento adecuado del cuerpo.

 

nuevatribuna.es | Lifeder | Cinta Martos Silván 16 de Septiembre de 2016 (17:34 h.)
________________________________________
Referencias
- Ramón y Cajal, S. (1923). Recuerdos de mi vida, Capítulo VII. Centro Virtual Cervantes.
- Rosselli, Mónica. (2003). Maduración Cerebral y Desarrollo Cognoscitivo. Revista Latinoamericana de Ciencias Sociales, Niñez y Juventud, 1(1), 125-144. Retrieved September 16, 2016, from http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S1692-715X2003000100005&lng=en&tlng=es
- O’ Connor B., Wells C. y Applegate, T. (2015). Health: You and Your World: Brief. Edition Total Health Publications
- Agustín Pavón, C. (18 de marzo de 2015). De Cajal y Golgi: el descubrimiento de la neurona. Obtenido de Investigación y Ciencia: http://www.investigacionyciencia.es/blogs/psicologia-y-neurociencia/30/posts/de-cajal-y-golgi-el-descubrimiento-de-la-neurona-11023
- List Of Things That Kill Brain Cells: The Death of Neurons. (s.f.). Recuperado el 16 de Septiembre de 2016, de Mental Health Daily: http://mentalhealthdaily.com/2014/03/01/list-of-things-that-kill-brain-cells-the-death-of-neurons/
- Martos Silván, C. (s.f.). 50 Interesantes Curiosidades sobre el Cerebro Humano. Recuperado el 16 de septiembre de 2016, de Lifeder: http://www.lifeder.com/curiosidades-cerebro/
- Marina, J.A. (2011). El Cerebro Infantil: la gran oportunidad. Ariel, Barcelona.

Los bigotes orientan a perros y gatos respecto del viento

¿Alguna vez se han preguntado cómo saben los perros y los gatos hacia donde sopla el viento? Los investigadores encontraron que esta capacidad se debe, en parte, a los bigotes.

"La mayoría de los mamíferos tienen bigotes organizados en filas y columnas regulares en las mejillas. Los mamíferos marinos, como la foca común, pueden utilizarlos para rastrear las corrientes marinas", afirmó Yan Yu, estudiante de doctorado de la Universidad Noroccidental y uno de los autores del artículo publicado en Science Advances, de Estados Unidos.

"En los mamíferos terrestres, se sabe muy bien que los bigotes pueden estar involucrados en el sentido del tacto. Pero nadie ha examinado si los mamíferos terrestres también podrían utilizarlos para sentir las corrientes aéreas", señaló.

Por consiguiente, Yu y sus colegas investigaron el papel de los bigotes en la capacidad de los mamíferos para sentir la dirección del viento al colocar cinco ratas de edad similar entrenadas para ubicar la fuente del viento desde un abanico particular en una mesa circular.

Pasos de la investigación

A lo largo de la circunferencia de la mesa, cinco aficionados ubicados a la misma distancia fueron colocados en un semicírculo y prendieron al azar un ventilador para soplar aire a través de una misma "puerta de inicio" localizada al otro lado de la mesa.

Una rata tenía que correr desde la puerta hacia el ventilador que soplaba el aire y bajar por un agujero del tamaño de una rata en frente del abanico. Todos los agujeros conducen a un túnel debajo de la mesa, donde la rata era recompensada por elegir el abanico correcto.

Después de que las ratas realizaron la tarea con un éxito de cerca de 60 por ciento durante 10 días consecutivos, los investigadores les cortaron los bigotes y analizaron los cambios en el comportamiento.

Los resultados mostraron que retirar los bigotes redujo en cerca de 20 por ciento promedio el desempeño de los roedores.

Sábado, 27 Agosto 2016 11:41

Elogio al bibliotecario público

Elogio al bibliotecario público

Elogio a esa mujer u hombre que silenciosos deambulan entre estantes y libros, día tras día, semana tras semana, año tras año. Elogio a ese bibliotecario público que quizás llegó al oficio por accidente y hoy ha descubierto una pasión de vida, ama de verdad su oficio y se entrega con todo a él. Elogio a esa persona que abre puertas a jóvenes, niños y adultos para que se aventuren al fabuloso mundo de la lectura, a que descubran que las utopías son posibles y los sueños proyectos realizables. A esa bibliotecaria que no es guardiana sino anfitriona; que propicia a que muchas personas encuentren su vocación de escritor, de simple lector, de investigador, sociólogo, científico, médico, historiador, ingeniero o maestro. Elogio a ese bibliotecario que no es egoísta con sus tesoros, que los comparte generosamente; que vive entre libros —pero también entre personas—; que cuida de ellos, los mima, los limpia y los restaura, que propicia la ágil circulación del saber. Ser bibliotecario es realizar uno de los más antiguos oficios del mundo, uno que ha sido desempeñado por personajes tan famosos como los hermanos Grimm, como los papas Nicolas V y Pío XI, por Benjamín Franklin y Mao Tse Tung, por Golda Meir y Giacomo Casanova, por Goethe y por Lewis Carroll, por Rubén Darío, y también por León Felipe, Jorge Luís Borges, Mario Vargas Llosa y Stephen King, pero también, y quizás más importante, por miles de personas anónimas que no conocemos y cuyos nombres no quedaron registrados en los anales de la historia, pero que sin lugar a dudas dejaron huellas profundas en la formación y educación de millones de personas al recomendar el libro preciso, en el momento preciso, por rastrear un libro perdido, por recuperar uno que amenazaba ruina, por ubicar el tomo perdido entre las estanterías para que el usuario pudiera leerlo, ansiosamente y con deleite, y que además. Al momento del contacto humano, entregan no solo el libro sino una sonrisa. Elogio a todos los bibliotecarios públicos, y también a los de bibliotecas privadas, claro está, a los de grandes colecciones pero también, y en especial, a los de las pequeñas bibliotecas de provincia, en donde se prestan menos de cuatrocientos libros en un semestre, pero que para esos lugares es una cifra considerable; elogio a esos bibliotecarios, hombres y mujeres, que con su oficio logran sustraer a la juventud de otras distracciones que no redundan en nada positivo para la educación de ella y más bien, con su amoroso oficio, inculcan el amor por la lectura. A todos ellos rindo homenaje.

Publicado enEdición Nº227