“Tenemos que repensar la universidad”
“Tenemos que repensar el significado de la universidad pública. El asunto no es sólo quién tiene acceso a la universidad, ni cuánto cuesta, sino más bien qué responsabilidad asume ante la sociedad, qué diálogo puede construir con los distintos actores públicos.” La frase es del presidente de la Asociación Internacional de Sociología (ISA), Michael Burawoy, que visitó Buenos Aires para participar del Foro Internacional de Sociología. Británico y marxista, residente en Estados Unidos y profesor de la Universidad de Berkeley, Burawoy mantiene un blog titulado “Universidades en crisis”, tal como nombró a la conferencia que brindó en un seminario de la Untref antes de dialogar con Página/12.


–¿A qué se refiere cuando habla de crisis en la universidad?


–Lo primero para decir es que no creo que las universidades argentinas estén en crisis. Estuve recientemente en Chile, y podría afirmarlo allí, pero no necesariamente en Argentina. Hay cuatro aspectos distintivos, al menos desde un punto de vista exterior, sobre la universidad argentina. En principio, el sistema público domina totalmente; segundo, el ingreso es abierto; tercero, es básicamente gratis; cuarto, hay elecciones democráticas para su administración. Entiendo que estos puntos nunca se dan de modo acabado, pero al menos a primera vista es un conjunto único en el mundo y un buen punto de referencia para evaluar y entender otros sistemas de educación superior.


–Otros sistemas que, al parecer, sí están en crisis. ¿A qué se refiere con ello?


–Hay cuatro crisis que afectan a las universidades en el mundo, aunque lo hacen en grados distintos según los lugares. La primera es una crisis fiscal. En casi todo el mundo la universidad parece haber dejado de ser un bien público para pasar a ser un bien privado que debe financiarse a sí mismo. Se busca obtener dinero de los estudiantes. En Inglaterra pagan alrededor de 10 mil libras cada año. En Chile, obviamente, las protestas tienen que ver con esto. También en Estados Unidos, en la universidad donde trabajo, han incrementado las cuotas tres veces en los últimos diez años. Otra forma de obtener dinero es a través de donaciones de gente rica, y ciertamente varias universidades son exitosas en esto. Pero la otra gran fuente, en realidad, es la investigación: se vende el conocimiento. Más allá de quién se queda con el dinero, la lucha por el patentamiento y los derechos de propiedad intelectual... lo cierto es que la venta del conocimiento se ha transformado en una fuente de ingreso creciente. Esto afecta en la medida en que sólo las disciplinas que generan dinero se vuelven importantes, como medicina, biología, ingeniería, etcétera, mientras que las ciencias sociales y humanas tienen grandes dificultades para sobrevivir.


–¿Cuáles son las otras tres crisis que observa?


–Tenemos también una crisis de gobierno en las universidades. La pregunta aquí es si vamos a construir universidades como corporaciones, que trabajen como multinacionales, o si vamos a continuar con el antiguo sistema colegiado donde las facultades forman parte de la administración. Es una disputa entre dos visiones, y por ahora el modelo corporativo es el que gana. Por eso tenemos cada vez más administradores vendiendo la universidad a los estudiantes y al mercado. La tercera crisis que ubico es la que llamo crisis de legitimidad. No bien la universidad se convierte en un bien privado, por el que tenemos que pagar para ingresar, no bien pierde su autonomía vendiéndose a las corporaciones, su apoyo público disminuye, cae su legitimidad. Luego tenemos la cuarta crisis, la de identidad. Profesores, estudiantes, administradores, empiezan a preguntarse qué significa la universidad, y por lo general tienden a confundir lo que en verdad es, el verdadero rol que ocupa en la sociedad. Estas cuatro crisis, por supuesto, están interrelacionadas.


–¿Qué expresiones de este proceso encuentra en Latinoamérica?


–En Chile, por ejemplo, crecen las universidades privadas, así como las cuotas y las protestas estudiantiles. El sistema universitario chileno tiende a ser bastante elitista, y tiene una particularidad: casi ningún estudiante trabaja mientras estudia. Las familias cargan con los préstamos, por eso las protestas estudiantiles son tan interesantes e inusuales. Están apoyadas por los padres, los abuelos, por toda la familia, algo insólito para Europa. En Estados Unidos los estudiantes sacan préstamos para pagar sus cuotas universitarias, pero trabajan, y asumen responsabilidades para afrontar sus deudas. La lógica es individualista, es el alumno el que paga el préstamo, y no la familia. Es más, cuando tenemos una crisis económica y los estudiantes van a las protestas, la gente les dice “ustedes de qué protestan, son más ricos que nosotros”. De modo que, en realidad, el público en general no suele estar a favor de las protestas estudiantiles. Es el opuesto de lo que sucede en Chile. Y acá en Argentina lo asombroso es que aún mantengan la educación pública. Es un milagro, quiero decir, tiene sus problemas, pero no deja de ser asombroso. Parece una forma extrema del antiguo modelo de educación pública.


–¿Qué puede hacer la universidad para contrarrestar este proceso de crisis que describe?


–Hay dos conjuntos de presiones exteriores que las universidades deben contrarrestar. El primero es la mercantilización y la presión por obtener dinero a cambio de la producción de conocimiento. Lo segundo es la importancia creciente de los rankings globales. Comenzaron en China. La Universidad de Shanghai quería evaluar a las universidades chinas comparándolas con las americanas, porque suponían que eran las mejores del mundo. Y con el tiempo la mayoría de los países comenzaron a evaluar a sus propias instituciones bajo el mismo sistema. El costo de este proceso es que los investigadores son incentivados para producir conocimiento en revistas occidentales, en inglés, mientras los problemas locales y nacionales se vuelven menos importantes, y hasta el enfoque de las cuestiones empieza a distorsionarse, porque el investigador debe situarse en la forma en que Estados Unidos o Europa entienden los problemas. Así, el capitalismo hoy en día tiene un sistema de ranking, y sabe, en base a ello, en qué universidades invertir. Por eso todos los países quieren tener una o dos universidades entre los primeros puestos.


–Acá no se les presta demasiada atención a los rankings mundiales de universidades...


–¿Crees que no, en serio? Los profesores son incentivados y obtienen más puntos si publican en una revista en inglés, incluso en Argentina, estoy seguro. Hay rankings en Latinoamérica también, y creo que los rectores de las universidades están buscando dónde aparecen. ¿Dónde aparece la UBA?, se pregunta el rector, ¿dónde aparece La Plata?, y compiten entre ellos al interior del país. Es una forma maliciosa de penetrar en los sistemas de educación.


–Y ante estas presiones exteriores, ¿pueden construirse modelos alternativos de incentivo y de producción?


–Bueno, habrá que ver si es posible crear modelos de discusión crítica en las universidades. ¿Puede una universidad constituir entre sus facultades, estudiantes e investigadores una comunidad en donde se discuta colectivamente qué es la universidad y cuál es su lugar en la sociedad? Los académicos suelen ser muy competitivos e individualistas.


–¿Qué rol tiene la sociología en introducir esta discusión?


–Depende de lo que se entienda por un sociólogo. Desde mi punto de vista, un cientista social vincula experiencias micro con parámetros macro desde la perspectiva de la sociedad civil. Los economistas, en cambio, tienen como punto de partida la expansión del mercado. Los politólogos lo hacen desde la consolidación del Estado y el poder. Creo, por lo tanto, que los sociólogos tienen un lugar especial en la constitución de la universidad pública como la entiendo, porque la universidad tiene que ser capaz de entablar un diálogo con la sociedad civil, no sólo con el Estado, y no sólo con el mercado.


Entrevista: ´

Publicado enInternacional
Déjese de ordenadores y utilice bacterias
Hay investigadores que creen que la miniaturización de los componentes electrónicos de los ordenadores llegará a un punto en el que, al alcanzar determinados límites físicos, será imposible bajar más de escala. Y que ese día está más cerca que lejos. Entonces, habrá llegado el momento de imitar o incluso tratar de echar mano directamente de estructuras microbianas, que puedan cumplir el papel de cables o de discos duros.
 

Otros científicos sostienen, sin embargo, que no tiene mucho sentido tratar de reproducir estructuras que la industria ha conseguido no solo reducir con habilidad, sino abaratar enormemente a lo largo de las últimas décadas, cuestiones en las que ha mostrado una elevada eficiencia. “El objetivo no es tanto replicar un ordenador en miniatura con otros materiales”, expone Francesc Posas, director del centro de ciencias experimentales y de la salud de la Universidad Pompeu Fabra de Barcelona. “Nosotros pretendemos programar un sistema vivo para que ejecute operaciones diseñadas por nosotros”, explica. Por ejemplo, células o sistemas de células.
 

Unos y otros investigadores trabajan para avanzar en lo que, desde distintos puntos de vista, se podrían denominar ordenadores biológicos.

 
En el primer grupo, aquellos que aspiran a mirarse en el espejo de los microorganismos para seguir bajando de escala y aumentar la velocidad de cálculo, se encuentran los investigadores británicos y japoneses que hace unos meses presentaron a unas bacterias con propiedades magnéticas como punto de partida para desarrollar una alternativa microscópica de futuro a los discos duros actuales. Científicos de la Universidad de Leeds en colaboración con un equipo de la Universidad de Agricultura y Tecnología de Tokio se fijaron en la bacteria Magnetospitillium magneticum, cuyo hábitat natural se encuentra en lagunas donde el oxígeno es escaso.

 
Cuando estos microbios comen hierro, unas proteínas que tienen en su interior crean minúsculos cristales de magnetita, el mineral más magnético que existe. El resultado es una especie de superficie imantada similar a la de los discos duros de los ordenadores.


Este componente destinado a albergar la memoria permanente de la computadora (frente a la memoria RAM, temporal) es uno de los que más espacio físico ocupan en el interior de la caja del ordenador. El primer disco duro, creado por el gigante informático IBM en 1954 pesaba una tonelada y podía almacenar 5 megabytes (Mb) de información (una canción de unos cuatro minutos grabada a calidad media en formato mp3 ocupa entre 3 y 4 Mb). Medio siglo más tarde es habitual encontrar memorias externas para uso doméstico de 260 gramos con capacidad de almacenamiento de 1 terabyte (con capacidad para 250.000 canciones grabadas en mp3, unos dos años de escucha seguida). La reducción de tamaño mientras se aumentaba la velocidad de acceso a los datos ha sido espectacular, pero quizás no se pueda mantener por mucho más tiempo.

 
Algo similar ha sucedido con los procesadores gracias, en buena parte, el uso de nuevos materiales como el silicio, además de la reducción de escala. Ya lo vislumbró allá por el año 1965 el cofundador de Intel, Gordon Moore, al vaticinar que el número de transistores de un chip se duplicaría aproximadamente cada dos años, una regla que en términos generales se ha ido cumpliendo. Pero, ¿hasta cuándo podrá seguir manteniéndose este ritmo?

 
“Estamos llegando a los límites de la fabricación electrónica tradicional”, señalaba la coordinadora del trabajo, Sarah Staniland, en una nota distribuida por la Universidad de Leeds. “Las máquinas que hemos utilizado para construir los ordenadores son torpes a pequeña escala, pero la naturaleza nos ha proporcionado la herramienta perfecta para solucionar este problema”, indica.

 
Tras estudiar el proceso por el cual las bacterias generan minidiscos duros en su interior —especialmente cómo moldean y posicionan los minúsculos imanes en su organismo—, los científicos reprodujeron este método y lo aplicaron en el laboratorio, de forma que consiguieron recubrir una superficie con imanes similares en un trabajo publicado en la revista Small. “Si seguimos usando los procesos industriales actuales, que básicamente consisten en obtener pequeños imanes a partir de trocear uno de gran tamaño, nos será cada vez más difícil producirlos más diminutos y con el tamaño y forma que necesitaremos para almacenar datos”.


La alternativa, para Johana Galloway, otra investigadora del equipo de Staniland, consiste en encargar este trabajo a las proteínas que se ocupan de ello en las Magnetospirillum magneticum y transforman el hierro en cubos magnéticos del mismo tamaño. Ya lo han conseguido, aunque aún queda trabajo. Especialmente en lo que se refiere a reducir el tamaño de los imanes.

 
También en Small, el mismo grupo —esta vez dirigidos por el equipo japonés—, ha publicado otro trabajo en el que se ha empleado otra proteína para desarrollar minicables eléctricos a través de nanotubos formados por lípidos. “En un futuro, podríamos conectarlos con otros componentes como parte de un ordenador biológico completo”, señala Masayoshi Tanaka, de la Universidad de Agricultura y Tecnología de Tokio.

 
Los cables de origen biológicos son otro de los modelos de la naturaleza que los investigadores pretenden replicar y aplicar a la parcela de la nanobiotecnología. Antes del trabajo de Small publicado hace semanas, otra investigación de la Universidad Hebrea de Jerusalén ya sugirió esta posibilidad. El artículo, que reprodujo Cell en marzo del año pasado, planteaba un nuevo sistema de comunicación entre las bacterias. Más allá de relacionarse a través de la secreción y absorción de moléculas, se descubrió que las bacterias emplean nanotubos para conectarse entre sí y que les sirven para intercambiar pequeñas moléculas, proteínas o incluso pequeños fragmentos genéticos conocidos como plásmidos.

 
No fueron bacterias, sino levaduras, los microorganismos empleados por un grupo de estudiantes de dos universidades valencianas (la Universitat de València y la Politécnica) para crear una pantalla con la que alcanzaron el tercer puesto de un concurso sobre biología sintética (International Genetically Engineered Machines) organizado por el Instituto Tecnológico de Massachusetts en 2009.

 
Los alumnos emplearon unas levaduras a las que les introdujeron en gen de la Aequiorina, una proteína con propiedades luminiscentes de las medusas. Estos microorganismos funcionaban como píxeles (la biopantalla tenía 96 cultivos celulares) que se encendían y apagaban para formar imágenes en respuesta a una señal eléctrica. Al recibir un impulso eléctrico, las levaduras abrían en sus membranas determinados canales que permitían la entrada en la célula de iones de calcio, que activaba la Aequoina y la emisión de luz.
 

Ya se trate de microimanes, nanocables o levaduras luminiscentes que funcionan como píxeles, la filosofía que subyace a todos estos casos es la misma: producir componentes hasta ahora elaborados de forma industrial a través de otros procesos con la ayuda o reproduciendo las estructuras de los microorganismos. Pero, en el fondo, se trata de copiar, de reproducir la estructura de los ordenadores actuales.

 
¿Tiene sentido competir con una industria que está consiguiendo buenos resultados no solo en cuanto al desarrollo de mayor capacidad de procesamiento, sino también a los costes del producto? ¿Merece la pena esforzarse en replicar una tecnología que ya funciona?


Ricard Solé, director del laboratorio de sistemas complejos de la Universidad Pompeu Fabra (UPF), no lo tiene nada claro. “Nosotros trabajamos en una computación que no intenta copiar los ordenadores convencionales. En lugar de ello, tratamos de diseñar sistemas biológicos capaces de tomar decisiones”, explica a este diario desde el Instituto de Santa Fe de Estados Unidos, donde es profesor externo.

 
“¿Qué es un ordenador”, se pregunta Francesc Posas, director de la unidad de señalización celular de la UPF. “Básicamente, es un circuito que procesa la información que recibe en función de una programación preestablecida y, a partir de ahí, arroja un resultado”.

 
El equivalente en la computación biológica consistiría en contar con un sistema programable vivo (una comunidad de células) de tal forma que, al ser introducido en un organismo, fuera capaz de captar distintas señales (moléculas) y, en función de estos estímulos químicos, ejecutar las órdenes aprendidas (segregar otras moléculas, por ejemplo).

 
Esto ya se puede hacer, en cierta medida, a través de la ingeniería genética mediante la manipulación de células aisladas. Pero la computación biológica da un paso más al ser capaz de combinar células modificadas para que la respuesta de unas sean los estímulos de otras, creando una especie de circuito y complicando la capacidad de cálculo del sistema.

 
Posas y Soplé, ponen el ejemplo, aún en el terreno de las hipótesis, del tratamiento de la diabetes a través de esta fórmula. El páncreas de los pacientes afectados por esta enfermedad es incapaz de producir (al menos de forma suficiente) insulina, la hormona encargada de trasladar la glucosa a las células para que la usen como energía. Para evitar un exceso de glucosa en sangre, las personas con diabetes se inyectan insulina de forma periódica. Junto a esta hormona, existe otra, el glucagón, que eleva el nivel de glucosa en la sangre. Su secreción también está alterada en los pacientes diabéticos. Del equilibrio de ambas depende la presencia adecuada de glucosa.
 

“Podríamos crear un circuito celular que fuera capaz de captar la presencia de glucosa en sangre y, en función de esta información, que secretara glucagón o insulina para tratar a los diabéticos”. Se trataría, de esta forma, de una terapia inteligente autorregulable.


Las células vivas, explica Ricard Solé, “han sido comparadas a menudo con un ordenador paralelo y, en muchos sentidos, rivalizan con el mayor supercomputador que exista en la actualidad. Es un ordenador peculiar, que detecta los cambios en el mundo en su superficie (en la membrana) y lleva a cabo los procesos de computación en su interior”, explica Ricard Solé. “Es un entorno fluido y muy ruidoso, pero con la ventaja de que las células son mucho más fiables que nuestros ordenadores y los fallos en las partes de la maquinaria molecular son rápidamente corregidos”.

 
Esta es la teoría, pero ¿se puede conseguir que varias células computen? “Sí, la cuestión es encontrar los límites de la complejidad de los procesos que pueden asumir”, responde Posas, una incógnita en la que se encuentra trabajando su equipo. Posas y Solé han demostrado que se pueden diseñar circuitos complejos de computación biológica usando como materia prima levaduras (organismos unicelulares) modificadas genéticamente. Lo hicieron en un trabajo publicado en Nature en 2011. Y demostraron que con tres células es posible construir computadoras biológicas que realicen más de cien funciones distintas.

 
“En electrónica es muy sencillo conectar transistores con cables eléctricos, en el mundo de la biología la información pasa de célula a célula segregando y detectando moléculas en el medio en el que se encuentran a través de la membrana. Ahora mismo estamos explorando los límites de la computación biológica”, explica.

 
Otro de los problemas a los que se enfrenta esta tecnología es su estabilidad. En el trabajo de Nature, coordinado por los dos investigadores de la Universitat Pompeu Fabra, los autores consiguieron que el sistema mantuviera el orden durante nueve generaciones de levaduras (36 horas). Tampoco están resueltos los potenciales riesgos de rechazo inmunitario de las células introducidas en pacientes con fines terapéuticos. En cualquier caso, son cuestiones que se deberán resolver cuando estas aplicaciones sean viables.

Publicado enInternacional
El descubrimiento del bosón de Higgs es, sin dudas, el más grande acontecimiento en el campo de la física en los últimos 50 años. Esta hazaña, fruto de 20 años de trabajo por parte de un equipo interdisciplinario de más de 3.200 científicos de 180 universidades del mundo, trabajando aunadamente, tiene numerosas implicaciones, alcances y significados en diversos planos. Quisiera considerar aquí tres significados filosóficos, así:

El carácter contraintuitivo de la ciencia
La ciencia contemporánea, particularmente a partir de comienzos del siglo XX hasta la fecha es alta y crecientemente contraintuitiva. Es decir, la percepción natural no es suficiente –y, en muchas ocasiones, incluso no es necesaria– para explicar o comprender los fenómenos de la realidad. El último giro de esta tendencia es el reciente anuncio del descubrimiento del bosón de Higgs. El acelerador de partículas en el CERN ayuda a ‘visualizar’ el bosón, cuya realidad, análogamente a los quarks, ha sido demostrada matemáticamente, aunque no físicamente. Y ciertamente no en términos físicos, si por ello se piensa en la física newtoniana que se ocupa(ba) de masas, cuerpos, volúmenes y magnitudes macroscópicas. La realidad del mundo se funda cada vez en el universo microscópico, y con ello en la física cuántica y los fenómenos subcuánticos.

La física cuántica es la física de partículas y fenómenos microscópicos, aunque también de fenómenos macroscópicos que existen o se plasman en la escala macroscópica, tales como los rayos láser, los superconductores y otros. Lo singular es que existen, adicionalmente, fenómenos y procesos de escala subcuántica, que son aquellos que tienen lugar en escenarios distintos de los de las partículas, tales como las cuerdas, las branas, las m-branas, y otros. La física ha abandonado el paradigma newtoniano, en rigor el de la mecánica clásica, según el cual la física se ocupaba de cuerpos, masas, volúmenes y magnitudes en el sentido visual o perceptual. La realidad física es mucho más que la de la material, e incluye también como procesos fundamentales a la energía y la información. La física ya no se ocupa de qué es y cómo es la realidad, sino de qué podemos decir acerca de la realidad.

El modelamiento y la simulación, el desarrollo de nuevas matemáticas y el trabajo conceptual y de imaginación se erigen cada vez más como factores determinantes para dar cuenta de los fenómenos y procesos más fundamentales de la realidad del universo y la naturaleza.

El (eterno) debate ciencia-religión y cosmología
El bosón de Higgs contribuye enormemente a la comprensión del origen y el desarrollo del universo. Así, el primer campo importante de reflexión es la cosmología, que, si clásicamente perteneció al mito y la religión, se hace ciencia particularmente a partir de la década de los 1970. Los acontecimientos que le dan estatuto científico propio han sido los descubrimientos según los cuales la totalidad del universo que literalmente vemos es tan solo el 4 por ciento. El otro 96 es materia oscura y energía oscura. Vemos demasiado poco de lo que constituye al universo. Pero esta es otra historia.

El estatuto científico de la cosmología desplaza a lugares cada vez más alejados del foco principal a la religión y muy particularmente a la teología. Esto es, cuestionan enormemente el papel que la divinidad desempeña en la explicación del orden natural. Pues, bien, el bosón de Higgs logra explicar cómo en el primer segundo del Big Bang las partículas comienzan a tener núcleo, y con ello masa, y así, a diferenciarse para crear la materia que constituye el universo. Tanto la del 4 por ciento conocida –y que es el objeto de la química inorgánica y orgánica en sus niveles y procesos fundamentales– como, incluso, verosímilmente, del restante 96 por explicar.

La epistemología de la nueva física y el Modelo Estándar
Como quiera que sea, la física forma parte de la investigación de punta según la cual los fenómenos y procesos reales se explican cada vez menos con base en lo que percibimos en el sentido habitual de la palabra. Así, la ciencia amplía magníficamente no sólo el espectro de la realidad sino además el de nuestra propia comprensión respecto a lo real. Para decirlo en términos elementales, lo real ya no es lo que está ahí como las cosas, lo actual y lo evidente. La realidad es una construcción que coincide con la historia misma de la investigación.

En otras palabras, el conocimiento ya no es algo que sucede exclusivamente del lado del sujeto y que se dirige al objeto como a una realidad exterior diferente. Antes, bien, en el acto de conocimiento, sujeto y objeto son contemporáneos. Esto es, la historia –del descubrimiento– del objeto es simultáneamente la historia –del descubrimiento– del sujeto por parte de sí mismo. Sólo que, hoy día, el sujeto ya no es, como fue en toda la historia de la humanidad occidental, un agente individual. Por el contrario, el sujeto es hoy una comunidad de investigadores de diferentes disciplinas y tradiciones que cruzan lenguajes, enfoques e intereses disímiles a partir del hecho de que comparten una preocupación común.

De manera particular, las relaciones entre bosones y fermiones nos enseñan que, desde la física, ya no se habla de fuerzas (en contraste con lo que sucede en las ciencias sociales), pues éstas son en realidad el resultado de interacciones y cruces entre partículas. De esta suerte, el conocimiento del universo que nos rodea y que somos nosotros mismos no se explica con los supuestos de la epistemología y la filosofía clásicas, desde los griegos hasta aquella que se proyecta hasta los años 1980 (posmodernismo, etcétera). Ya no es sostenible ningún tipo de dualismo (sujeto/objeto, mente/cuerpo, etcétera); por el contrario, accedemos a un universo de complejidad creciente, que a cada paso se explica con los nuevos descubrimientos y las nuevas explicaciones, y no con base en la tradición. Manifiestamente, nos encontramos en el centro de una revolución científica y tecnológica. Este es apenas el comienzo de una historia aún más sugestiva y apasionante.

* Profesor titular Universidad del Rosario

Publicado enEdición 182
Viernes, 20 Julio 2012 15:49

La partícula divina

Dándole una denominación totalmente opuesta a la que se propusiera inicialmente (goddamn particle, partícula “maldita sea”), el norteamericano Leon Lederman tituló así un extenso ensayo suyo de 1993, escrito en colaboración con Dick Teresi. Agregó en el subtítulo: “Si el Universo es la respuesta, ¿cuál es la pregunta?”.

Lederman había recibido el Premio Nobel un lustro antes. Finalmente, después de 50 años de haber sido postulado, experimentos en el gran colisionador de hadrones (LHC) del CERN arrojan resultados muy optimistas que se pueden interpretar en la dirección del esperado descubrimiento, el de la elusiva partícula Dios. De confirmarse la existencia del “Bosón de Higos”, el personaje principal de tan atrevida hipótesis, el británico Peter Higgs, no tardará en recibir tan ansiada presea. Einstein había reflexionado muchas décadas antes: “Lo más maravilloso del Universo es que sea inteligible”. Ignoraba que fuera tan difícil descifrarlo. Por eso intentó en vano, durante el resto de su vida, dar con la teoría de la gran unificación. ¿Qué es ese vago objeto que aún permanece en el misterio? Se trata de un hipotético “bosón escalar”, nada menos que el responsable de dotar de masa a las partículas elementales que adquieren esa propiedad.

Todos suponemos saber qué es la masa; ignoramos que tal cualidad es una de las más difíciles de entender. Einstein creyó dar en el clavo con su famosa fórmula, pero eso fue sólo el comienzo del fin de la física clásica. Hay dos tipos de partículas, bosones y fermiones. Un típico bosón, es el fotón, la partícula luz, de hecho el primero acreedor a ese calificativo desde cuando el físico hindú Satyendranath Bose llamara la atención de Einstein sobre una característica especial de ese tipo de partículas. El prototipo de los fermiones, llamados así por otra característica exclusiva que exhiben al ocupar los niveles permitidos de energía, es el electrón. En cierta región, un orbital en un átomo, por ejemplo, no puede haber simultáneamente dos fermiones que tengan los mismos números cuánticos, entre otros la energía y la orientación del espín. Por el contrario, en un sistema bosónico todos ellos pudieran estar en el mismo estado cuántico; de ahí surgió la idea del condensado de Bose-Einstein, materializado a fines del siglo XX, más de 70 años después de ser postulado. Para entonces, Bose había muerto. Al respecto, el Nobel sólo se les otorga a científicos vivos, excusa no del todo válida para que se le hubiera dejado por fuera de la honrosa galería. El fermión lleva ese nombre en honor del físico italiano Enrico Fermi, otro Nobel, quien contribuyó a formular la estadística cuántica que lo caracteriza, la de Fermi-Dirac. La que obedecen los bosones se denomina “estadística de Bose-Einstein”. A diferencia de los fermiones, algunos bosones están desprovistos de masa en reposo. Es lo que ocurre con el fotón, condenado a vagar mientras ‘viva’ precisamente a la velocidad más alta, la de la luz. Rigurosamente hablando, es imposible observar una partícula en reposo.

Sería muy extenso entrar a precisar, así fuera apenas conceptualmente, el significado de cada uno de los términos que buen número de lectores habrá identificado como extraños en el párrafo anterior. Los conceptos fundamentales de la física cuántica son todos muy extraños. Para empezar, la dualidad onda-corpúsculo es uno de ellos: el fotón, un grano mínimo de luz de determinada frecuencia, se comporta para todos los efectos prácticos como onda, “mientras no se le observe”. Einstein recibió el premio mayor por suponer que era una partícula, 100 años después que Thomas Young convenciera a sus contemporáneos de que la luz es una onda. El electrón, la partícula elemental más familiar, la misma que al ser detectada se manifiesta como corpúsculo; entre tanto no se le observe, tiene propiedades de onda; de ahí el término onda de materia, utilizado por primera vez por el francés Luis de Broglie en su tesis de doctorado y cuya hipótesis le valió también la presea mayor.
El comportamiento ondulatorio en sentido cuántico permite diseñar y fabricar microscopios electrónicos, mientras que efectos cuánticos como el tunelamiento hacen posibles otros, miles de veces más potentes que los ópticos, todos indispensables en la ciencia y la tecnología de hoy. El espín, propiedad rigurosamente cuántica que tienen todas las partículas, hadrones, leptones y bosones mensajeros, responsables estos últimos de las interacciones entre las demás partículas, se observó por primera vez en el electrón. Para tener una idea vaga sobre el espín, básico concepto cuántico, se le puede comparar con lo que mantiene a un trompo girando sobre su eje principal. Recuérdese que esta es sólo una analogía: el espín cuántico no tiene análogo clásico. Para no entrar en detalles, contentémonos con saber que los fermiones tienen espín semientero o, en general, fraccionario, y los bosones entero: 0, 1, etcétera. El hipotético bosón de Higgs tiene espín cero.

Hay muchas maneras de decir todo lo anterior. El lenguaje de la teoría cuántica de campos es quizás el más elegante. El Campo de Higgs, como podemos denominar a esa nueva sustancia extraña, llena lo que creíamos vacío. El vacío no existe o, mejor, eso que denominamos universo está densamente poblado de materia o energía. Téngase presente que materia y energía, como lo afirmara Einstein, son una y la misma cosa. Su fórmula E = mc2, la que todo el mundo conoce pero que no fue ciertamente lo que lo convirtió en el científico más célebre y popular de la humanidad entera, es rigurosamente válida. Es necesario entender, para avanzar, que m no es sólo la masa en reposo del objeto que tiene cierta energía E, salvo por la posición que ocupe. Ahí está contenida también la energía de movimiento, denominada cinética, sumada a la energía en reposo. Se sigue intentando cuantificar el campo gravitatorio generalizado por Einstein. De ello depende la unificación definitiva de las interacciones.

Pues, bien, en el universo primitivo –y ese es el que se intenta recrear con los experimentos que se hacen en “la máquina más costosa del planeta”–, prácticamente todas las partículas que lo constituían se movían a la máxima velocidad posible, la velocidad de la luz, según Einstein. En otras palabras, la energía en reposo era o bien rigurosamente nula (partículas sin masa) o bien insignificante, como ocurría con los electrones, positrones, neutrinos y todo lo demás que hubiera en ese caldo primigenio. Las partículas que acabo de mencionar son de la familia de los leptones (partículas livianas). Y aquí viene lo esencial que revelaría el sonado experimento, realmente maravilloso, que consiste en hacer chocar de frente pares protón-antiprotón (hadrones o partículas pesadas) a energías descomunales, cercanas a los 7 TeV, tera-electrón-voltio o millones de millones de eV. La típica unidad de energía a que nos referimos, el eV, es la que adquiriría un electrón si fuera acelerado a través de una diferencia de potencial de 1 voltio. En unidades de energía, la masa de un electrón (en reposo) o de un positrón (su antipartícula) es cercana a medio MeV, mega-electrón-voltio.

Ahora sí vamos al grano. Un bosón de Higgs, un grano de energía del campo de Higgs, tendría una energía de unos 125 GeV: ¡verdaderamente descomunal! Y lo que hemos llamado vacío estaría lleno de esos granos de energía, invisibles para nosotros. Es el paso de una partícula por el campo de Higgs, similar en algunos aspectos a un campo magnético, lo que le da esa característica que en la famosa ecuación de Newton denominamos masa. ¡Así de simple! Nuestro prototipo de bosón, el fotón, un típico fotón ultravioleta, por ejemplo, tiene energías inferiores a 5 eV. ¡Y lo evitamos en lo posible, porque nos quema! Hay otra radiación que no podemos evitar porque lo llena todo; se denomina radiación cósmica de fondo y ha sido hasta hace poco el vestigio de la gran explosión. Ahora tendríamos otro remanente: el campo de Higgs.

Si se quisiera avanzar un poco hacia el meollo del asunto, dando por sentada la existencia de ese extraño campo cuántico que llena el vacío, también poblado del campo de radiación electromagnética o bosones sin masa denominados simplemente luz, la pregunta que se debe responder es: ¿Cómo se mueve una partícula en el campo de Higgs? Para entenderlo someramente, hay que recurrir de nuevo a la esencia de la física cuántica: el principio de indeterminación, o las trayectorias múltiples posibles, una formulación aún más extraña de la teoría cuántica hecha por Richard Feynman. Esto nos alejaría demasiado del propósito de esta nota periodística, y lo dejamos sólo como inquietud para el lector.

* Profesor titular de la Universidad Nacional.

Infografía Bosón de Higgs



Publicado enEdición 182
Martes, 10 Julio 2012 06:58

¿Qué es el bosón de Higgs?

¿Qué es el bosón de Higgs?

Toda la materia visible, de la que están hechas las estrellas y nosotros mismos, está formada por átomos cuya estructura básica es un núcleo rodeado por una nube de electrones. Dependiendo de sus características, forman todos los elementos conocidos, como el hidrógeno, el oxígeno, el sodio, el cloro, etcétera, los cuales al unirse forman moléculas como el agua, la sal y estructuras tan complejas como los planetas y las galaxias o las células del cerebro humano. Así, en el nivel atómico se encuentran las claves para entender cómo está formado el universo, cómo se originó y, por decirlo de algún modo, cuál es su destino.

Originalmente se pensó que los átomos eran indivisibles; sin embargo, actualmente se sabe que no es así. Los elementos constituyentes del núcleo atómico (protones y neutrones), por ejemplo, están formados a su vez por elementos más pequeños (los quarks). De este modo, la estructura del átomo es en realidad una constelación de corpúsculos microscópicos, algunos de los cuales, hasta donde sabemos, ya no pueden dividirse, y se les conoce como partículas elementales. Hay dos tipos básicos: los fermiones y los bosones.

Durante el siglo XX se demostró la existencia de gran variedad de partículas, entre ellas los quarks ya mencionados (de los que hay seis variedades), los neutrinos (con tres tipos diferentes) y los leptones (que incluyen, además de los ya conocidos electrones, a los muones y los tauones). A todos ellos se les denomina en conjunto fermiones, en honor al genial físico italiano Enrico Fermi (1901-1954), y son, por decirlo así, la materia que integra los átomos.

Un aspecto muy importante es cómo interactúan o, dicho de otra manera, cómo funcionan estos fermiones (en una especie de fisiología atómica, si se me permite el símil). Para ello se requiere de otras partículas que actúan de intermediarias y éstas son los bosones, llamados así para honrar al físico hindú Satyendra Nath Bose (1894-1974), de los cuales se han identificado con certeza seis (fotón, gluón, W, Z, pión y kaón). Los bosones serían los mediadores en las fuerzas que operan a nivel atómico y en el conjunto del universo.

Algunos ejemplos: los gluones (de glue, pegamento en inglés) son los bosones que mantienen fuertemente unidos a los quarks en el interior del núcleo atómico; sin ellos éstos se desintegrarían y no existiría nada de lo que conocemos, incluidos nosotros. Son los causantes de las llamadas interacciones nucleares fuertes, una de las cuatro fuerzas presentes en el universo.

Otro ejemplo son los fotones. Las partículas que tienen carga eléctrica interactúan mediante el intercambio de fotones, los cuales son los intermediarios de la fuerza electromagnética. Existen además las fuerzas nucleares débiles, mediadas por los bosones W y Z. Esta fuerza débil permite explicar, por ejemplo, el decaimiento beta, asociado a la radiactividad (hay además una cuarta fuerza, la gravitacional, que supondría la intermediación de un bosón, hasta ahora hipotético, llamado gravitón, que no forma parte del modelo estándar).

El modelo estándar es una formulación teórica que intenta describir cuáles son las partículas fundamentales y las interacciones que hay entre ellas. A partir del comportamiento de unos cuantos elementos conocidos, es posible deducir teóricamente (matemáticamente) cuáles son las partículas y mediadores faltantes en el modelo, lo que permitiría explicar cabalmente la estructura y comportamiento de los átomos… y del universo. De este modo, muchos de los fermiones y bosones que he mencionado han surgido primero como ideas en la mente de los físicos más brillantes, pero deben enfrentar una prueba muy difícil: la confirmación experimental de su existencia.

Una de las grandes lagunas en el modelo estándar ha sido cómo explicar que las partículas adquieran masa. Hay unas más masivas que otras, e incluso algunas, como los fotones, que carecen de ella. Mayor masa significa mayor inercia (la tendencia a preservar su estado de movimiento). Las de masa cero, como el fotón, se desplazan a la velocidad de la luz. En los años 60 del siglo XX diversos grupos de científicos propusieron de forma más o menos simultánea una solución a este enigma, entre ellos el físico británico Peter Ware Higgs.

La idea consiste en que la masa depende de la manera en que las partículas interaccionan con un campo (el campo de Higgs) que se extiende por todo el universo, y esta acción es mediada por una partícula (el bosón de Higgs). Todos los cálculos dentro del modelo estándar concordaban con esta teoría. Sin embargo, faltaba la máxima prueba: demostrarla de forma experimental.

La metodología para probar su existencia constituye uno de los proyectos más grandes y ambiciosos desarrollados por la especie humana para responder a preguntas sobre la estructura de la materia: el Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), en el que han participado destacados científicos mexicanos. Sobre sus características no me puedo detener ahora por razones de espacio. El pasado 4 de julio, después del análisis de miles de millones de colisiones provocadas entre protones, los detectores de partículas instalados en el LHC registraron una señal compatible con el ansiadamente buscado bosón de Higgs. La noticia fue dada a conocer por los expertos con las precauciones del caso, pues se requiere de mayor análisis para estar completamente seguros del hallazgo.

A menudo surge la pregunta sobre la importancia de un descubrimiento tan relevante como puede ser éste. Además de la utilidad práctica que seguramente se derivará de la compleja instrumentación empleada en campos como la medicina, la energía y otros, a mi juicio se justifica con creces simplemente por satisfacer la necesidad de saber. Encontrar respuestas a preguntas que han ocupado por siglos la atención de la humanidad, entre ellas: ¿cómo empezó?
 

Publicado enInternacional
 El bosón de Higgs: una casi nada que lo explica casi todo
El bosón de Higgs no solo era la pieza final que faltaba para rematar el Modelo Estándar de la física de partículas —la tabla periódica del mundo subatómico—, sino que también ha sido el centro neurálgico de casi todas las especulaciones sobre el Big Bang desarrolladas en las últimas décadas. El mote de “partícula de Dios” que le endosó el premio Nobel Leon Lederman se debe a este papel central en el origen de todas las cosas, o en el bang del Big Bang, en palabras del físico teórico Brian Greene.

 
Como cualquier otra cosa en la mecánica cuántica —la física de lo muy pequeño—, el bosón de Higgs tiene una naturaleza dual: es a la vez una partícula y un campo ondulatorio que permea todo el espacio. El lector no debe preocuparse si esto le resulta difícil de entender: también le pasó a Einstein en 1905, cuando propuso que la luz —hasta entonces un campo por el que se propagaban las ondas electromagnéticas— debía consistir también, de algún modo, en un chorro de partículas, los ahora familiares fotones.


Y la generalización de esta esquizofrenia cuántica a todas las partículas elementales, la teoría de la dualidad onda-corpúsculo, estuvo a punto de arruinar la tesis doctoral y hasta la carrera entera de su formulador, el príncipe Louis-Victor Pierre Raymond de Broglie, séptimo duque de Broglie y par de Francia, que pese a ello, y al igual que Einstein, acabó recibiendo el premio Nobel por su idea descabellada. Cuando una teoría contraria a la intuición humana explica todos los datos conocidos y predice los que aún no se conocen, la equivocada no suele ser la teoría, sino la intuición humana.

 
Así que el bosón de Higgs, la partícula que acaban de detectar en el CERN, es también un campo de Higgs que permea todo el espacio. Según la cosmología moderna, ese campo es un residuo directo del Big Bang. El campo de Higgs fue la primera cosa que existió una fracción de segundo después del origen de nuestro universo, y la que explica no solo las propiedades de este mundo —como la masa exacta de todas las demás partículas elementales—, sino también su mera existencia.
 

El campo de Higgs fue el hacedor del bang, o de la inflación formidable que convirtió un microcosmos primigenio de fluctuaciones cuánticas en el majestuoso cielo nocturno que vemos hoy. Cada galaxia, y cada supercúmulo de galaxias, nació como un grumo microscópico en la jungla cuántica que ocupó el lugar de la nada en el primer instante de la existencia, como una ínfima fluctuación en la Bolsa de valores del vacío, amplificada hasta el tamaño de Andrómeda o de la Vía Láctea por la vertiginosa expansión —o inflación— del universo impulsada por el campo de Higgs.


El superacelerador del CERN en Ginebra, la verdadera catedral de la ingeniería y el conocimiento de nuestro tiempo, es el último paso de un viaje hacia atrás en el tiempo que emprendieron los físicos en la primera mitad del siglo XX. El universo era en su origen muy pequeño y denso en energía, y luego empezó a expandirse, y por lo tanto a enfriarse, en un proceso que sigue en marcha hoy mismo, y que además está acelerando. Cada nuevo acelerador, con sus colisiones cada vez más energéticas —más calientes— emula al universo primigenio en una fase cada vez más primitiva en su evolución inicial.

 
El principal objetivo de la física teórica contemporánea es unificar las cuatro fuerzas fundamentales (nuclear fuerte, nuclear débil, electromagnética y gravitatoria) bajo un único y profundo marco teórico, la “teoría del todo” que Einstein persiguió sin éxito durante los últimos 30 años de su vida.

 
El acelerador de Ginebra nos acerca más que nunca a la época remota en que todas las partículas y todas las fuerzas eran iguales, en que los campos de fuerza estaban evaporados. El campo de Higgs fue el primero en condensarse, y ello eliminó en cascada la simplicidad del universo primitivo: las partículas elementales adquirieron distintas masas, y también los bosones (como el fotón) que transmiten las fuerzas elementales, con lo que la única fuerza primordial se separó como las lenguas en la Torre de Babel.
 
El bosón de Higgs: una casi nada que lo explica casi todo.


Por Javier Sampedro Madrid 4 JUL 2012 - 21:04 CET



Publicado enInternacional
El bosón de Higgs será un gran problema para los teóricos
“El Modelo Estándar está a punto de completarse, las puertas se cierran. El descubrimiento del bosón de Higgs será un gran problema para los teóricos”, explicó el Nobel de Física, Martinus Veltman en vísperas de la conferencia de la Organización Europea de Investigación Nuclear (CERN, por sus siglas en francés), que anunciará este miércoles el resultado del hallazgo o no de la mítica partícula.

 
El bosón de Higgs es la última pieza que falta para completar la teoría del Modelo Estándar y con la que se intenta explicar el origen de la masa de otras partículas elementales. Teóricamente su masa es de 124 gigaelectronvoltios (los físicos miden la masa de las partículas en unidades de energía o electronvoltios, basándose en la fórmula de Einstein, E = mc2) lo que se busca comprobar en los experimentos del Gran Colisionador de Hadrones (LHC) en Europa.

 
En caso de ser positiva la respuesta, explica Veltman, la energía del campo de Higgs que penetra el Universo resultaría menor que la energía del vacío. El Universo quedaría ‘reducido’ al tamaño de una pelota de fútbol, por lo que a los teoréticos les tocaría explicar por qué esta ‘pelota’ en realidad es de un tamaño inmenso.

 
Hasta la fecha los científicos han podido comprobar los datos teóricos con un margen de error de un 0,13 %, considerado alto para tales afirmaciones. Los investigadores de la CERN esperan que con el anuncio oficial de este miércoles se alcance una exactitud de 0, 000028%, conocida en el mundo científico como el margen de error ‘Sigma 5′.

 
Limitada de momento a una existencia teórica, la supuesta partícula explicaría cómo se formaron los soles y los planetas después del ‘Big Bang’. Para reconstruir los bosón de Higgs, los especialistas del LHC están tratando de simular las condiciones que existían 13.000 millones de años después de la Gran Explosión, chocando las partículas elementales entre sí a velocidades cercanas a la velocidad de la luz


 3 Julio 2012

Publicado enInternacional
Envenenaron a Yasser Arafat, revela investigación científica
Yasser Arafat, fallecido en 2004, fue envenenado con polonio, una sustancia radiactiva, de acuerdo con los resultados de las pruebas realizadas en un laboratorio en Suiza. Así lo asegura la cadena Al Jazeera, que este martes ha emitido un documental en el que revela este hecho.

 
Estos análisis se realizaron sobre muestras biológicas tomadas de las pertenencias personales del líder palestino, donadas por la viuda del difunto, Suha, al hospital militar Percy en el sur de París, donde Arafat murió, según François Bochud, director de el Insituto de Física de Radiación de Lausana.

 
“La conclusión es que hemos encontrado (un nivel) de polonio significativo en esas muestras”, ha explicado en el documental, realizado después de nueve meses de investigación, según Al Jazeera. El polonio es la sustancia con la que se envenenó el exespía ruso Alexander Livtenko, que murió en 2006 en Londres.
 

Yasser Arafat enfermó en su cuartel general de Ramallah, en Cisjordania, sitiado por el ejército israelí. Falleció el 11 de noviembre 2004. Su muerte sigue siendo un misterio. Los 50 médicos que se turnaron junto a su cama no especificaron la razón exacta para el rápido deterioro de su condición. Los palestinos han acusado a Israel de haberlo envenenado.
 

Para confirmar la tesis de una muerte por polonio se deberían exhumar los restos de Arafat y analizarlos, ha señalado el señor Bochud a Suha Arafat.

 
“Si realmente quiere saber qué pasó con su marido, hay que hallar una muestra (…) para determinar una alta concentración de polonio que fue envenenado”, ha explicado.


 3 Julio 2012

 
(Con información de AFP)

Publicado enInternacional
Comienza en EU nueva etapa de transporte espacial
Washington, 25 de mayo. La cápsula Dragon, de la empresa estadunidense SpaceX se acopló el viernes a la Estación Espacial Internacional (EEI), en un hecho sin precedente para una nave espacial privada, lo cual podría revolucionar el transporte al espacio.


La compañía SpaceX, con sede en California, propiedad del multimillonario Elon Musk, llegó así al punto cumbre de su misión, al devolver a Estados Unidos la posibilidad de viajar al laboratorio orbital.


La cápsula reutilizable, no tripulada en esta oportunidad, transporta 521 kilos de suministros para la EEI, y tiene previsto regresar a la Tierra con otros 660 kilos de materiales científicos el 31 de mayo.


“Parece que agarramos a un dragón por la cola”, dijo el astronauta estadunidense Don Pettit, quien maniobraba el brazo robótico de la EEI, al enganchar la cápsula de SpaceX.


El laboratorio orbital y la nave espacial se encontraban en ese momento a unos 400 kilómetros sobre el noroeste de Australia, indicó la NASA desde el Centro Espacial Johnson en Houston, Texas.


“¡Dragón capturada por la EEI! Simplemente, increíble”, escribió Musk en Twitter.


El éxito de la maniobra provocó aplausos en los centros de control de la EEI en Houston, y de SpaceX en Hawthorne, California.


El atraque culminó a las 12H02, y logró el amarre de Dragon al módulo Harmony del laboratorio orbital, dijo la NASA.
“Todo estuvo muy bien”, dijo un comentarista de la NASA, y agregó que la tripulación de seis integrantes de la EEI pronto empezará a trabajar para compensar la presión entre las dos naves.


La apertura de la escotilla entre la estación y Dragon está prevista a las 10H00 GMT del sábado, y permitirá la descarga y recarga de los suministros en los próximos días. Dragón se desacoplará de la EEI el 31 de mayo, para regresar ese día a la Tierra. Su amerizaje está previsto en el Pacífico, frente a las costas de California.


La nave de SpaceX –propiedad de Musk, de 40 años, quien hizo fortuna cuando su empresa en Internet se fusionó con el servicio de pagos en línea PayPal– fue lanzada el martes desde Cabo Cañaveral, Florida, en un cohete Falcon 9.


Hasta ahora sólo Rusia, Japón y Europa podían transportar carga a la EEI. Estados Unidos perdió esa capacidad cuando retiró su flota de transbordadores espaciales el año pasado.


El vuelo de prueba fue casi perfecto, según la NASA y SpaceX, después de que el lanzamiento marcó, según la agencia, la Casa Blanca y funcionarios de SpaceX, el comienzo de una “nueva era” para el transporte espacial.


Afp

Publicado enInternacional
“Queremos reinventar el concepto de revista social”
Chad Hurley (Reading, Pensilvania, 1977) era incapaz de dar dos pasos entre los asistentes a The Next Web en Amsterdam sin que algún emprendedor lo parase para contarle su última idea o pedirle consejo. Hubo incluso quien le regaló un ramo de flores con el que no terminaba de sentirse cómodo. Podría pasar por estrella del rock, tanto por estética como por la fama que lo precede, pero no, Hurley es una leyenda viviente del mundo 2.0, cuya invención marcó cambios sin paso atrás. Como cofundador de YouTube, revolucionó el panorama audiovisual, el cine y la televisión.


Su socio Steve Chen y él lo vendieron en octubre de 2006 por más de 1200 millones de euros a Google, pero sigue ejerciendo como consejero de YouTube. La única restricción que pone para la entrevista es precisamente no hablar de lo que inventó en el pasado, sino de lo que está por venir. Hurley ahora se centra en Avos, su nueva empresa, cuyo primer movimiento sonado consistió en comprar uno de los primeros servicios sociales, Delicious, hasta entonces en manos de Yahoo!


–¿Por qué compró Delicious?

–Porque nos parece que tiene sentido ayudar a ordenar la información interesante. Además, es una marca de reconocido prestigio. Cuando lo compró Yahoo! teníamos la sensación de que no tenía mucho cambio, de que se quedó estancado durante cinco años. Así que nos ayuda a empezar a trabajar con comunidades.


–¿Por qué cree que tiene vida todavía?

–Claro que sí. Hemos añadido más interacción. Inicialmente, Delicious funcionaba como una nube para albergar enlaces de manera personal. Queremos que se sigan guardando enlaces, pero introduciendo el concepto de selección social.


–Google se va de China y ustedes, al contrario, lanzan Mei.fm, un Delicious local, ¿por qué?

–Porque teníamos los contactos y la posibilidad. Si se puede entrar en China, hay que hacerlo, hay que dar el salto en lugar de ignorar su potencial; ser agresivos, destacar. Es una oportunidad demasiado grande como para dejarla pasar. Desde luego que es complicado asentarse allí, encontrar un equipo adecuado, comunicarse...


–De su próximo proyecto, Zeen, sólo se anunció el nombre. ¿En qué consistirá?

–Zeen va a funcionar en tabletas y va a ser limpio, fácil. Queremos reinventar el concepto de revista social. Delicious puede ser una parte, algo así como una base de datos, para este nuevo servicio.


–¿Podré hacer mi propia revista con Zeen?

–Dentro de unos meses lo verá, pero sí. Al igual que Delicious guarda los enlaces, Zeen mostrará el contenido de una forma novedosa y compartida, con gran riqueza interactiva.


–¿Podría decirse que van un paso más allá que Flipboard, la aplicación para iPad que convierte en revista los enlaces tomados de los contactos de Facebook y Twitter?

–Sí, puedo asegurar que dará la posibilidad de hacer revistas a todo el mundo, al margen de los proveedores profesionales de contenido. Queremos que cualquiera exprese sus pensamientos en su tableta y lo comparta. Algo diferente a un blog, a un video, a lo que encuentro en la red... Queremos hacer una revolución similar a YouTube en la creación de contenido.


–En los últimos tiempos la selección de contenido y los denominados curadores están cobrando mucha importancia. ¿Cuál es su visión al respecto?

–Considero que tenemos algoritmos maravillosos para escoger contenido, pero el aspecto humano marca la diferencia. Me temo que eso no lo supera ningún cálculo matemático.


–¿Cuál es su opinión de Pinterest, la tercera red social en Estados Unidos?

–Creo que proponen una experiencia visual interesante, que da una vuelta a lo que había hasta ahora sobre fotografía porque consiguieron un modelo de negocio que no existía, basado en un porcentaje de las ventas que consigan a partir de las visualizaciones. Por otro lado, está el aspecto demográfico, en el aplastante dominio del público femenino, algo envidiable para cualquier servicio.


–¿Y qué piensa de Storify? Si lo piensa detenidamente, ¿no cree que es algo que podrían haber creado a partir de Delicious? Al fin y al cabo, ustedes hospedan este selector de enlaces, sólo les faltó una nueva forma de mostrarlo.

–Es un producto muy interesante, lo reconozco, pero todavía muy de nicho. Con Zeen aspiramos a convertirlo en algún de uso común, en parte de la cultura popular. No queremos ser uno más, tampoco un complemento.


–¿A qué se dedica Avos, su nueva empresa?

–Podría definirse como el paraguas corporativo y técnico bajo el que construimos Delicious, Zeen e invertimos en proyectos que nos gustan. Google Ventures forma parte de los inversores principales, así que en algunas cuestiones nos portamos como su laboratorio de pruebas.


–¿Cómo ve la escena tecnológica en Europa?

–Creo que es uno de los pocos campos en los que hay cierto optimismo. Los servicios digitales son el futuro, crean valor por sí mismos.


–¿Qué debe tener una empresa para que Avos invierta en ella?

–No es necesario que tengan un gran conocimiento de su materia, pero sí me fijo en que sean un grupo de personas con una perspectiva diferente al resolver los problemas que todos tenemos delante. Me interesa lo diferente, la gente con pasión por lo que hace.


–¿Qué consejo le daría a un emprendedor?

–Que afronte la vida con confianza en sí mismo, que haga bien las cosas, pero que no es necesario estar todo el tiempo haciendo ruido y contándolo, que se dejen de conferencias, se sienten frente a la computadora y hagan lo mejor que sepan. Cuando un servicio es bueno, habla por sí mismo.


 Por Rosa Jiménez Cano, de El País, de Madrid. Especial para Página/12.
Publicado enInternacional