Miércoles, 11 Febrero 2009 06:24

Tráfico de conocimientos en la Web 2.0

La Web 2.0 abrió una interacción diferente entre personas a través de la web pero también una nueva forma de recolectar información sobre los individuos. Cada cosa que hacemos deja su huella para ser vista y usada, agentes de software dan uso a millones de interacciones individuales que la misma Web 2.0 promueve. El resultado es para algunos una inteligencia colectiva que cumple el postulado de que numerosos juicios sencillos producen un conjunto más complejo y preciso que el que daría un solo experto.
 
Es verdad. Pero es una verdad condicionada. Los programas no sólo analizan el hecho de que una persona con ciertas características e intereses realiza una búsqueda en Google, consulta o escribe una entrada en Wikipedia, hace transacciones en eBay, crea su blog, arma su red Facebook, sino que además computan la relación de cada interacción individual con la totalidad de interacciones de otra gran masa de personas, y de esa correlación surgen parámetros que se usan para filtrar y procesar la nueva información así como la existente. Un proceso circular que genera sesgos en la información que a su vez afectan nuestras interacciones individuales.
 
Este es el condicionamiento que subyace en esta tecnología que amplió extraordinariamente la circulación de conocimientos dando a las personas una nueva libertad para producir, tener acceso y difundir los contenidos que se deseen. Junto a la libertad de expresión, paradójicamente tenemos una red de mediaciones con una enorme dosis de arbitrariedad y de manipulación: los sistemas de la Web 2.0 funcionan filtrando y confrontando las elecciones individuales con las preferencias colectivas que a su vez también han sido filtradas.
 
Para algunos se trata de una confabulación de las grandes corporaciones y para otros es una anarquía. El verdadero problema es que Internet es un gigante ciego cuyas formas de orientación se basan en reglas de comparación, deducción y jerarquización que pueden ser muy complejas, pero continúan siendo ciegas.
 
Lo básico al elaborar una propuesta o una respuesta para un usuario web es la coincidencia mecánica que genera un listado con un orden de jerarquía. Las técnicas de esta dinámica simple no son visibles y los individuos quedan en una posición vulnerable: sólo recientemente se obligó a diferenciar en los listados de respuestas de un motor de búsqueda las publicidades de los enlaces automáticos.

Los recomendados

Justamente porque las empresas en la web están en competencia permanente por ganar la atención y porque la verificación directa de la enorme masa de información no es posible a las personas individuales, el recurso de la coincidencia mecánica, aun separando los enlaces pagados de los que no lo son, no es suficiente, surgen otras formas de jerarquizar la información. Entre ellas, las recomendaciones: utilizan las elecciones realizadas por otros individuos que han hecho una propuesta o buscado una respuesta similar y se aprovechan las etiquetas (tags) que las personas asignan. Todo es analizado por filtros automáticos que se aplican sobre todas nuestras acciones. Debido a que el modo de actuar de los programas influye sobre las interacciones individuales con cálculos que generalizan las interacciones de multitudes de personas, se comprende que es un tema no sólo tecnológico sino que concierne a prácticas sociales vinculadas a la construcción del conocimiento.
 
Se comparó el impacto histórico de Internet con el de la escritura y la imprenta para la distribución del conocimiento, pero hay un aspecto en el que la web realiza una masificación –entre los privilegiados que disfrutamos de la conectividad– y es la posibilidad de gestionar en gran escala el metaconocimiento, es decir, los índices, etiquetas, símbolos, que identifican lo conocido. Es un conjunto de representaciones que en Internet toman una nueva forma gracias a los algoritmos de comparación y análisis que se aplican a esas etiquetas y que permiten nombrar y describir nuestras imágenes, textos, canciones. Estas denominaciones son a veces espontáneas (folksonomías), en otras muy elaboradas como ontologías, clasificaciones y tesauros, que individualizan y luego filtran los conocimientos, pero junto a su capacidad organizativa, resumen millones de actividades humanas registradas y analizadas por medios artificiales introduciendo condicionamientos en los juicios personales.
 
El filtrado de las previsiones sobre las preferencias individuales, basado en el comportamiento de muchos otros, se ha extendido desde la compra de libros a la elección de vacaciones y hasta parejas. Las recomendaciones se basan en usos puntuales que se suman acumulando las acciones. Este procedimiento nos orienta pues nos sugiere qué han hecho otros, pero también deja poco espacio a lo original y lo nuevo queda autísticamente aislado.
 
Aparte de los rangos y recomendaciones tenemos en la web los sistemas que se apoyan en el comportamiento. El de mayor éxito es eBay, donde luego de cada transacción tanto el vendedor como el comprador hacen una evaluación que es resumida y los usuarios se basan en ella para futuras compras o ventas. Es útil en un ambiente donde se compran cosas reales a personas o empresas que jamás se verán. Pero aparecen distorsiones: muchos vendedores venden muy barato productos gancho para ganar reputación. Entonces no son siempre lo que aparentan y aunque eBay sigue siendo el mayor y más próspero mercado electrónico, en muchos ámbitos se detecta desconfianza.
 
Todo se complica además con situaciones mixtas: se unen el listado de rangos, con recomendaciones que se transmiten de usuario a usuario, con las reputaciones que se reciben a través de puntajes de calidad, como en YouTube. Hay incluso factores éticos, pues en este manejo ciego suelen contar con peso contenidos racistas, sexistas o violentos, o subrepticias publicidades de empresas y sectores políticos. Se impone pues una gran cautela a la hora de aceptar recomendaciones y considerar reputaciones en las movedizas arenas de la web.

La cooperación y la confianza

Como contrapeso tenemos la más increíble oportunidad de cooperación en la construcción y acceso al conocimiento. Es el caso de los proyectos de contenido abierto colaborativo como Wikipedia. El filtrado aquí está en manos de personas. Cualquiera puede editar en Wikipedia y es su mayor fuerza a la vez que debilidad, aunque hasta ahora la inteligencia cooperativa está dando sus frutos. El único inconveniente es que hay demasiadas traducciones de artículos del inglés, aunque el castellano crece y es muy traducido. Pero no hay formas de estimular las lenguas locales o minoritarias pues lo que producen no es pasado al inglés o español.
 
También se piensa introducir aquí reputaciones y recomendaciones automáticas, ojalá no se transformen en una réplica de los sistemas no cooperativos. Una idea es la de la Universidad de Santa Clara en California, se llama Wikitrust. En Wikipedia cuando un artículo no es leído, o es criticado, va cayendo en desuso y se borra. Este sistema de confianza hace que cuando un autor realiza una contribución y se mantiene en sucesivas ediciones, ese autor gana reputación, pero cuando su contribución es reeditada y corregida pierde reputación. Pero muchas veces cuando algo se edita y corrige en forma cooperativa es justamente porque es bueno y polémico, así se castigarían los artículos motivadores. Para evitarlo se asignan valores de confianza no sólo al artículo, sino a las palabras que permanecen después de las reediciones. La confianza en una palabra es proporcional a la reputación del autor, cuando diferentes autores hacen modificaciones, las palabras no modificadas ganan confianza, ya que se considera que quienes colaboran cuando no corrigen una palabra es porque están de acuerdo con ella. Esto es discutible, pues al modificar hay aspectos de estilo que afectan el análisis automático. Wikipedia es una de las más ricas experiencias de la web, que los autores sean casi anónimos es una de sus fortalezas, esperemos que las mediciones no alteren esto dando lugar a competencias individualistas.
 
Otro exitoso espacio de colaboración se basa en la revisión de las comunidades de programas Open Source. Aquí el control es manual, el código se puede corregir o borrar según criterios personales o compartidos. Es un conocimiento colectivo que se apoya en esfuerzos individuales en una tarea común con normas de cooperación explícitas que marcó un punto de no retorno en la producción de software en el mundo.
 
En síntesis, la circulación de conocimiento en la web tiene diferentes vías que direccionan, filtran y limitan los flujos: los rangos, las recomendaciones, las reputaciones, la cooperación, las revisiones, cada una de ellas tiene sus propias señales de tráfico que es útil tener presente pues orientan, pero también condicionan nuestro viaje ciberespacial.
 
Por Por Mela Bosch *
Desde Milán, Italia
* Consultora lingüística y en documentación. Docente on line de la Facultad de Periodismo y Comunicación Social de la UNLP.
Publicado enInternacional
Miércoles, 04 Febrero 2009 10:18

El espesor de la comunicación

¿Por qué leemos o dejamos de leer un diario? ¿Por qué miramos o dejamos de mirar un noticiero de televisión? Años atrás los autores de las teorías clásicas de la comunicación responderían a estas preguntas en términos de confiabilidad, información objetiva, mayor cobertura de la noticia, etc., y relacionarían la posibilidad de que alguien otorgue veracidad a un mensaje a ciertas características específicas de esos destinatarios y a formatos más o menos adecuados a su perfil.

En el transcurso, ¡cuánto! Pero pretendo aquí concentrar la mirada en un aspecto básicamente habilitador y es que nos dimos cuenta de la fluidez del mundo. Desde que los físicos nos demostraron que la partícula es aporética (a la vez onda y corpúsculo), sabemos que toda sustancia es fluctuante. Es decir que el elemento constitutivo de cualquier sistema puede también ser visto como evento. Intento hacer un aporte en esta dirección con mis desarrollos en comunicación estratégica. Se trata de repensar las formas de pensamiento y de acción comunicacional tradicionales desde una perspectiva abierta a la complejidad. Me gusta hacerla crecer a partir de algunas coordenadas mínimas para abordar a la comunicación: que no la piense con un único centro; que no la piense estática, que no la piense descartando la riqueza de su espesor como proceso sociocultural cognitivo. Definido que el conocimiento no se puede separar del hombre, necesitaríamos repensar también el lugar de los medios masivos, en tanto y en cuanto está claro que no se trata ya de una tarea centrada principalmente en lo que se dice, como una narración objetiva acerca de la realidad. ¿Será que deberemos asumir que el lugar del medio en nuestra época no es sólo –ni es principalmente– el de informar, hacer agenda, persuadir, alienar y otras perversidades aledañas? No es fácil el planteo en tanto es cierto que el estilo dominante –especialmente en televisión– se asemeja a un parte de guerra macabramente engolosinado en informar muertos y destruidos del bando contrario cada jornada. Pero señalo que a la par también cada vez hay más gente que sintoniza radios FM “porque sólo hay música”. Para empeorar este aflictivo panorama cada vez más seguido escucho: “Ya no soporto ver noticieros de televisión, inmediatamente cambio de canal”. Pregunto: ¿cuál es el gesto que nos repugna al punto de hacer mover nuestro pulgar en busca de otra sintonía? Cuando alguien apaga el aparato porque “no puede ver” a quien habla hay una conexión especial que le habilita a ese movimiento. Es una sensación que al menos reconoce/recupera su contacto con otras sensaciones que cada quien ha ido acumulando a lo largo de su vida y que genera en cada uno de nosotros una habilitación básica. No suele ser una representación, como un algo que se desprenda de “lo que se dice”, sino un registro del lenguaje que se ubica en otra dimensión. Mi vecino lo expresa con frases del tipo: “Se me pone la piel de gallina cuando lo oigo”. Y es que hay algo en un orador sincero que lo conecta inmediatamente con su público. Hay, entonces, un componente de emoción que deberemos comenzar a reconocer y a no dejar fuera de la cuestión. Un registro distinto de este asunto que no hemos explorado suficientemente. Estamos acostumbrados a operar una sola dimensión de este fenómeno que es la informativa, pero hay muchas otras. Por ejemplo, la ideológica, la interaccional, la sociocultural. Es posible abordarlas desde las perspectivas de comunicación estratégica a partir del análisis y prescripción de marcas de racionalidad comunicacional. Implica ante todo un gran esfuerzo por salirnos del corset de los mensajes para abordar el espesor de la comunicación. Operar con estas herramientas nos permite trabajar desde lo fluido: ese especial tipo de orden de lo que está siempre cambiando. Colijo que de este y de otros desafíos necesitamos hacernos cargo para pensar la complejidad del fenómeno comunicacional. Creo que es al menos parte de lo que nos falta consolidar, desplegar, echar a andar para repensar a los medios en el contexto actual.

 Por Sandra Massoni. Doctora en Ciencias Sociales. Posgrado en Comunicación Ambiental. Universidad Nacional de Rosario.
Publicado enInternacional
Viernes, 02 Enero 2009 16:02

Faltan normas éticas para robots

Los robots no están por llegar: ya están aquí, pero, en vez de dominar a la humanidad con su lógica y su fuerza superiores, amenazan con crear una subclase de personas aisladas del contacto humano.
 
Es necesario supervisar y controlar mediante normas éticas el creciente número de robots en casa, para restringir su uso en escenarios delicados, como el cuidado de bebés, la atención a ancianos y la guerra, advierte un destacado científico.
Se estima que las ventas de robots para servicio profesional y personal en todo el planeta han llegado a 5.5 millones de unidades este año, y se prevé que alcancen más del doble –11.5 millones– hacia 2011. Algunos ayudan a profesionistas ocupados a entretener a los niños; otros alimentan y bañan a ancianos y discapacitados. Sin embargo, hay poco o ningún control sobre su uso.
 
El profesor Noel Sharkey, experto en inteligencia artificial de la Universidad de Sheffield, Inglaterra, advierte que los robots actúan en situaciones potencialmente delicadas que podrían conducir al aislamiento y la falta de contacto humano, debido a la tendencia a dejarlos solos con las personas a su cargo durante periodos prolongados.
 
“Necesitamos trazar normas para poner límite al contacto con robots –afirma. Algunos robots diseñados para cuidar niños son ahora tan seguros que los padres pueden dejar a sus hijos con ellos durante horas, o incluso días.”
 
Más de una docena de compañías con sede en Japón y Sudcorea fabrican robots de “compañía” y cuidado de niños. Por ejemplo, NEC ha probado en infantes su bonito robot personal PaPeRo, que vive en la casa con la familia, reconoce los rostros, puede imitar la conducta humana y ser programado para contar chistes mientras explora la casa. Muchos robots están diseñados como juguetes, pero pueden asumir papeles de cuidado de los menores vigilando sus movimientos y comunicándose con un adulto ubicado en otra habitación, o incluso en otro edificio, mediante una conexión inalámbrica de computadora o teléfono móvil.
 
“La investigación sobre robots de servicio ha mostrado que los niños se relacionan estrechamente con ellos y les cobran apego; en la mayoría de los casos prefieren un robot a un osito de peluche –comentó el profesor Sharkey. La exposición por periodos breves puede brindar una experiencia amena y entretenida, que despierta interés y curiosidad. Sin embargo, por la seguridad física que proporcionan los robots cuidadores, se puede dejar a los niños sin contacto humano durante muchas horas al día o tal vez durante varios días, y no se conoce el posible impacto sicológico de los diversos grados de aislamiento social sobre el desarrollo.”
 
Para cuidar de los ancianos se desarrollan robots menos juguetones. Secom fabrica una computadora llamada My spoon (Mi cuchara), que ayuda a discapacitados a tomar alimentos de una mesa. Sanyo ha construido una bañera robot eléctrica que lava y talla automáticamente a una persona que padece discapacidad motriz.
“En el otro extremo del espectro de edades, el incremento de los ancianos en muchos países ha disparado el desarrollo de robots para cuidarlos”, apunta Sharkey. “Estos robots ayudan a los ancianos a ser independientes en sus casas, pero su presencia conlleva el riesgo de dejarlos bajo el cuidado exclusivo de las máquinas, sin contacto humano suficiente. Los ancianos necesitan este contacto, que sólo pueden ofrecerles los cuidadores humanos y las personas que realizan tareas cotidianas para ellos.”
 
En la revista Science, Sharkey hace un llamado a adoptar normas éticas para cubrir todos los aspectos de la tecnología robótica, no sólo en el hogar y en el lugar de trabajo, sino también en el campo de batalla, donde se despliegan robots letales como los aviones no tripulados Predator, armados de misiles, que se usaron en Irak y Afganistán. El proyecto estadunidense Sistemas Futuros de Combate apunta a utilizar robots como “multiplicadores de fuerza”, con los cuales un solo soldado podría lanzar ataques terrestres y aéreos en gran escala con un ejército de androides. “Los robots de cuidado y de guerra representan sólo dos de muchas áreas problemáticas desde el punto de vista ético que pronto surgirán por el rápido incremento y la creciente diversidad de las aplicaciones robóticas”, advierte el profesor Sharkey. “Científicos e ingenieros que trabajan en robótica deben tener en cuenta los peligros potenciales de su trabajo, y se requiere un debate público internacional para adoptar políticas y normas destinadas a la aplicación ética y segura.”
 
El llamado a controlar los robots se remonta a la década de 1940, cuando el escritor de ciencia ficción Isaac Asimov trazó sus famosas tres leyes de la robótica. La primera ordenaba que los robots no debían dañar a las personas; la segunda, que debían obedecer el mando humano, siempre y cuando no quebrantaran la primera ley, y la tercera, que debían evitar dañarse a sí mismos en tanto ello no entrara en conflicto con las otras dos leyes.
 
Asimov escribió una colección de cuentos llamada Yo, Robot, que abordaba el tema de las máquinas y la moral. Quería contrarrestar la larga historia de recuentos ficticios sobre autómatas peligrosos –desde el Golem judío hasta el Frankenstein de Mary Shelley– y creó sus tres leyes como recurso literario para explotar las cuestiones éticas que surgen de la interacción humana con seres inteligentes no humanos. Sin embargo, las predicciones de finales del siglo XX relativas al ascenso de máquinas investidas de una inteligencia artificial superior no se han cumplido, si bien los científicos de la robótica han dotado a sus protegidos mecánicos de rasgos casi inteligentes, como el reconocimiento del habla simple, la expresión emocional y el reconocimiento de rostros.
 
El profesor Sharkey cree que es necesario controlar incluso a los robots tontos. “No sugiero, como Asimov, poner reglas éticas a los robots, sino sólo tener lineamientos sobre la forma de utilizarlos. Los actuales ni siquiera alcanzan el adjetivo de tontos. Si creyera que son superiores en inteligencia, no tendría estas preocupaciones. Son máquinas bobas, no mucho más brillantes que la lavadora promedio, y ése es el problema.”

Steve Connor (The Independent)
Traducción: Jorge Anaya
Publicado enInternacional
Miércoles, 19 Noviembre 2008 07:23

Nuevo estadio de la comunicación

Hoy asistimos a un nuevo estadio en las formas y la construcción de modos de comunicación. De los artefactos de comunicación a distancia –desde el telégrafo hasta el satélite– que nos devuelven una oralidad secundaria, posescritural a las tecnologías de la memoria, se suman las de la inteligencia. El uso de Internet genera nuevos ámbitos perceptivos, culturas diferentes y atmósferas particulares. Las distintas aplicaciones de la web (chats, foros, blogs, wikis, redes sociales como Facebook y Myspace; Youtube, Twitter) traen aparejadas modificaciones en el alcance, el tipo y la forma de interacción y, a la vez, renovadas capacidades productivas. El uso de estas tecnologías, cada vez más intensivo y diversificado –en los ámbitos del trabajo, la educación, la diversión, el ocio, las relaciones con amigos, colegas y familiares– es un fenómeno social que no podemos pensar fuera de este particular contexto histórico-cultural.

En pocos años, los múltiples dispositivos mejoraron y potenciaron lo que ya veníamos haciendo con otras herramientas. Un solo ejemplo: antes enviábamos cartas, hoy mails y SMS. Los modos de hacer, los usos sociales, siempre remiten a una categoría totalizadora como la de cultura; se establecen a través de la experiencia, de los discursos circulantes en el boca a boca, de los saberes de los circuitos informales que corresponden al hacer cotidiano. Se generan, así, hábitos que promueven gustos, esquemas operacionales, maneras de hacer, de pensar; un estilo de inventiva técnica y de adecuación a las necesidades. Y si no, pensemos qué hicimos en estos últimos años con el celular, convertido ahora en una herramienta multipropósito.

Hasta hace poco, la web había sido un lugar al cual recurríamos principalmente para buscar información. En un período no muy largo –y propiciado por la difusión de la banda ancha– los usuarios pasamos de ser sólo lectores-consumidores de información a producir contenidos. Y lo hacemos conformando comunidades virtuales que promueven la inteligencia colectiva. En el 2004, O’Reilly usó por primera vez el término web 2.0 para referirse a una segunda generación de web basada en comunidades de usuarios y una gama especial de servicios, como las redes sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el intercambio ágil de información entre los usuarios. Durante un discurso en la Universidad de Berkeley, O’Reilly sentenció: “Una verdadera aplicación web 2.0 es una que mejora mientras más personas la usan. Por eso, el corazón verdadero de la web 2.0 es la capacidad de aprovechar la inteligencia colectiva”. El uso de estas aplicaciones está transformando el acceso, diseño, organización e intercambio de información. La web va adquiriendo nuevas características como la presencia de información más descentralizada, amplia diversidad de contenidos administrados por usuarios que no necesitan grandes conocimientos de informática, información en permanente cambio, softwares gratuitos y comunidades que comparten y distribuyen conocimientos.

Lo que esta nueva web está transformando, sin lugar a dudas, es el modo de promocionar el consumo de bienes simbólicos y materiales y, en consecuencia, el modelo de negocio. Hace unas semanas, el dúo panameño de reggaetón Wisin y Yandel llenó dos Luna Park sin publicidad ni demasiada difusión en medios masivos. Para que en nuestro país se convirtieran en un fenómeno musical/cultural para adolescentes, sólo les bastó aprovechar la dinámica comunicacional de Internet: Myspace, Youtube, blogs, etc. (http://www.wisinyandelpr.com). Lost, la serie estadounidense, trascendió lo popular que ya era en su país y se convirtió en un fenómeno de consumo global porque millones de usuarios subían/bajaban de la red los capítulos subtitulados por la comunidad a poco de su emisión en la cadena ABC. Y no sólo eso, también crearon un sinnúmero de comunidades virtuales de seguidores que discutían las distintas tramas y los fenómenos sobrenaturales y mitológicos a través de foros y blogs.

Todo un fenómeno comunicacional que se traduce en nuevas formas de poder social y nuevos medios para la acción colectiva en el momento justo y en el lugar adecuado. Porque en una revolución tecnológica todas las instituciones, de manera y en grados distintos, participan en el cambio y, por ende, dan respuestas a las innovaciones y los desafíos que plantean esas tecnologías en la comunidad.

 Por Silvana Comba y Edgardo Toledo*
* Docentes e investigadores de la Carrera de Comunicación Social, Universidad Nacional de Rosario.

¿Qué hay en un byte?


Las personas que usamos computadoras y otros dispositivos electrónicos, con frecuencia conversamos sobre la capacidad de almacenamiento y la velocidad de transferencia de datos de dichos aparatos. Hemos adoptado en nuestro lenguaje cotidiano anglicismos intraducibles como “gigas”, “bytes” y “bits”, y nos lamentamos porque nuestra PC tiene una memoria RAM (o de acceso aleatorio), inferior a dos gigas... Pero, ¿qué es, a fin de cuentas, un gigabyte?

Pese al uso diario, rara vez vinculamos esos términos con las dimensiones físicas que involucran. En su relación expresada en potencias de diez, un gigabyte equivale a mil megabytes. Pero, ¿qué representa esa magnitud? Nuestra matemática de base diez, nacida del hecho de contar con nuestros diez dedos, dispone de las potencias para expresar cantidades. Las tecnologías de información y comunicación (TIC), usan dichas potencias para representar cantidades mínimas y máximas de información.

Un bit es la unidad básica de información. Por ejemplo, las dos posiciones, encendido y apagado, de un interruptor. En teoría de información, y en el lenguaje binario de las computadoras, el cero y el uno son, cada uno, un bit: palabra inglesa que significa una pequeñísima cantidad de algo, pero, a la vez, es la contracción de binary digit (dígito binario).
Un byte (pronunciado bait), por lo general está formado por ocho bits, y constituye la unidad básica de almacenamiento de información en las computadoras o los nuevos dispositivos reproductores de datos, como el iPod.
Una palabra tiene diez bytes. Cien bytes equivalen a la extensión de un mensaje de texto en el celular o del viejo y desusado telegrama. Un kilobyte (mil bytes o 103), equivale a menos de una página mecanografiada (o tecleada en la PC). Diez kilobytes, a una página impresa de una enciclopedia o una página web estática.

Una fotografía con baja resolución tiene cien kilobytes. Un megabyte representa un millón de bytes (106 bytes), y equivale a una novela corta o lo que podría contener un disquete de 3,5 pulgadas, también en desuso ahora. Una foto con alta resolución tiene dos megabytes.

Las obras completas de Shakespeare ocupan cinco megabytes, los cuales equivalen a un comercial de 30 segundos de video (atención, estamos hablando de cantidad de información, no de calidad... El texto ocupa menos información que el sonido, y el sonido, mucho menos que el video).

Un minuto de sonido de alta fidelidad tiene diez megabytes. Una enciclopedia en dos volúmenes, o un metro de libros colocados en un estante, tienen cien megabytes. Un CD-ROM tiene 500 megabytes.

Un gigabyte (mil millones de bytes o 109), es equivalente a la carga de una camioneta pickup llena de papel, o una sinfonía en sonido de alta fidelidad, o una película de televisión. Veinte metros de libros en un estante equivalen a dos gigabytes. Y cien gigabytes es lo que ocupa un piso entero de periódicos académicos o lo que contiene una sola cinta de almacenamiento digital ID-1.

Un terabyte (un billón de bytes o 1012), equivale al papel producido con 50 mil árboles, o al contenido textual de un millón de libros. Una biblioteca de investigación académica suele contener dos terabytes de información. Toda la colección impresa de la famosa Biblioteca del Congreso de los Estados Unidos tiene unos diez terabytes.
Un petabyte son mil billones de bytes o 1015. Toda la información disponible en la World Wide Web a comienzos del siglo XXI equivalía a ocho petabytes (hoy, por supuesto, es mucho más que eso).

Un exabyte es un trillón de bytes (1018). La producción total anual de información mundial en soporte impreso, fílmico, óptico y magnético suma (según estimación para 1999) era de unos 2,12 exabytes. Y todas las palabras pronunciadas por la especie humana equivalen a unos cinco exabytes.

A partir de aquí, la sensación de vértigo es excesiva, pues grandes cantidades como el zettabyte (1021), y el yottabyte (1024), desbordan nuestra imaginación, aunque no necesariamente nuestra capacidad de producir información. Baste pensar que el número de granos de arena de todas las playas de la Tierra no supera la cifra de 1020...

Por Carlos Eduardo Cortés S. *
Desde San José de Costa Rica

* Gerente de Radio Nederland Training Centre – América latina.

Publicado enInternacional
Página 61 de 61