Sábado, 14 Febrero 2004 19:00

Los ocultos criterios de los motores de búsqueda. El mundo según Google

Escrito por Pierre Lazuly
Valora este artículo
(0 votos)
Los ocultos criterios de los motores de búsqueda. El mundo según Google

Traducción:

Carlos Alberto Zito

Le Monde diplomatique, octubre2003

Son tres mil millones de páginas, la internet es quizá la enciclopedia más completa: una incomparable documentación gratuita y dotada de un sistema que responde en segundos a cualquier pregunta. Los motores de búsqueda son tan eficaces que, ingresando dos términos vagos, se halla una información cuando nos falla la memoria. Esos instrumentos son por paradoja cada vez más escasos: hoy, sólo cuatro empresas estadounidenses logran brindar un buen servicio mundial. En efecto, para orientar al internauta en la copiosa selva de datos, hay que mover miles de computadoras que recorren la red tomando nota de la información disponible sobre el tema; en especial, tener capacidad para seleccionar los sitios que más acordes con la demanda. Esa ‘inteligencia’ del motor de búsqueda determina su éxito. Google demostró poseerla al convertirse en menos de tres años en el medio más utilizado: su novedoso modo de análisis le permite ofrecer resultados desde la primera página. Los internautas hicieron correr la voz inmediatamente: los iniciados incitaban a sus amigos a utilizar ese motor ‘genial’, y Google pasó de 10.000 consultas diarias en 1999 a más de 200 millones en 2003. Hoy recibe el 53% de las consultas mundiales, al punto de que muchos de sus 70 millones de usuarios identifican la internet con esa incomparable herramienta. «Imperceptiblemente, Google se hizo un instrumento esencial que supera la idea que uno suele tener de un motor de búsqueda. Personalmente, dejé de usarlo para identificar los sitios que contienen la información buscada: los resultados obtenidos en respuesta a una pregunta ya son suficientes. Los tando la totalidad de los datos disponibles sino apenas los que diferentes fuentes -universidades, instituciones, medios de comunicación, particulares...- decidieron publicar en la web. Por tanto, la calidad del material disponible juega papel fundamental en la pertinencia de las respuestas. Ahora bien, mientras aumenta el número total de páginas accesibles, algunas fuentes institucionales empobrecieron voluntariamente sus sitios. Así, luego del 11 de septiembre, muchos sitios oficiales estadounidenses fueron expurgados de datos ‘sensibles’, como un sitio del ejército que presentaba con orgullo sus ocho depósitos de armas químicas ([email protected]). También se retiró gran cantidad de información civil. Geographical Information Services bloqueó el acceso a sus mapas de la red, mientras el estado de Pennsylvania retiró los planos de sus infraestructuras de comunicaciones, de sus escuelas y hospitales ([email protected]). Con la excusa de luchar contra el terrorismo, algunas empresas quitaron información cuya publicación se logró mediante duras batallas de grupos ecologistas: así, empresas productoras de electricidad de California eliminaron datos sobre las emisiones contaminantes de sus centrales ([email protected]). El desmoronamiento de la «nueva economía» en 2001 acentuó la tendencia: cada vez son más los editores en línea que limitan el acceso a sus artículos únicamente a los abonados. Esa estrategia, destinada a recaudar más dinero, tiene sin embargo su contracara: su desaparición de la internet. Los sitios cuyo acceso requiere abonarse (o registrarse, así sea gratuitamente) son ignorados por los motores. Por tanto, si el mismísimo New York Times acabara de publicar una excelente investigación sobre las citadas costumbres estivales del oso hormiguero, la misma no aparecerá en la búsqueda hecha por el motor. Así, la mayoría de los artículos periodísticos se ha vuelto virtualmente invisible. Al mismo tiempo, nuevos actores se apropian de la red: empresas deseosas de obtener visibilidad y que eligen a internet como su principal soporte de comunicación; organizaciones militantes que descubren en la web un nuevo medio para difundir sus ideas... Y sobre todo, los internautas, paulatinamente con más sitios personales: la «autoedición», en otros tiempos reservada a los más tecnófilos, se democratizó gracias a la aparición de nuevas herramientas más fáciles de utilizar. En 1990, ante el creciente flujo de información, dos estudiantes de computación de la universidad estadounidense de Stanford, Sergey Brin y Larry Page, intuyeron algo: un motor de búsqueda que se basaba en el estudio matemático de las relaciones entre los diferentes sitios daría mejor resultado que las rudimentarias técnicas usadas entonces. Convencidos de que las páginas más pertinentes son las más citadas (las que otros sitios ponen como referencia en su lista de enlaces en hipertexto), deciden hacer del tema su proyecto de estudios, estableciendo así las bases de un motor más ‘matemático’, al que bautizaron Google al crear su empresa en septiembre de 1998. Para evaluar la ‘pertinencia’ de las páginas existentes en internet, Brin y Page inventaron el «Page Rank», escala de valores de Google. En la misma, la importancia de las web se reevalúa de modo permanente en función de la cantidad de menciones en los sitios. Por tanto, los sitios aislados, que no figuran entre los enlaces, resultan poco visibles, sin ‘legitimidad’. En cambio, los sitios muy citados son sitios de referencia para Google. Ese original algoritmo ofrece impresionantes resultados. Pero el sistema ya tiene un inconveniente: los sitios recién creados se perjudican y son visibles sólo si llaman la atención de sitios mejor establecidos. «Page Rank se basa en la índole puramente democrática de la web», dicen los fundadores de Google. Sin embargo, admiten que «los votos procedentes de las páginas importantes cuentan más; dan importancia a otras páginas». Curiosa democracia en que los actores más poderosos tienen mayor derecho de voto que los recién llegados. Al respecto, ilustra la anécdota incluida por Andrew Orlowski en The Register ([email protected]). El 17 de febrero de 2003, un artículo del New York Times sostenía que el movimiento contra la guerra equivalía a una segunda superpotencia. «Las inmensas manifestaciones antiguerra de ese fin de semana en el mundo recuerda que aún existen dos superpotencias: Estados Unidos y la opinión pública». La expresión fue retomada por Kofi Annan, secretario general de la ONU. Una búsqueda de Google en las semanas siguientes, a partir de la expresión «second superpower», remitía a la definición original. Un universitario de Harvard, James F. Moore, decidió entonces encender un contrafuego: el 31 de marzo inauguró su sitio personal con un artículo titulado «La segunda superpotencia muestra su hermoso rostro» ([email protected]). Se trataba de un texto totalmente anodino, en el cual la expresión «segunda superpotencia» aparecía tan atenuada que hubiera logrado seducir incluso a un republicano. Otros tecno-utopistas se identificaron con esa idea, y gracias a sus reseñas del artículo, muy influyentes en internet, hicieron del mismo ‘la’ referencia sobre el tema. Un mes más tarde, 27 de las 30 primeras respuestas de Google a la expresión «second superpower» remitían a la versión aún escapa a la habitual estructura de distribución del poder. La ideología dominante no está sobrerrepresentada en este campo sino al contrario: una búsqueda a partir del nombre del ministro del Interior de Francia, duro contra los inmigrantes indocumentados, da como resultado las direcciones de asociaciones que defienden a esos inmigrantes. Interrogado a partir del nombre de un empresario, Google posiblemente deje de lado sus comunicados de prensa y recuerde datos de escándalos financieros en los que estuvo implicado. En realidad, la influencia de los diferentes actores depende sobre todo de su grado de apropiación de la red: no alcanza con desarrollar un sitio; también hay que ser capaz de establecer vínculos con los otros sitios y obtener el reconocimiento de «los que cuentan» en la internet. Si muchos se benefician de buena fe de la difusión de sus textos que permite el sistema, otros saben explotar sus debilidades. Así, algunas agencias se especializan en crear -por cuenta de ciertos lobbies- sitios de información cuyo contenido puede parecer proveniente de agencias de prensa. Esa aparente objetividad alcanza a menudo para engañar al internauta, que creyendo disponer de una información seria puede inclinarse a referenciar la página en su propio sitio... y así brindarle un poder simbólico del que la misma aprovechará en adelante. Algunos temas sensibles como los organismos genéticamente modificados o el conflicto palestino-israelí son objeto de una guerra encarnizada, en que cada uno se esfuerza por hacer su ideología «más legítima» a los ojos de Google. Al punto de que el responsable de un sitio internet de referencia -al menos para Google- recibió recientemente la sorpresiva visita de un intermediario comercial que le dijo: «Estoy interesado en comprar enlaces hipertexto en su sitio para promover los sitios de nuestros clientes. No hace falta que se dé relieve a esos enlaces en su sitio, en la medida en que no esperamos resultados directos en términos de visitas a nuestros sitios. Como su sitio es apreciado por los motores de búsqueda, los enlaces en cuestión nos permitirán aumentar la visibilidad de los sitios de nuestros clientes en los motores». Entre esos clientes, el especialista de la fama mencionó sitios financieros, agencias de viajes y empresas farmacéuticas. Es sin duda en los temas políticos -sobre los que cohabitan en la internet puntos de vista radicalmente diferentes– donde Google pone de manifiesto sus límites: sus criterios matemáticos pueden privilegiar de facto ciertas opiniones y brindar pertinencia indebida a textos que sólo representan la opinión de pocos. La base y sobrerrepresentación de que se benefician los ‘adelantados’ de la red, la densidad de lazos que mantienen (en especial mediante el fenómeno esencialmente estadounidense de los weblogs), designan matemáticamente a los actuales ‘gurúes’ de Google. Por cierto que el sistema pasó bien las pruebas técnicas y prácticas. Pero existen terrenos en que la pertinencia escapa a los algoritmos.

Notas:

  1. http://www.netsurf.ch/archives/2001/01_10/011024nt.html
  2. http://www.fas.org/sgp/news/2001/10/dier102601.html
  3. http://www.rcfp.org/news/mag/v.cgi?26-4/foi-stateage
  4. http://cyberie.qc.ca/chronik/20011030.html
  5. http://www.theregister.co.uk/content/6/30087.html
  6. http://cyber.law.harvard.edu/people/jmoore/secondsuperpower.html
Visto 3874 veces

Deja un comentario

Asegúrate de llenar la información requerida marcada con (*). No está permitido el Código HTML. Tu dirección de correo NO será publicada.