Agencias - Sin embargo, su propia configuración y su
espectacular crecimiento impiden en muchos casos mejorar las aplicaciones e
introducir los nuevos servicios que todos los internautas esperan. Numerosos
grupos de científicos han experimentado por separado nuevas aplicaciones en
redes circunscritas a uno o varios centros. Sin embargo, los resultados eran
siempre limitados porque esas redes de ordenadores creaban entornos informáticos
incapaces de recrear el enorme caudal de datos que circula por Internet.
Para superar este obstáculo, ha surgido un proyecto científico denominado "PlanetLab",
impulsado por un consorcio académico e industrial integrado por más de 60
Universidades en 16 países y las empresas Intel, Hewlett-Packard y Google. El
objetivo de esta alianza es desarrollar y experimentar nuevos servicios y
aplicaciones de distribución global que multipliquen la capacidad de Internet,
dotándola, por ejemplo, de "memoria" permanente y autocapacidad para combatir
virus informáticos.
Mil ordenadores conectados
"PlanetLab" (www.planet-lab.org) nace como una red "solapada" que se apoya sobre
Internet de igual forma que ésta se sustenta en la telaraña mundial de las
líneas telefónicas, proporcionando así a todos los centros de investigación
asociados la capacidad para experimentar tecnologías en condiciones reales.
Actualmente, "PlanetLab" está constituido por cien ordenadores en 65 centros de
investigación, aunque el objetivo es que haya más de mil conectados en los
próximos dos años. A juicio de Larry Peterson, investigador de la Universidad de
Princeton (EE.UU.) y director del proyecto, es ya una red suficientemente grande
y controlable como para poder observar el rendimiento real de las nuevas
innovaciones.
Cada ordenador dispondrá de un software que permite compartir capacidad de
almacenamiento y procesamiento de datos con el resto de los terminales. En
principio, cada grupo científico tendrá asignado un tiempo y los recursos
necesarios para poner a prueba sus innovaciones, pero éstas serán accesibles
simultáneamente para el resto de equipos. Así, los programas experimentales
serán evaluados y gestionados por más de mil ordenadores que podrán actuar como
uno solo. "Nadie ha intentado algo así a esta escala hasta ahora", afirma Robert
Kahn, coautor de algunos de los protocolos originales que desembocaron en el
desarrollo de Internet.
Información permanente
Uno de los primeros objetivos de los impulsores de "PlanetLab" es desarrollar
las tecnologías que proporcionen "memoria" permanente a Internet: capacidad para
recuperar, por ejemplo, un fragmento de información dentro de 50 o 100 años,
cuando ya no exista el ordenador original donde estaba. Otra prioridad es el
diseño de mecanismos para proteger Internet del ataque de virus informáticos, un
reto urgente en el que se ha volcado la Universidad de California y otras
instituciones de esta alianza, preocupadas por la amenaza de los programas
"gusano" para la seguridad nacional de muchos países. En dicha universidad
intentan crear programas que patrullarán por Internet para descubrir y eliminar
códigos maliciosos antes de que sean detectados por un ordenador en un punto
concreto.
Otro de los retos es diseñar buscadores de páginas más potentes que los
actuales, servidores "inteligentes" y veloces programas para la descarga de
archivos de datos o imágenes. Se pretende, por ejemplo, evitar los habituales
colapsos que se originan cuando muchos usuarios utilizan simultáneamente un
video "online" situado en un único web. Con redes similares a la de "PlanetLab",
el usuario sería redirigido automáticamente a uno de los numerosos sitios donde
se almacena ese archivo de imágenes, evitando así problemas de congestión. Esa
misma estrategia se usaría para mejorar las partidas de videojuegos por Internet
entre múltiples jugadores