La actualidad - Mundo Digital


Irak, Materia Reservada: La Casa Blanca bloquea el acceso a los buscadores a 783 directorios públicos que hacen referencia a ese país.
La administración Bush ha puesto un cerco a todo tipo de información que se genere en la Casa Blanca en referencia a Irak impidiendo que los buscadores (Google, Alltheweb, Inktomi, Altavista, entre otros) puedan indexarla y ofrecerla a sus usuarios.

Como funciona el archivo "robots.txt"
El archivo suele hallarse en el directorio "docroot" o "htdocs" (entre otros y dependiendo del tipo de servidor que se utilice) que es donde se almacena la información publica del sistema.

El formato convencional suele ser el siguiente:

# robots.txt for http://www.noticiasdot.com

User-agent: *
Disallow: /cgi-bin/
Disallow: /images/

En este caso permitimos a los buscadores indexar el contenido integro de Noticiasdot.com salvo el contenido en el directorio cgi-bin y en el directorio de imágenes.

La primera línea corresponde a un comentario (#).

La segunda línea indica a que robot se le hace la solicitud; en este caso, la orden es para todos (*).

La tercera línea muestra a que ruta se le quita el acceso, conjuntamente con los directorios que le siguen en orden jerárquico.

En este mismo fichero podemos limitar o ampliar el acceso a directorios a distintos buscadores:

Tomemos como ejemplo el fichero robots.txt de la Casa Blanca:

# robots.txt for http://www.whitehouse.gov/

User-agent: *
Disallow: /cgi-bin
Disallow: /search
Disallow: /query.html
Disallow: /help
Disallow: /360pics/iraq
(..)

User-agent: whsearch
Disallow: /cgi-bin
Disallow: /search
Disallow: /query.html
Disallow: /help
Disallow: /sitemap.html
Disallow: /privacy.html
Disallow: /accessibility.html

En este caso permitimos el acceso a todos los buscadores a nuestro sitio, aunque le bloqueamos el acceso a una serie de directorios determinados.

Por el contrario,  a través del comando "User-agent: whsearch", estamos procediendo a dar unas ordenes especificas a este buscador, indicándole que puede "indexar" todo el contenido salvo los directorios que específicamente le indicamos.

También podemos prohibir el acceso de cualquier robot a nuestro sitio, aunque no sea este el caso a través de los siguientes comandos:

# Ejemplo archivo robots.txt

User-agent: *

Disallow: /

¿Que sucede en Irak?, ¿Cuales son los motivos que llevaron a la administración a emprender y sostener la invasión del país árabe?, ¿Cuales son los planes inmediatos y de futuro?. Estas preguntas y muchas más no reciben ya respuesta oficial de la Casa Blanca si cualquier internauta opta por buscarla a través de Google o cualquier otro sistema de búsqueda de internet. Al contrario, si opta por acudir directamente a WhiteHouse.gov un raudal de documentos de todo tipo le serán mostrados de inmediato

Siguiendo las normas que rigen los estándares de la red, los principales buscadores utilizan un fichero llamado "robots.txt" que indica que documentos o directorios pueden o no indexarse y agregarse a la base de datos del buscador. Habitualmente en este fichero se suelen incluir documentos de carácter privado de la empresa o del responsable del sitio, información de carácter confidencial o aquella poco relevante o repetitiva. La araña (o spider en inglés) que son los robots utilizados por los buscadores para rastrear los sitios Webs, consultan ese archivo y no recopilan la información allí almacenada.

Pues bien, según parece el sitio Web de la Casa Blanca ha optado por incluir en este archivo "robots.txt" nada más y nada menos que más de 783 archivos y directorios que hacen referencia directamente a la palabra Irak, según refleja un estudio que se esta difundiendo por la red y que ha sido recogido por "Democrats.org". Curiosamente, en abril de este año, en pleno conflicto iraquí, solamente 10 archivos referentes a Irak estaban siendo bloqueados a los buscadores.

Analizando el mismo fichero podemos observar como el buscador de la casa Blanca (whsearch) tiene acceso a todo el contenido vetado a los otros buscadores salvo aquellos lugares que contienen ficheros del sistema o información irrelevante.

La decisión gubernamental de vetar el acceso a los buscadores ha levantado todo tipo de rumores y opiniones. La gran mayoría coinciden en señalar que es una forma de evitar que "información comprometida" quede almacenada en los caches de los buscadores y que en cualquier momento pueda ser usada contra la administración en cualquier cambio de rumbo político. Aunque solo son suposiciones y nadie en su sano juicio supondría que volvamos a épocas en que la historia pueda reescribirse readaptándola a las necesidades del momento.

 

Enlaces relacionados
 
domingo, 25 mayo 2014

Noticiasdot.com
Edita : Noticias Digitales SL - Editor ejecutivo y Director:  Angel Cortés


Noticiasdot.com Stilo Cine Viajes Gadgetmania
  Más 18 RSS Suscripciones  

Direcciones de correo electrónico: Redacción - Información - Anunciate en Noticiasdot.com: Publicidad - ¿Quienes somos? - Redacción en Chile: Transmedia.cl

Con el patrocinio de FRANQUICIA LASER GAME QUASAR ELITE Laser Game