La Universidad Carlos III de Madrid (UC3M) informó este lunes que el 80% de las páginas web de las administraciones públicas no facilitan el acceso a la información a los principales motores de búsqueda de Internet, según reveló un estudio que analizó más de 4.000 webs gubernamentales.
El grupo de estudio en Tecnologías Aplicadas a la Información y la Documentación (TECNODOC) de la universidad investigó el uso que hacen de los ficheros robots.txt y sitemaps.xml, fundamentales a la hora de aumentar la visibilidad de los contenidos on line, puesto que facilitan la labor de inspección y recolección de información que llevan a cabo las arañas rastreadoras (crawlers) de los principales motores de búsqueda de Internet (Google, Yahoo, MSN, etc.), que recorren la Red continuamente en busca de nuevas páginas.
Los resultados indican que tan sólo un 17% de los sitios web analizados incluyen un fichero robot.txt válido, mientras que apenas un 3% del total de páginas gubernamentales aprovechan el fichero sitemaps.xml.
Uno de los autores del estudio, Bonifacio Martín, del Departamento de Biblioteconomía y Documentación de la UC3M, señaló que estos datos constatan la “escasa” atención que las administraciones públicas de nuestro país están prestando a este tema tan importante en la web. Además, destacó que una buena definición del fichero robots.txt en los sitios web permite establecer ciertas indicaciones para los crawlers de los motores de búsqueda que pueden mejorar la gestión del tráfico web y facilitar la actualización de la información del motor de búsqueda de esas páginas web.
Asimismo, mediante el fichero sitemaps.xml se puede afinar “mucho más” el trabajo que hacen estos robots al indicar información relativa al periodo de actualización o el nivel de importancia en la prioridad de indexación de cada página.
La idea de iniciar esta investigación, según indica el informe, surgió cuando los profesores de la universidad se dieron cuenta de que sus estudiantes solían acudir a fuentes de información no oficiales, como blogs y empresas, cuando esos sitios web solo se hacían eco de información publicada en algunos ministerios u otros organismos públicos.
El responsable del grupo TECNODOC, Tony Hernández Pérez explicó que para iniciar la investigación no buscaron analizar el posicionamiento de algunas páginas respecto a ciertas palabras sino la visibilidad de un sitio web, y si los sitios on line de los ministerios estaban facilitando la tarea a los buscadores o, por el contrario, se la complicaban a propósito o por dejación.