menu
Módulos y técnicas para SEO en Drupal: informando a los buscadores sobre lo que deben catalogar
Optimizar una página para que los buscadores la indexen y la posicionen de forma correcta es una tarea compleja donde coexisten varios factores y técnicas. En este artículo voy a tratar de desgranar las relacionadas con informar a los buscadores sobre lo que deben y no deben indexar y de aportar soluciones, en forma de módulos o de parches, que luego incorporaremos a Perseo. En futuras entradas nos ocuparemos de los módulos y técnicas que permiten mejorar el contenido de las páginas para que posicionen mejor.
Para que los buscadores lean correctamente nuestra web debemos informar a los buscadores de las páginas que deben y que no deben indexar. Para ello se utilizan dos técnicas: el archivo de robots y el mapa del sitio en XML o Sitemap.
Robots.txt
El archivo robots.txt contiene un listado de instrucciones que comunican a los buscadores que páginas deben y que páginas no deben leer. Podéis obtener más información en esta página. Drupal incorpora por defecto un archivo de este tipo, pero según varias fuentes contiene errores que se deben arreglar y no bloquea correctamente algunas páginas derivando en un problema de contenido duplicado que, dicho sea de paso, no gusta a los buscadores.
Por ello hemos creado nuestro propio archivo robots.txt, que soluciona estos problemas y sustituye el archivo por defecto. Podéis descargar la primera versión aquí: perseo-robots-6.8-1.0.tar.gz
Sitemap XML
Los Sitemaps cumplen el mismo propósito que el archivo robots.txt, las diferencias que estos últimos son más modernos, utilizan normalmente el formato XML y, lo mejor, se pueden crear dinámicamente usando un modulo Drupal: XML Sitemap.