lunes, 26 de julio de 2010

Las etiquetas de título duplicadas y los errores en las metadescripciones


En este ejercicio vamos a analizar y marcar las pautas para optimizar un sitio Web dinámico que contiene numerosos errores y que, pese a que tiene muchísimas entradas en el directorio de Google, la mayoría de ellas contienen elementos duplicados por lo que dificultan el rastreo, la indexación y el posicionamiento correcto por los robots de Google.
Antes de comenzar recordar que tenemos que tener una cuenta que podemos obtener enhttps://www.google.com/webmasters/tools
Nos situamos en el menú de la izquierda y nos vamos a: Panel> Diagnóstico > Análisis del contenido y nos encontramos con la siguiente imagen:



Es evidente que tenemos que realizar un gran trabajo de optimización. Debemos de ocultar a los robots todos los errores para lo cual tenemos dos opciones: podemos dar la orden de no indexación desde robots.txt por medio de nexos en común entre las páginas o bien hacer desaparecer la página para que el robot obtenga un error 401 not found y la elimine del contenido aunque en este último caso recuerda que la eliminamos por completo del servidor.
Tratándose de eliminación masiva de páginas optamos por la primera solución que nos lleva a editar nuestro archivo robots.txt y establecer unas ordenes precisas que nos ayuden a cribar estos enlaces.
Nos centraremos en las etiquetas de título duplicadas que según nos muestra la imagen anterior contienen 1003 páginas con problemas de duplicidad en sus títulos por lo que recabamos más información pinchandopara analizar en que vínculos tenemos el problema.
En nuestro caso el problema ha sido debido a la categorización de una Web dinámica. Todas las categorías y subcategorías se multiplican numéricamente quedando URL’s del tipo:
  • /servicios-trabajo-c-108_38_78_105_109.html
  • /contratos-c-148_174_108_135_71.html
  • /contratos-c-148_151_244_71.html
  • /contratos-c-148_151_108_134_71.html
La solución en este caso pasa por encontrar un nexo en común como es -c-. Como estas páginas no aportan un valor añadido al resto de la Web ya que tenemos indexados todos los productos integrados en estas categorías optamos por ocultar a los robots todos estos vínculos y lo podemos solucionar dando las siguientes ordenes  en robots.txt del tipo: 
Disallow: /*contratos-
Disallow: /*servicios-trabajo-
Disallow: /*-c-
Con esta solución también conseguiremos eliminar los errores en las metaetiquetas duplicadas ya que, al igual que en el caso anterior, la duplicidad en la categorización del sitio era evidente.
En cuanto a los errores de metadescripciones cortas es cuestión de ingenio e imaginación ampliarlas un poco. Con 40 caracteres nos la está considerando corta así que sería interesante llegar a un mínimo de 80 ó 100.
La próxima vez que los robots visiten el sitio, que suele ser a diario, ya no indexaran estas páginas pero no quiere decir que desaparezcan inmediatamente de los listados. Ese es el problema. Hasta que no estén seguros que esa reestructuración es definitiva y valoren nuestros cambios los índices de los buscadores no procederan a eliminar las páginas de su sitio con lo cual pueden pasar semanas e incluso meses hasta que podemos notar cambios.
Recuerda que, como aconsejamos siempre, una buena planificación, estructuración y arquitectura del sitio hubiera evitado estos errores desde el principio.

DIRECTORIOS

http://www.trucosblogs.com/post
4.57/5 – 42 opiniones
http://www.fabricaturopa.com/post 4.57/5 – 42 opiniones