“SEO Snippets”, vídeos SEO de Google para Webmasters

Con el objetivo de conseguir que los webmasters y propietarios de los sitios web mejoren el rendimiento de sus sitios, Google lanzó el pasado 21 de diciembre de 2017, una serie de vídeos cortos en su canal de Youtube Google Webmasters titulado “Bienvenido a los SEO Snippets” y presentados por John Mueller (Webmaster Trends Analytics en Google). Anteriormente Matt Cutts (antiguo director del departamento contra el spam en la web, de Google) era el encargado de publicar vídeos cortos respondiendo a preguntas que enviaban algunos webmasters, como por ejemplo: “¿Las páginas de redes sociales rankean de forma diferente?“.

Recientemente actualizó su Guía de optimización en buscadores (SEO) para principiantes con el mismo objetivo.

La idea es responder a preguntas concretas (con soluciones específicas) que se hacen con mucha frecuencia en el foro de ayuda de webmasters muchos SEOs y propietarios de sitios web.

Estos son los vídeos y resumen de cada uno (en orden de publicación):

¿La regla del crawl-delay es ignorada por Googlebot?

La idea del crawl-delay para el archivo robots.txt, fue introducido anteriormente por otros buscadores como Yahoo!, Bing, Yandex. etc. para que el webmaster pudiera especificar cuántos segundos un rastreador o crawler esperaría entre peticiones con el objetivo de balancear el límite de carga del servidor web. Teniendo en cuenta que los servidores son bastante dinámicos, no parece tener mucho sentido esa idea. Por tanto, en lugar de la directiva crawl-delay, decidieron automáticamente ajustar sus rastreos en función de cómo los servidores son capaces de reaccionar para cada caso particular del sitio en cuestión.

Desde la herramienta de Search Console, en “Configuración del sitio“, puedes limitar la frecuencia de rastreo de Google.

Subdominio o directorio, ¿cuál es mejor para SEO?

Aclaran que cualquiera de las dos formas es correcta para Google, sólo que hacer cambios en la estructura de urls de tu sitio, puede llevar un poco más tiempo a que Google entienda esa nueva relación y otorge el peso correspondiente a cada enlace. Por tanto, recomiendan escoger cualquiera de las dos opciones, siempre y cuando se mantengan bajo una estrategia de largo plazo, y no se hagan cambios de urls de forma frecuente.

En el caso de elegir subdominios, se recomienda “Verificar” la propiedad en Search Console para poder hacer una monitorización y seguimiento de estadísticas en cuanto a rendimiento del sitio, accesibilidad de los rastreadores, etc. Si escoges carpetas o directorios, puedes también verificar ese path concreto en la herramienta y sacar datos en particular.

La template de mi sitio tiene varias etiquetas H1, ¿supone un problema?

Las etiquetas H1 son utilizadas comúnmente para marcar el encabezado de una página. Con HTML5 afirman que es habitual tener varios elementos H1 separados para diferentes partes de una página. Si utilizas una template en HTML5 tus páginas tendrán un uso correcto de usar múltiples H1 en la cabecera automáticamente.

En cualquier caso, afirman que tanto si utilizas HTML5 como no, el tener varios H1 en una página, si están bien marcados, no hay problema.

¿Cómo puedo recuperar el control de una propiedad en Google Search Console?

Quizás te hayas preguntado cómo puedes recuperar el control al acceso de tu cuenta de Search Console (antigua Webmaster Tools) si no recuerdas cuál era la cuenta que usaste anteriormente o que no consigas volver a esa cuenta.

Pues bien, puedes por ejemplo crear una nueva cuenta -> verificar su propiedad y volver a trabajar en poco tiempo. Una vez verificada, tendrás acceso a toda la información que recoge la herramienta. También puedes hacer una lista con los otros propietarios verificados y tal vez detectar esas cuentas previas o ver qué tipo de acceso puedes eliminar.

¿Las penalizaciones corregidas afectan al SEO?

Las acciones manuales (que se pueden ver en Search Console) enviadas por el equipo de webspam de Google y corregidas por el propietario del sitio afectado, una vez que se ha enviado la solicitud de reconsideración, ¿es suficiente para “sanar” tu sitio o es necesario algún paso más?.

Una vez se ha corregido la infracción y realizado esa solicitud, es suficiente para que el equipo de webspam de Google lo revise manualmente, y si todo está solucionado, devolver al sitio a su estado de visibilidad correspondiente (anterior al beneficio que hubiera podido extraer de esas acciones no recomendadas).

¿Cada cuánto y con qué frecuencia Google vuelve a rastrear e indexar un sitio web?

Según el buscador, mirar todo el sitio web de una vez o incluso en un corto período de tiempo puede causar una carga significativa en un sitio web. Por ello Googlebot intenta ajustar el rastreo y limitarlo a un cierto número de páginas todos los días. Este número será en función de si el bot puede reconocer mejor esos límites de carga del sitio web. Comprobar partes de un sitio web significa para ellos tener que priorizar cómo van a rastrear.

Entonces, ¿cómo funciona esto? En general, Googlebot intenta rastrear páginas importantes con más frecuencia para asegurarse de que la mayoría de las páginas críticas estén cubiertas. A menudo, esta será la home o tal vez categorías o etiquetas. El nuevo contenido normalmente suele aparecer en la portada del sitio o al menos etiquetados bajo una categoría/tag. Repiten esas páginas con frecuencia, tal vez cada pocos días.

  • ¿Google rastrea 404s o 410s?

En un reciente Webmasters Hangout, John Mueller afirmó que, si esas páginas que ahora devuelven un 4xx antes Google las conocía y solían existir, el bot va a volver a checkearlas de nuevo. Pero esto no implica que tu presupuesto de rastreo se vea perjudicado porque entre a ver urls 4xx, sino que Google tiene una capacidad mayor de rastrear tu sitio, y que puede además re-rastrear urls que antes no servían un código de error y ahora sí. Lo que ocurrirá es que se notificará un incremento de errores en search console a modo de aviso pero si se tratan de urls 4xx marcadas a propósito, no es algo de lo que tengas que preocuparte.  Fuente resumen: Search Engine Journal

¿Por qué el número de páginas indexadas de Search Console es diferente de lo que aparece en Google?

Y es que dependiendo de dónde veas el número de páginas que Google tiene indexadas de tu sitio web, el resultado puede variar significativamente.

Entonces, ¿cuál es el dato correcto que debería usarse?

Desde Google afirman que ese dato no es tan fácil de determinar (existen urls con parámetros, barra final, etc.) y es que hay tres formas de calcular ese dato:

  1. Comando site:dominio.com desde Google
  2. Opción “Cobertura” – Índice desde Search Console
  3. Mirar el dato de urls indexadas de tus sitemaps desde Search Console

Sin embargo no recomiendan tomar la primera forma como la ideal para calcular el dato, y sí las dos opciones que exigen conectar tu cuenta con Search Console, ya que según ellos los datos son más fiables.

¿Qué se debería hacer con los errores 404 antiguos que siguen apareciendo en Search Console?

Los sites evolucionan a lo largo de su vida y en muchas ocasiones implican cambios de urls, redirecciones, etc. En esta reestructuración del site lo recomendable es realizar redirecciones de las urls antiguas a las nuevas y actualizar los links que antes apuntaban a esas urls antiguas para que apunten directamente a las nuevas evitando saltos intermedios.

Sin embargo con el tiempo es posible que esas redirecciones dejen de tener sentido mantenerlas por tema de costes y se desactiven, o se eliminen porque no derivan un tráfico relevante, o incluso porque se han olvidado de esas urls al pasar al nuevo sitio. Es por ello que todas estas urls cuando no son válidas, se devuelva a través del servidor un código respuesta 404 “Error página no encontrada”, apareciendo como tal en nuestras estadísticas de rastreo dentro de la propiedad del sitio en Search Console.

Es interesante el comprobar a través de los logs o herramientas de analítica cuál es el tráfico que derivan esas urls para tomar la mejor solución. Si esas urls no derivan tráfico como hablamos anteriormente, o no reciben enlaces, quizás lo mejor es dejarlas como 404 (o 410) y no habría problema. En caso contrario se debería plantear si se redireccionan esa urls y hacía qué contenido.

Desde Search Console en Índice – Cobertura – Errores , podrás filtrar esos errores por su fecha de rastreo, tipología, etc. y ver si afectan más gravemente a tu sitio o no para tomar la mejor decisión (Ver –Cómo tratar un 404 “sin perder en SEO-).

¿Eliminar la extensión “.html” de las urls puede afectar a mi site?

La respuesta rápida es NO.

Independientemente de la extensión que lleve la url: html, asp, php, etc, Google las va a encontrar de igual forma.

Sin embargo apuntan que, si te decides a por ejemplo cambiar de CMS y éste a su vez no permite la configuración de las urls con la extensión “.html”, a Google le llevará más tiempo en re-procesar y entender este cambio de urls.

¿Pueden las urls llevar palabras que no se corresponden con tu idioma de posicionamiento local?

Es cierto que a nivel de usuario, el que alguien encuentre una url con términos en otro idioma, puede generarle confusión y pensar que el idioma en el que está escrito no es el que desea.

Desde Google afirman que si esas urls son válidas y únicas, por su parte las rastreará e indexará sin problemas. Hay ocasiones en los que las urls con palabras se transforman al llevar caracteres especiales, por lo que generan más confusión aún.

Independientemente de lo que se coloque dentro de las URLs, es importante facilitar a los usuarios ese el enlace a las páginas. Por ejemplo, evitar los espacios, comas y otros caracteres especiales en la URL. Usar guiones para separar palabras en la URL. Algunos prefieren usar guiones bajos, no hay problema. Los guiones son generalmente un poco más fáciles de reconocer.

Si tu sitio está disponible en varios idiomas, usa el idioma apropiado en las URL para el contenido en ese idioma.

Añadir sitemaps para más de 50.000 urls

Los sitemaps están limitados a un máximo de 50K urls por archivo. A través de estos sitemaps, Google y otros buscadores, pueden acceder más fácilmente a esas urls y de forma “más rápida” que si tuvieran que dedicar su tiempo en rastrearlas.

Si el problema es que tienes/quieres subir más urls a un sitemap y estás limitado por ese número, lo que recomiendan es subir más sitemaps con esas urls que quedan. Y es que puedes subir más de un sitemap por sitio. Puedes hacerlo de forma individual, o a través de un sitemap index que a su vez incluya más sitemaps individuales.

Existen varias formas de validar el sitemap para Google, la opción más rápida es a través de Search Console (es recomendable a su vez probar esa url de sitemap para comprobar que no contiene errores ni fallos técnicos), pero también puedes habilitar la url del sitemap a través del robots.txt del sitio.

Fuente original: Blog de Google para Webmasters “Presentamos la nueva serie de videos para webmasters”

Otros posts relacionados