Si pensamos en temas de rastreo e indexación, deberíamos tener claro que todo lo que Google tenga indexado de nuestra web, tendrían que ser urls con contenidos que generen demanda orgánica en búsquedas. Dicho de otra forma, tenemos que sacar la basura y para ello, debemos analizar cuáles son nuestras páginas indexadas.
Para ello, voy a usar dos herramientas:
- Simple Serp Scraper (herramienta gratuita desarrollada por URLProfiler)
- Screaming Frog
Extraer páginas indexadas con el comando «site»
Un primer vistazo en Google:
Lo que hacemos es añadir esa misma query con el comando, a la herramienta Simple Serp Scraper, de este modo:
Una vez termine de extraer todas las páginas indexadas, veremos el csv de esta forma:
Chequear el status actual de las urls
Con Screaming Frog vamos a analizar todas estas urls en modo lista, a ver qué nos encontramos
Elegimos modo lista, en la versión nueva, podemos pegar directamente desde el portapapeles, así que copiamos del csv anterior y pegamos en Screaming pulsando «paste»
El aspecto que observaremos será este, una vez lea todas las urls que teníamos copiadas:
Ahora nos vamos a ver el resultado del rastreo de Screaming Frog y podemos analizar cosas básicas de primeras:
- Errores
- Tipos de redirects
- Páginas con poco contenido
- Detectar patrones de urls, por ejemplo, ?attachment_id
- Revisar directivas: robots y canonical
¿Tienen tráfico orgánico o nasti de plasti?
Sabiendo que es posible usar tanto GSC como GA en Screaming Frog puedes chequear las urls en bulk y tener en el mismo crawleo, los datos de visitas orgánicas, para tener una primera idea de contenidos que están indexados y no están generando tráfico orgánico.
Llegados a este punto tendremos 2 escenarios muy claros:
- Contenidos antiguos, cortos o mal optimizados y con potencial de mejora.
Aquí tocaría sacar el bisturí y analizar a fondo extensiones de contenido (numero de palabras) y tratar de revisar qué términos clave tiene asignada cada url para cruzar con posiciones medias de GSC. Optimizar, re-publicar y seguimiento posterior. - Contenidos obsoletos o duplicados
Aquí tocaría reflexionar, si tenemos opción de redirigir a un destino relevante, siempre y cuando el origen tenga algo que «salvar». De lo contrario, nos tocará desindexar, bien eliminando contenido y ofreciendo un 410, o bien, manteniendo el contenido ofreciendo un 200, pero con «noindex», depende de los casos.
Y hasta aquí un post muy breve que ampliaremos con algún otro tutorial más profundo, próximamente…
Un comentario sobre “Páginas Indexadas: cómo revisar tu indexación en Google”
Los comentarios están cerrados.