Conocí esta herramienta por un tweet, como tantas cosas interesantes que se mueven por esta fuente de información:
And speaking of SEO tools, I’m having the chance to test far more @urlprofiler in a current SEO project… and I’m loving it! Check it out — Aleyda Solis (@aleyda) August 12, 2014
Sin haberla probado aún, fui conociendo funcionalidades que estaba añadiendo, también a través de twitter y del blog oficial de URLPRofiler, como esta integración con MajesticSEO http://urlprofiler.com/blog/bulk-majestic-link-metrics-free/ A lo que voy, hoy voy a intentar daros algunos tips de cosas que se pueden hacer con esta herramienta. El disclaimer obligado, es que es una herramienta con una licencia gratuita de 15 días, para probar, luego es de pago, así como las integraciones con algunas de las otras herramientas, que si no tienes licencia, no las puedes usar (majestic, moz, ahrefs…)
Instalar URLProfiler
Esta es la parte más asequible, vas a la web http://urlprofiler.com y a descargar, la versión que corresponda.
Una vez instalado, lo abrimo y para probar el trial de 14 días, tendremos que rellenar algún que otro dato, para obtener el «serial number» que nos enviarán por mail.
Al rellenar los campos y pulsar en «register now», ya solo nos quedaría revisar el mail y copiar el «serial number», para pulsar en «activate license» y llegar a esta pantalla:
Ok, ¡lo tenemos!
Configuración de URLProfiler
Por un lado vamos a hablar de cuentas de otras herramientas que podremos añadir para unificar en URLPRofiler, divididas en pago y no pago:
De Pago:
- Majestic SEO. Para obtener la info de enlaces de esta herramienta y sus métricas
- Moz. Según la licencia que tengas, podrás obtener información más profunda o no.
- Ahrefs. También depende de la licencia que tengas, con un máximo de 50 mil peticiones al mes.
- Copyscape. En este caso el coste es por cada chequeo individual que se realice.
- My-addr.com. Esta no la conocía y aglutina herramientas que extraen Page Rank, información de Whois, Alexa…
No de pago, pero con límites:
- Google Analytics: 25 mil peticiones al día.
- Google PageSpeed: 25 mil peticiones al día
Esto se puede añadir desde el menú, en «Accounts», te pedirá en cada caso una forma de «demostrar» que tienes cuenta en dichas herramientas, ya sea con un «secret key» o con un «token»
Rellenamos las que tengamos acceso, y podremos luego usar dichas funcionalidades en los análisis integrados. Por otro lado, tenemos los «settings» de la herramienta, que engloban:
- Connections. Esto es tremendamente importante considerarlo cada vez que usamos la herramienta. Serán las veces que se analice, la rapidez entre petición y petición, y por último, las descargas. Tanto si usamos la herramienta para analizar muchas urls, como si estamos en conexiones lentas, y situaciones similares, podremos subir o modular estos 3 aspectos.
- Link Analysis. Este apartado maneja 2 aspectos, el número de intentos que URLProfiler debe hacer si detecta errores al analizar una url, o si tarda mucho en analizarla, así como un segundo aspecto orientado a número máximo de urls por dominio.
- User Agent. En este caso podemos jugar con los user agent que realizarán los análisis cada vez. Aquellos sitios que tengan bloqueos en robots.txt pueden verse exentos de los análisis.
- Link Metrics. La profundidad de las métricas de cada herramienta de enlaces, como Majestic o Moz. Yo voy a poner todas las métricas disponibles de Majestic, ya que es la que si pago cada mes y más exprimo 🙂
- Social. Para cuando analices cuentas de redes sociales, puedes configurar desde aquí cuáles quieres rastrear. Porque no es lo mismo un mercado que otro, ni todas tienen la misma prominencia, elige por ejemplo, si incluyes Reddit como necesaria en tus proyectos de prospección o benchmark.
- uClassify. Esta es una herramienta de pago que trata de desentrañar la complejidad del lenguaje, analizando aspectos como el tono, el sentimiento, la actitud… En este análisis no vamos a probar esta funcionalidad, pero no está de más saber simplemente lo que hace en este menú 😉
- Proxies. Y aquí es donde deberemos añadir nuestros proxies, si le vamos a dar mucha caña a la herramienta, porque no queremos que salte un captcha cuando abrimos google, y que nos diga que estamos haciendo muchas tareas repetitivas y muy rápido, desde nuestra IP, ¿verdad?
Panel general de URLProfiler
El aspecto de la herramienta, una vez la descargas, la activas y empiezas a familiarizarte con ella, es básicamente un interfaz dividido en 4 bloques en la izquierda, y un gran bloque a la derecha para añadir listados bulk de urls. Zona izquierda:
- Análisis de Dominio. En esta zona del panel, tenemos los criterios de análisis que pueden ser usados a nivel de Dominio. Por tanto, podremos obtener métricas del dominio o dominios que analicemos. Algunas muy interesantes como social accounts, email addresses, en todo lo referente a prospección web, un ahorro de tiempo brutal.
- Análisis de URL. Del mismo modo que el anterior punto, en este caso las métricas o los criterios que se añaden para analizar son a nivel de URL, por tanto, se profundizaría el análisis en las urls concretas que se añadan al listado para analizar, donde a diferencia del anterior, hay métricas de índole global, que no se cubren en este análisis (ejemplo: Alexa)
- Análisis de Contenido. En este punto se puede analizar si existe contenido duplicado, detectar la calidad del contenido más en el sentido semántico, de la funcionalidad uClassiffy que decíamos al principio.Y un aspecto en beta más que interesante, el «custom scraper», para extraer contenido elegido por nosotros, una digi-evolución del Excel SEO Tools (que por cierto, no vale para MAC).
- Análisis de Links. Esta zona es sin duda una funcionalidad increible, por todas las funcionalidades que integra. Los botones «anchors», «disavowed», «whistlist» y «blacklist», son campos que deberemos rellenar cuando analicemos perfiles de enlaces y queramos que la herramienta nos haga los cálculos de brand links, por ejemplo.
Zona derecha
- Lista de URLs. En esta zona podemos añadir el listado de urls que queremos analizar, eligiendo los parámetros que queremos incluir en nuestro análisis. Las posibilidades son variadas, pero se pueden hacer grandes cosas ahorrando muchísimo tiempo. Otra cosa tremendamente buena que tiene, que se integra con utilidades externas, si pulsamos botón derecho encima del hueco de la lista, nos dará las opciones de pegar desde portapapeles, importar desde archivo, importar desde sitemap xml, importar desde ScreamingFrog…
3 +1 usos concretos de URLProfiler
Hay muchas cosas para hacer con esta herramienta, yo voy a contar 3, paso a paso, y la última, de forma menos concisa, pero se entiende a la perfección enumerando los pasos del proceso.
- Extraer enlaces entrantes de GWT y asociarlos a sus anchor text
Uso como ejemplo, mi propia web y datos reales de GWT que he descargado previamente. Paso 1: extrae el csv de tus «sample links» de GWT.
Paso 2: importa el listado de urls que te enlazan, a URLProfiler. Botón derecho y pegando o desde el archivo.
Paso 3: añade la url que es enlazada, vamos, la tuya (o la del GWT que has usado, en mi caso mjcachon.es). Si incluyes la info de brand link, generic y commercial, se mostrará luego en el análisis. Cuando hemos terminado, podemos darle a RUN PROFILER.
Fijaos que no hemos añadido ninguna métrica del panel izquierdo, quiero enseñar algunos campos que el fichero nos incluye, para que veáis el poder que tiene esto:
- URL
- Path = Esto nos permitiría en otros análisis, sacar la estructura de una web
- Domain
- Root Domain
- HTTP Status Code = Esto lo sacan otras como ScreamingFrog, URIValet, Web-Sniffer
- Content Length = cantidad de texto, esto lo saca también ScreamingFrog
- Site Type = marca si es un blog, una tienda, una red social….
- CMS = wordpress, blogspot…
- Link Status = interesantísimo, si lo encuentra o si no, lo marca aquí
- Link Score = doblemente interesante, da una «puntuación», sobre si es o no sospechoso, si está optimizado, si se debe revisar…
- Link Score Reason = el motivo de la puntación anterior, si tiene nofollow, si lo ve «unnatural», si es demasiado comercial el anchor,…
- Anchor Text
- Anchor Text Distribution = calcula el porcentaje
- Anchor Type = aquí hace match con lo que introdujimos sobre brand, non-brand…
- Link Type = imagen o text, usa 1 y 0, respectivamente, para indicarlo
- Link Location
- Rel NoFollow Lo saca también ScreamingFrog
- Meta NoFollow = Lo saca también ScreamingFrog
- Meta NoIndex = Lo saca también ScreamingFrog
- + Todas las métricas de Majestic, incluidas las relativas a Topical
Un fragmento del CSV:
- Obtener la lista de contenidos más compartidos de tus competidores
En este punto, podemos acceder a un listado de contenido de nuestro competidor, de varios modos. Quizás podríamos sacar el listado de todas sus páginas indexadas, o tal vez, le pasamos ScreamingFrog y sacamos todas las urls de su web, o bueno, otra opción es tirando de su fichero sitemap.xml Sea como sea que saquemos la lista de urls inicial, los pasos serían estos: Paso 1: Imaginad que usamos la opción de sitemap, botón derecho sobre el listado de urls y elegimos la opción de sitemap, donde ponemos la url y la herramienta ya nos vuelca todo el listado
Paso 2: añadir las métricas que queremos analizar del listado. Primordial «social shares», y bueno, por chequear algo más, veamos el status code y datos de enlaces, para detectar también las urls más enlazadas y prospectar esas en búsqueda de enlaces.
Paso 3: con el fichero ya en nuestro poder, podremos jugar en Excel, para ir viendo contenidos más compartidos, contenidos más enlazados, y analizar a fondo qué tipología de contenidos son, y la posible estrategia que siguen. ¿Qué, útil o no?
- Sacar mails de contactos y cuentas sociales de una base de datos de blogs
Paso 1: si ya tienes una lista de sitios creada, la adjuntas, pegas o importas en el panel URL List.
Paso 2: añades en domain analysis, como mínimo, «social accounts» y la de «email addresses». De paso que analizas, quizás ya puedas incluir otros datos de autoridad/relevancia del dominio y que te sirva también para hacer criba, si no la has hecho ya.
Paso 3: «Run Profiler» y a analizar a fondo el CSV de resultados, después de esto, tocará limpiar el fichero y ver cómo usar toda la info 🙂
- Limpieza de enlaces profunda de un sitio penalizado
Paso 1: recaba todas las fuentes de enlaces posibles (semrush, majestic, ahref, moz, GWT…). Fusiona todo en un listado, eliminando duplicados y súbelo a url list
Paso 2: añade los campos de anchors, si has subido algún disavow ya, puedes añadir las urls desautorizados en urlprofiler.
Paso 3: añade la url penalizada, en formato root para que se analicen todos los links, y cuando acabe el informe, tendrás el el listado completo de anchor text y marcados los posibles sospechosos. Ojo, esto no te libera de tener que hacer chequeos manuales de enlaces.
Si se os ocurre alguna otra cosa para hacer con la herramienta, ¡comentad, malditos!
Se me ocurre tambien para extraer urls con canonical o redireccion hacia mis paginas (?)