SEO y Comunicación: olvidar el PageRank y centrarse en los usuarios

1. El SEO en la era del PageRank

SEO son las siglas de Search Engine Optimization. El objetivo final del SEO o Posicionamiento Web es hacer “encontrable” y, por tanto, visible la información publicada en la web a través de las páginas de resultados de los buscadores o SERP (por Search Engine Result Page).

Hasta hace ¿tres años?, el PageRank era la principal preocupación de los estudiosos y profesionales del posicionamiento, incluyendo a quien esto escribe. Podemos decir que era un indicador sumamente cómodo porque expresaba en una sola cifra, en su inmensa mayoría de un solo dígito (del 0 al 9) casi todo lo que cabía saber de una página para valorar su posicionamiento potencial; con una ínfima minoría que tenían un cifra de 10 (el máximo teórico) como PageRank.

El PageRank (PR) es el algoritmo al que Google debe, históricamente, su supremacía en el sector de la búsqueda. A grandes rasgos, pero sin simplificación conceptual alguna, el PR es un número que resulta de calcular y ponderar cuántos enlaces de calidad apuntan a una página web. Dicho de otro modo, una página dada de un dominio determinado tendrá tanto más PR cuantas más páginas, que a su vez tengan un alto PR, enlacen a la página considerada. Si la página A recibe enlaces de las páginas B, C, … Z, que a su vez reciben enlaces de otras páginas, la página A recibe entonces una determinada cantidad de PageRank, a la que llamaremos PRn y que es la suma ponderada de los enlaces recibidos de B, C, …Z.

El PR que Google da a conocer de las páginas web va de 0 a 10, siendo que apenas hay unos centenares de página de todo el mundo que tienen un  PR de 10. Los sitios web de un gran número de empresas medianas y pequeñas tienen un PR 5. A partir de este número conseguir un PR más alto significa cada vez una mayor necesidad de inversión en la web, de manera que para muchas empresas un PR de 5 o de 6 es un techo de facto por la sencilla razón de que su volumen de negocio no le permite invertir más en la web. Solamente medios de comunicación muy importantes o grandes universidades, por citar dos casos muy significativos de sitios ricos en contenidos, pueden tener un PR de 7 o superior.

El PR de una página nunca fue el único factor que Google utilizaba para determinar la importancia de una página y, por tanto, su posición en la SERP, pero siempre fue el factor dominante con mucha diferencia. Era perfectamente posible saber si una página tenía altas posibilidades de formar parte del top 10 de Google si su PR era igual o superior 5; por el contrario, si una página tenía un PR igual o inferior a 3 era fácil deducir que casi nunca formaría parte del top 10. De aquí la obsesión de los estudiosos y responsables del SEO por el PR.

La cuestión es que hace tiempo que Google no actualiza sus datos sobre el PR de las páginas web. Si una página tenía un PR de 5 hace un año y desde entonces ha mejorado mucho sus enlaces de entrada, es igual porque seguirá teniendo un PR de 5. No decimos que Google no lo actualice internamente, por supuesto que debe seguir haciéndolo (es impensable que no utilice esa información), pero ya no lo da a conocer, y según declaraciones oficiales, no volverá a hacerlo en el futuro.

En lo que sigue, nos centramos en las nuevas señales que, según las evidencias disponibles, utiliza Google para decidir qué páginas son las más importantes para cada consulta; por lo tanto en teoría son los aspectos en los que deben centrarse los responsables de posicionamiento web del sector de la Comunicación

2. El nuevo SEO

Actualmente, la composición de una SERP es una función de, al menos, tres grupos de factores:

  • La pregunta formulada y la intención del usuario (user intent) detectada en la misma
  • Las características de las páginas que, eventualmente, podrían satisfacer la pregunta
  • El perfil del usuario que hace la pregunta

Cada uno de los factores anteriores se dividen a su vez en otros componentes. Por ejemplo, en relación al primero,  si la pregunta está formulada en lenguaje natural, Google intentará comprender la globalidad de la pregunta, no solamente las palabras clave que la componen. Además, intentará determinar si el usuario desea realizar una búsqueda navegacional, transaccional o informativa.

En la determinación de las características de las páginas Google concretamente declara combinar más de 200 señales, como las palabras del contenido, los metadatos, el uso (o no) de multimedia, el tipo de enlaces que entran y salen de la página, y así hasta esos 200 subfactores.

En cuanto al perfil del usuario, el buscador utilizará datos de búsquedas anteriores del mismo usuario (qué términos utilizó para buscar, dónde hizo clic otras veces), su ubicación geográfica y, si ha sido capaz de determinarlas, otras características demográficas (sexo, edad, nivel de estudios, ocupación, etc.).

Todo lo anterior se debe a que hace tiempo que los buscadores, y muy notablemente Google (que acapara el 95 por ciento de las búsquedas en España), intentan, en primer lugar, servir un contenido lo más relevante posible para cada usuario; y en segundo lugar cerrar el acceso, en su lucha contra el spam, a sitios que carecen de contenidos de calidad. Como decía el famoso economista, “no es la benvolencia del panadero, el carnicero, etc., la que provee mi mesa, sino su propio interés”. Aquí sucede lo mismo: no es que Google se haya transformdo en un ángel guardíán de nuestro bienestar mental, es que se juega su negocio si no consegue las dos cosas anteriores.

Los sitios intensivos en contenidos, de los que aquí nos ocupamos de forma preferente, y entre los que se encuentran los Medios de Comunicación, no tienen un problema especial con estos aspecto, al menos los así llamados “medios de referencia”. Su negocio se supone que es producir contenidos de calidad: fiables, rigurosos, bien editados y bien escritos.

La cuestión es que hace algún tiempo que se habla del nuevo SEO. El motivo son los continuados cambios que Google introduce en sus algoritmos para calcular la relevancia de la información publicada y por tanto el orden (el ranking) en el que aparece esta información en la SERP. Estos cambios son de tipo muy diverso, pero todos confluyen para intentar potenciar dos aspectos:

  • La calidad de los contenidos
  • Las señales de los usuarios

En cuanto a la calidad de los contenidos, es evidente que un robot es incapaz de “saber” si un sitio o una página es de calidad, pero en su lugar, puede utilizar numerosas señales: por ejemplo, la proporción de texto con relación a los anuncios; la existencia de errores de deletreo, etc.; en el caso de medios de comunicación Google considera la utilización de recursos multimedia, la mención de fuentes (nombre propios, nombre de empresas), el uso de datos factuales y la existencia de enlaces de entrada de sitios a su vez de gran calidad y muy relevantes en relación al sitio considerado, etc.  Además, Google dispone de un pequeño ejército permanente de personas que evalúan la certeza de los resultados de Google, evaluaciones que ayudan a Google a su vez a refinar sus algoritmos de detección de la calidad relativa de las páginas.

En cuanto a las señales de los usuarios, según los analistas, utiliza actualmente sobre todo tres indicadores y que son, a saber: (1) la tasa de rebote o bounce rate, (2) la duración de las sesiones y (3) el ratio de clics en la SERP, tres aspectos que por su importancia desarrollamos a continuación:

2.1. Bounce rate

La bounce rate (tasa de rebote) se mide por el número de visitantes de la página de entrada de un sitio que salen del mismo sin hacer en ella ni un solo clic. Es decir, supongamos que una persona después de una consulta determinada, hace clic en uno de los resultados de la SERP y entra en una página, la página A, que hemos llamado página de entrada; la examina y sale (hace clic en el botón de retroceder y vuelve a la SERP o entra una nueva URL en el navegador) sin haber hecho clic en ninguno de los enlaces disponibles en la página A.

Esta visita cuenta como un rebote. Si de cada cien visitantes, 70 hacen los mismo con las páginas de entrada de este sitio, su tasa de rebote es igual al 70 por ciento. Esta es una señal clarísima para Google: este sitio no merece escalar altas posiciones en su ranking porque su tasa de rebote, es decir, el porcentaje de usuarios que una vez acceden a una de sus páginas de entrada, deciden que carece de interés y se van sin interactuar en él es muy alto (70%).

2.2. Duración de la sesiones

Este indicador es aparentemente sencillo, y para algunos sistemas de análisis, como el que mostraremos después (Alexa), efectivamente lo es. Se trata del tiempo, en promedio, que los usuarios dedican a un sitio. Cuanto más alto, por supuesto, mejor. Las tasas de rebote altas están relacionadas con tiempos de duración de las sesiones bajos por razones obvias.

Sin embargo, pueden darse tasas de rebote bajas con duración de sesiones bajas Por ejemplo, Google debe tener una tasa de rebote bajísima (casi todo el mundo hace al menos un clic en su página de resultados), pero una duración de sesiones también muy bajo, porque el éxito de Google está en proporcionar respuestas efectivas. No obstante, lo ideal en todos los demás sitios (que no sean Google) es buscar tasas de rebote muy bajas y duraciones altas.

Otras métricas web utilizan el concepto de tiempo de permanencia más sofisticado en el que se combina duración de las sesiones, el porcentaje de rebote y el ratio de clics, un concepto este último que presentaremos a continuación.

2.3. Ratio de clics en la SERP

Por último, el tercero de los grandes indicadores que Google parece estar atendiendo últimamente como parte de las señales de usuario es el llamado Click Through Ratio (CTR) que consiste en el porcentaje de veces que un sitio que aparece en la SERP recibe un clic de los usuarios. Este CTR sin duda está inspirado en su sistema AdWords, que lo utiliza para decidir la primacía de los anuncios.

En el caso de los resultados orgánicos (resultados no pagados), se mide de forma similar,es decir, relacionando el número de veces que los usuarios hacen clic en un resultado dividido por el número de veces que se ha mostrado ese resultado. Supongamos que la página A aparece en algún punto del top 10 para una pregunta determinada. Si obtiene un bajo CTR entonces la página A sufrirá un descenso relativo la próxima vez que forme parte de la respuesta a una pregunta y puede llegar a quedar fuera del top 10 si su CTR es bajo.

alexa
Página principal del sistema Alexa

3. Algunos ejemplos

No podemos saber cuál es el CTR de una página de la que no seamos administradores, ya que es un dato que conoce Google y los administradores del sitio, pero si que podemos saber la tasa de rebote y la duración de la sesión (que, probablemente, deben estar relacionados a su vez con el ratio de clics). Para ello, podemos usar diversas fuentes. La fiabilidad de los datos nunca es del cien por cien, porque cada empresa suministradora de datos utiliza sus propias fuentes y la calidad de éstas es variable. Algunas de las tenidas por más fiables son Moz, Ahref y Alexa.

Por ejemplo, usando Alexa podemos construir la siguiente tabla de tres medios muy importantes en España con las tasas de rebote y la duración de las sesiones. Son los siguientes (con datos de finales de marzo de 2015):

MedioTasa de Rebote (%)Duración de las sesiones (mm:ss)
La Vanguardia47,905:03
El País46,505:43
El Mundo45,405:25

Se considera que un sitio tiene una buena tasa de rebote si la misma se mantiene por debajo de (o lo más lejos posible) del 50 por ciento. En cuanto a la duración de las sesiones, teniendo en cuenta la impaciencia típica del navegante de Internet, es completamente normal encontrarse con cifras de unos cuantos minutos como podemos ver en la tabla anterior. Otros sitios típicamente muy ricos en contenidos, como los museos, ofrecen minutajes parecidos o incluso inferiores.

 4. ¿Siguen siendo importantes los enlaces de entrada?

La falta de actualización del PR no significa que los enlaces de entrada dejan de tener importancia para el posicionamiento. La verdad es que son importantes, y mucho. Lo que significa el abandono del PR es otra cosa. Probablemente significa algo como lo siguiente:

  • Google ya no concede tanto peso a este factor; es decir ahora Google utiliza también señales de los usuarios, de su perfil, de la web social, indicadores de calidad, etc.; y no confía tanto en los enlaces de entrada interpretados a través de su PR. Dicho de otro modo, actualmente, una página con un PR bajo (igual o menos que 3) puede obtener posiciones muy altas en la SERP, e incluso superar a sitios con un PR mucho más alto.
  • Además, el peso de los enlaces de entrada Google los calcula ahora de otro modo, probablemente, teniendo en cuenta no solamente el número de los mismos, sino también:
    • la proximidad temática de los enlaces de entrada,
    • el texto que forma parte del enlace de entrada (texto de anclaje, la parte que aparece de color azul y subrayada en muchas webs)
    • el texto próximo al enlace de entrada y, por último,
    • el prestigio, fiablilidad o reputación del sitio del que proceden los enlaces de entrada.

Los practicantes del black al white, pasando por el greyhat SEO, están removiendo cielo y tierra para conseguir enlaces de entrada que cumplan las normas anteriores, señal que este factor aún es muy importante. Por tanto, las empresa de comunicación deben seguir cuidando este aspecto, y sus responsables de SEO deben seguir pensando en cómo obtener enlaces que cumplan las condiciones anteriores, al menos en aquellas condiciones que están en su mano.

5. Conclusiones: centrarse también en la navegación

No podemos olvidar de los enlaces de entrada, pero sí desde luego el viejo PR. En concreto: olvídese de descargar las barras de herramientas que le dicen el PR de su página, porque ya no va a cambiar por muchos enlaces de entrada nuevos que consiga.

Para el sector de la Comunicación, esto significa al menos dos cosas. En primer lugar, los medios de comunicación cuentan con un aliado en teoría formidable: sus contenidos, se supone que (muchas veces) únicos y (casi siempre) de calidad. Centrarse en los contenidos en vez de centrarse en el PR es centrarse en los usuarios, esto está claro. Pero si volvemos a los indicadores que ahora cuenta, resulta qie para bajar las tasas de rebote y optimizar los tiempos de permanencia es imprescindible una buena experiencia de navegación, lo cual a su vez, comporta, como mínimo:

  • Un buen diseño de la arquitectura de la información
  • Un buen diseño de navegación
  • Una taxonomía para caracterizar los contenidos que esté articulada en Secciones o Categorías y Etiquetas o Palabras Clave
  • Capas de navegación semántica y adaptativa formadas al menos por:
    • Artículos relacionados
    • Artículos más leídos
    • Artículos más votados
  • Una hemeroteca digital con un buen sistema de recuperación de información con:
    • Búsqueda simple
    • Búsqueda avanzada
    • Búsqueda parametrizada

Por supuesto, los medios deben pensar siempre en un periodismo de calidad,sin lo cual todo lo anterior no sirve para nada. Esto implica un periodismo al servicio del ciudadano, que a su vez implica buenas dosis de periodismo de denuncia. Esto es, si los medios quieren sobrevivir a la tecnología disruptiva que está significando la web y la siguiente oleada que se avecina de la mano de la web móvil y de la Internet de las cosas.

Artículos relacionados en la Web