Portada » Informática » Posicionamiento Web SEO: Origen, Evolución del Algoritmo de Google y Estrategias Clave
La definición más simple y estricta de la figura o técnica SEO podría definirse como Optimización para Motores de Búsqueda (Search Engine Optimization). Sin embargo, no se trata de optimizar dichos motores (de eso se encarga Google), sino las búsquedas de las páginas web que nos interesan.
Por lo tanto, el SEO engloba todas y cada una de las técnicas que se llevan a cabo para optimizar las páginas web con el objetivo de alcanzar la mayor visibilidad orgánica posible, es decir, las mejores posiciones en los resultados de búsqueda.
Si nuestra web trata de zapatillas deportivas, por ejemplo, no tendría ningún sentido que apareciera en las búsquedas de naranjas de Valencia. Definitivamente, el SEO son todas las técnicas implementadas en una web para alcanzar las más altas posiciones en los buscadores por los términos de búsqueda que interesan al negocio intrínseco de esa web.
Ya sabemos a rasgos generales qué es el SEO o posicionamiento web. Ahora, antes de explicar las etapas que se deben llevar a cabo en este campo, veremos cómo y cuándo nació el SEO.
Google fue fundada el 4 de septiembre de 1998 por el estadounidense Larry Page (apellido que adoptó el famoso algoritmo de Google, PageRank) y el ruso Serguéi Brin. Por aquellos entonces, no existían los buscadores tal y como los conocemos, sino una serie de directorios como Yahoo, Altavista, Excite y muchos otros.
La manera en la que se organizaba la información era muy diferente a la actual. En la era digital pre-Google, los motores de búsqueda mostraban los resultados de forma alfabética. Por lo tanto, el SEO (si es que se le puede llamar así) consistía simplemente en comprar dominios «alfabéticamente superiores».
Por ejemplo: si querías posicionar tu web por la palabra clave «Abogados», simplemente tenías que comprar el dominio «abogados-aaa.com». Y así sucesivamente. Esto es solo un ejemplo para entender la simplicidad de lo que antiguamente se llamaba SEO.
En mi opinión, el SEO no nació ahí, al menos no tal y como lo conocemos hoy día. El SEO nació cuando los fundadores de Google entendieron que los motores de búsqueda de entonces no resolvían las necesidades de los usuarios de la red.
Había una gran controversia en torno a qué web se le daba una mayor o menor visibilidad. Entonces fue cuando nació el PageRank.
El PageRank es una parte del algoritmo de Google que determina la «autoridad» de cada una de las webs, es decir, su relevancia y popularidad, basándose en el número total de enlaces externos que recibían. Por supuesto, el algoritmo del PageRank fue evolucionando, y Google también. Fue ahí, en mi humilde opinión, cuando realmente nació el SEO, tanto como figura técnica como la del profesional que lleva a cabo dichas técnicas.
Como pasa con casi todo en esta vida, el SEO evolucionó, y el motor de esa evolución fue, como ya habrás supuesto, Google. El algoritmo de Google creció, mejoró, aumentó su complejidad, y con ello forzó a los profesionales SEO a aumentar también sus conocimientos en técnicas, tanto recomendadas por la misma compañía (buenas prácticas) como experimentales e innovadoras en el sector.
El SEO no solo trata de llevar a cabo tareas que Google dicta para los sitios web, sino que también trata de innovar, de experimentar y de llevar al algoritmo de Google al límite, buscando cualquier resquicio por el que colarse.
Uno de los mayores valores de la compañía Google es el PageRank, que para ellos es como la popular, pero secreta, fórmula de la Coca-Cola. A diferencia de la fórmula de la Coca-Cola, la fórmula del PageRank ha sido sometida a múltiples cambios.
Al principio, el PageRank se basaba en catalogar a las webs conforme al número de enlaces entrantes o Backlinks que recibía. Esto era fácil de manipular, y los ingenieros de Google se dieron cuenta. Para impedir esta manipulación tan accesible y descarada, Google modificó el PageRank para que no solo tuviera en cuenta la cantidad de enlaces externos que recibía una web, sino también la calidad de esos enlaces.
Es decir, a partir de ese momento, tenía más valor un Backlink de una web con alta autoridad que uno de una web con baja autoridad.
Con el tiempo, el PageRank ha evolucionado en muchos sentidos, sumando factores para hacer la fórmula más compleja y menos manipulable:
Pero el algoritmo de Google no solo ha mejorado en torno al PageRank. Ámbitos como el tráfico web, la UX (Experiencia de Usuario), la WPO (Web Performance Optimization) y otros tantos, se han convertido en parte muy importante de dicho algoritmo, y por lo tanto, del SEO.
Poco a poco, Google fue incluyendo factores que ayudaron a evitar una fácil manipulación del algoritmo. (Nota: La exposición de estos cambios evolutivos no está mostrada cronológicamente.)
La necesidad de que las webs fueran cada vez más complejas y recopilaran un mayor volumen de información hizo que Google se centrara en premiar a los sitios que mejor organizada tuvieran dicha información. Esto tenía un fin claro: dar visibilidad a las webs que fueran más fáciles de usar y entender por parte de los usuarios. Por lo tanto, empezaron a ganar posiciones los sitios que estaban mejor organizados y tenían una arquitectura de la información bien estructurada.
El tráfico global también jugó un papel importante a la hora de cambiar el algoritmo. Una web con un alto volumen de tráfico empezó a tener más posibilidades de estar mejor posicionada en Google que otra con un volumen de tráfico más bajo.
El CTR es el número total de clics que recibe un enlace en comparación con el número total de impresiones (las veces que se muestra en las páginas de resultado de búsqueda). Google entendió que, mientras mayor fuera el número de clics de un dominio comparado con las impresiones, mayor utilidad tendría esta web para el navegante conforme a otras y conforme al término de búsqueda utilizado por el usuario. Por lo tanto, este fue otro de los factores que Google incluyó en su algoritmo.
El Link Juice es la capacidad que tiene una web de repartir «autoridad» entre sus URLs a través de los enlaces internos. Google entendió que también es muy importante la relevancia que el desarrollador o empresa de la web le da a cada una de las URLs. Dicho de otro modo, si enlazamos internamente un mayor número de veces a una URL que a otra, esta primera tendrá que tener más relevancia. El Link Juice funciona igual que el Link Building, existiendo una ecuación para denominar el valor o autoridad de cada una de las URLs de una web a través de sus enlaces internos.
En mi opinión, estos son los factores que más han evolucionado a lo largo de los años en el sector SEO. Por supuesto, no están todos, pero sí los más importantes.
A continuación, se presentan las técnicas más importantes que se usan en SEO o Posicionamiento Web a nivel profesional hoy día.
Como ya he comentado en varias ocasiones, el Link Building ha sido, es y será uno de los factores más importantes del posicionamiento web.
Aunque profesional y personalmente, yo lo llevo a otro nivel realizando un estudio de mercado orgánico, el Keyword Research es una de las principales técnicas de SEO y se encuentra en la primera etapa de cualquier proyecto SEO.
Esta técnica consiste en peinar el mercado orgánico en busca de los términos de búsqueda adecuados para el modelo de negocio y su volumen mensual de búsqueda. Por otro lado, se debe detectar la dificultad de posicionamiento de cada grupo de palabras clave y ordenar todos estos datos debidamente para posteriormente implementar estos términos de búsqueda en la web a través de la generación de URLs y contenidos.
Como también hemos comentado antes, generar una arquitectura de la información coherente y adecuada es de vital importancia. Una vez desarrollado el Keyword Research, podemos lanzarnos a crear la IA a partir de los datos recopilados en el estudio de palabras clave.
La densidad de palabras clave es una ecuación que se realiza sobre el texto total de una URL.
Ejemplo: Tenemos una URL y la palabra clave principal es «zapatillas deportivas».
La ecuación consiste en calcular el número total de veces que se repite la palabra clave en comparación con el número total de palabras que hay en el texto. La fórmula es la siguiente:
(NK * 100) / NP = Densidad NK
Donde:
El deber de un SEO es tener controladas las densidades entre un 0,3 % y un 1 %. (Nota: Esto puede variar dependiendo de varios factores).
El SEO negativo es aquel que se desarrolla por terceros con fines destructivos o por la propia empresa o desarrollador de la web con malas prácticas.
La técnica más usada es el Link Building negativo, que no es otra cosa que la creación de enlaces externos perjudiciales para la web.
La técnica de control consiste en estar constantemente informado sobre el perfil de enlaces externos de la web y detectar posibles campañas de SEO negativo. Una vez detectadas, se debe restaurar el perfil de enlaces a la configuración anterior mediante los llamados disavows.
Está más que comprobado que Google tiene una obsesión: sus usuarios. Google entiende que debe dar relevancia y visibilidad en sus páginas de búsqueda a las webs o URLs que aporten valor al usuario.
Todo esto implica que métricas como el tiempo en página, las páginas por sesión y el porcentaje de rebote deben tratarse con especial atención. La técnica consiste en analizar los posibles elementos que estén dificultando una navegación fluida e intuitiva.
Por otro lado, la relación estrecha entre término de búsqueda y contenido es de vital importancia, ya que aparecer en los buscadores por palabras clave poco o nada relacionadas con el contenido de la web evitará conseguir buenas posiciones.
El término crawling o crawleo hace referencia al método o procedimiento utilizado por los motores de búsqueda de Google para clasificar e indexar todas y cada una de las páginas web existentes en la red.
Esta indexación es fundamental para la visibilidad y el posicionamiento orgánico (SEO) de nuestra página, ya que es lo que va a determinar qué lugar ocupará en la página de resultados (SERP) tras las búsquedas de los usuarios.
El método de Google y otros buscadores para otorgar un puesto a nuestra página tras las búsquedas de los usuarios (es decir, su nivel de posicionamiento orgánico o SEO) proviene de la palabra ‘crawler’, que es una de las varias formas utilizadas para nombrar a los robots de búsqueda, como por ejemplo arañas, spiders o trepadores.
Los crawlers, que pueden traducirse literalmente como ‘arrastradores’, son pequeños programas que viajan por la red, enviados por Google (el resto de buscadores utilizan herramientas similares) con una hoja de ruta muy clara:
Hablamos de crawlers en plural porque existen distintos tipos de rastreadores y cada uno de ellos se encarga de analizar y puntuar una información diferente. Uno de ellos es el Crawl Budget, el cual asigna un tiempo específico a cada enlace.
En contra de lo que puedan decir supuestos gurús del SEO y de los artículos publicados por el propio Google, como este titulado How Search Works, la fórmula exacta del algoritmo no se conoce.
Sí se sabe que existen más de 200 variables, entre las que se encuentran:
Al mismo tiempo que son de conocimiento público los aspectos más valorados por Google en cada actualización de su algoritmo, también se sabe que otros han perdido fuerza, como la inclusión directa de las keywords en los encabezados de HTML (metatags).
El conocimiento y estudio de estos parámetros a considerar en el SEO hace que el concepto de crawling no sea completamente abstracto e ininteligible. Pero su fórmula exacta, es decir, la ponderación concreta de cada una de las variables que son tenidas en cuenta por los robots, sigue siendo el gran secreto de Google, celosamente guardado por los responsables de la compañía más importante del mundo en el ámbito de internet.
Es importante subrayar que el crawling, el método para determinar el orden de la página tras los resultados de búsqueda, está en constante crecimiento, perfeccionamiento y adecuación a las nuevas tecnologías y formas de uso de internet. Estas cada vez se decantan más por la navegación en dispositivos móviles, las búsquedas por voz y la importancia de la localización del usuario en el momento de buscar algo en la red.
