Facebooktwitterlinkedin

Ya tengas un blog personal, una web corporativa, un ecommerce, etc… deberías leer este breve pero valioso articulo en el cual te expondré cuales son los principales algoritmos de Google que hacen que tu web tengas más o menos visibilidad en las SERPs.

algoritmos de google

2011: Algoritmo Google Panda

Este algoritmo salió a la luz en el año 2011 y se centraba en analizar el contenido de tu página web o ecommerce. Es decir, antes del año 2011 era muy fácil posicionar una web. Por ejemplo esta web de pádel para salir en el top3 de Google por la búsqueda de «mejores zapatillas de padel» tan sólo tendría que poner esa frase muchas veces en el contenido de la web y el algoritmo de google la colocaría en los primeros resultados porque el sistema de clasificación se fijaba únicamente en el número de veces que estaba escrita la palabra en cuestión para ordenar el ranking de las webs.

Pero no sólo afectó a este tipo de páginas que abusaban de la keyword principal, sino que como novedad el algoritmo Google Panda también se centraba en penalizar:

  • Webs con escaso contenido que tan sólo repetían las palabras claves una y otra vez con diferentes sinónimos sin preocuparse por aportar valor.
  • Webs con contenido duplicado o copiado de otras páginas y poco modificado.
  • Webs con contenido que no aportaba valor al usuario y sólo se centraban en «piratear» el algoritmo.

2012: Algoritmo Google Penguin

Antes del año 2012 que fue cuando Google liberó su pingüino era relativamente fácil posicionar una web, ya que tan sólo se trataba de colocar el mayor número de enlaces entrantes hacia tu web para ocupar los primeros resultados en el buscador internacional.

Esto se hacía con herramientas que trabajaban en automático y en pocos días podías tener una web recién creada con una gran cantidad de tráfico para destinarlo al fin que buscases.

Lo que Google perseguía con este algoritmo era premiar a aquellas webs que sí que conseguían sus enlaces en base al contenido de calidad que aportaban y que lo hacían de forma natural y progresiva.

2012: Algoritmo Venice

Algoritmo anunciado por Google en febrero de 2012 y que cambiaría para siempre las búsquedas locales. Esto afectaría tanto a la respuesta de usuario como al plan de trabajo del posicionamiento online.

Es decir, si un usuario antes del algoritmo Google Venice buscaba desde la ciudad de A Coruña una empresa de fontanería el resultado era general, a no ser que se buscase de forma local, es decir, poniendo en el buscador «empresa de fontaneros en Coruña». Pero las reglas del juego cambiaron con la puesta en escena de Venice, ya que el usuario ya no tendría que poner «empresa de fontaneros en Coruña» sino que con sólo buscar «empresa de fontaneros» el buscador ya le arrojaría los fontaneros más cercanos dentro de su ciudad.

Esto hizo perder mucho tráfico a webs generales de servicios a nivel nacional, pero por el contrario trajo varias mejoras:

  • El usuario ya no tendría que buscar por su ciudad, sino que el propio Google en base a su IP conocería su ubicación para darle el mejor resultado local.
  • Desde este momento empezaron a coger fuerza las empresas locales, por encima de los grandes directorios y de empresas nacionales.
  • Para los SEOs como yo; la gran diferencia fue la de poder emplear mapas de Google en las webs para atacar las posiciones locales. Este «truco» del mapa junto con una dirección exacta del negocio y avalado por Google My Business ayudaban y mucho a mejorar en las SERPs.

Actualización del SEO Local en 2016 con Possum

En el 2016 sale el algoritmo de Google Possum que también hace referencia al mundo del SEO local. A partir del algoritmo Venice que he comentado anteriormente, las búsquedas locales entran en juego pero con un problema que se arregló con la entrada en 2016 de Possum; te pongo un ejemplo.

Antes de Possum si tu te encontrabas en la zona norte de la ciudad de Madrid y buscabas una empresa de recambio de neumáticos, google te geolocalizaba en base a tu IP y determinaba que te encontrabas en Madrid y sólo te daba resultados de Madrid ciudad. Pero con la entrada de Possum, Google sigue interpretando que estás en la ciudad de Madrid pero no lo convierte en algo excluyente para el resto de municipios limítrofes. Por lo que te mostrará empresas de recambio de neumáticos que se encuentran en Pozuelo, las Rozas, etc… que en verdad te quedan más cercanas que Madrid sur. Esta fue la principal ventaja de este algoritmo.

Esta actualización del algoritmo implicó que se perdiese visibilidad en algunas webs porque el algoritmo mejora y tu web deja de ser el «mejor resultado» o el «resultado más cercano».

2013: Algoritmo Hummingbird

Este es uno de los algoritmos de Google que fue implementado en el año 2013 y se basa en analizar la semántica en nuestras búsquedas, puede parecer algo poco importante así de primeras, pero hay que destacar que la salida de este algoritmo afectó a más del 90% de las webs mundiales que se encontraban catalogadas dentro de las SERPs de Google.

Gracias a este algoritmo se consiguió que los resultados en el buscador fuesen más naturales y la intención de búsqueda del usuario se respondiese de una mejor forma.

2014: De http a https

Fue en el 2014 cuando Google anunció que las webs deberían migrar de http a https. Este no sería uno de los cambios de algoritmo de Google que haría grandes «estragos» entre la comunidad online pero sí que dejó claro que sería uno de los factores de entre muchos a tener en cuenta por Google para clasificar y mostrar según qué webs dependiendo de su cifrado.

¿Pero para qué es el protocolo https que tanto le gusta a Google y para que nos puede servir?

Este protocolo de https se conoce también como certificado SSL y su objetivo es el de codificar la sesión del usuario en nuestra web. De esta forma se «garantiza» que el intercambio de información que se produce entre el usuario y la web se dé de manera segura y esta no pueda ser interceptada por terceros.

Ante este cambio de política en Google recomendando el protocolo https para garantizar nuestra seguridad y nuestros datos personales, también se produjeron cambios en las SERPs, a causa de dos factores:

  1. El primero de ellos fue debido a que al aparecer un nuevo factor de posicionamiento las webs que lo empleaban mejoraban el SEO y esto les hacía ganar posiciones; por lo que si no lo instalabas te podías quedar atrás en las SERPs, no porque te penalizase google, sino porque valoraba mejor el SEO de tu competencia.
  2. El cambio de http a https provocó muchísimos quebraderos de cabeza para algunas webs, llegando a clonar la web y tener contenido duplicado. Ya que google interpretaba que http://miweb.es era una web y que https://miweb.es era otra web diferente pero las dos con el mismo contenido…. te podrás imaginar como sentaría esto a su visibilidad.

2014: Algoritmo Google Pigeon

Este algoritmo de Google es uno de los grandes desconocidos para muchos webmasters y agencias de SEO, ya que tan sólo se encarga de regular las búsquedas locales de la siguiente manera:

  • Gracias a este algoritmo un web local de cualquier negocio puede posicionar por delante de un gigante en internet para una búsqueda en concreto en una ciudad de un servicio. Por ejemplo, si tengo una web de maletas como esta de maletas10.online que tiene una buena presencia para muchas búsquedas de google… si pretendo posicionarla para la palabra «tienda de maletas en Barcelona» en base a este algoritmo tendrá menos posibilidades de salir en los primeros resultados que si creo una web de maletas con la url maletas-barcelona.es por ejemplo.
  • Del mismo modo se premiaron los enlaces locales a los enlaces generales. Siendo más importante para un posicionamiento local un enlace de un periódico de esa misma localidad que un enlaces desde un periódico de nivel nacional, salvando siempre las distancias.

2014: Actualización a Pirate 2.0

Se trata de una actualización del algoritmo pirate 1.0 que salio en 2012. Con este algoritmo Google quiere afectar a las webs de descarga de contenido pirata ya sean programas, peliculas, plantillas, etc…

De esta forma, aporta su granito de arena contra la piratería informática. Beneficiando a las webs y portales en los que sí se pueden descargar esos programas, peliculas, etc… de forma legal y cumpliendo con los objetivos de webs como DMCA.

Hoy en día, en el año 2019 cuando redacto este articulo, no se sabe nada de una nueva actualización a pirate 3.0, pero en base a mi experiencia sí que te puedo decir que ha habido cambios ya que desde hace un año aproximadamente es más difícil que google te acepte en Google Adsense webs de nicho con la palabra «descarga» o destinadas a tal fin para ganar dinero con los anuncios de Google.

2015: Algoritmo Mobilegeddon

Este que he puesto es el nombre «técnico» que recibió este cambio de algoritmo y puede ser que por ese nombre no te resulte familiar. Pero seguro que reconoces este algoritmo si te digo que hace referencia a las webs que son «mobile-friendly».

A partir del 21 de abril de 2015 el buscadorcomenzaría a apostar por las webs que se adaptan a los diferentes modelos de teléfonos móviles. Lo principal y lo más importante para pasar por el aro de este algoritmo era tener un theme responsive, es decir un theme que hiciese que la web se ajustase tanto para ordenadores de mesa, como para tablets y móviles.

Hoy en día todos los themes que salen al mercado (hablando de WordPress) son mobile friendly pero aún incluso por el año 2015 y 2016 eran muchos los diseñadores que apostaban por themes que no eran mobile friendly con tal de ganar en diseño a la hora de ver la web en desktop. Un error, debido a que hoy en día casi el 70% de las visualizaciones de las webs se hacen desde teléfonos móviles.

A través de este enlace puedes ver como esta web, marketing4ecommerce.net da el resultado de «página optimizada para móviles» desde la herramienta de Google específica para probar esto.

algoritmo google mobile friendly

Evolución de Mobilegeddon en 2016 a «Mobile first index»

A raíz del 2016 con el algoritmo «mobile first index» para google la visualización de la web en móvil pasa a ser la más importante, ya que desde ese año se hacen más búsquedas con móviles que con ordenadores. De esta forma google navega por nuestra web (versión movil) simulando ser un usuario real y dando importancia y relevancia a determinados factores en la misma como pueden ser:

  • Tamaño adecuado del texto en la web.
  • Que los botones que salgan tengan el tamaño adecuado también.
  • Que las listas de enlaces salgan bien diferenciadas para poder hacer clic sobre el enlace que queremos.
  • Que las imágenes no rompan el formato de la web
  • Etc…

Google primero rastrea y luego indexa; lo que pasa con este algoritmo es que va a dar más importancia a la indexación de la versión movil, y si esta difiere de la versión desktop tu posicionamiento en el año 2016 podría haberse visto perjudicado al dejar de indexar determinadas páginas o contenido de la web que se muestra en versión móvil pero no en versión desktop.

2015: Rankbrain

Este es uno de los algoritmos más extraños y misteriosos de Google a mi modo de ver.

Se le pone una fecha de salida, 2015… pero en verdad viene a ser una interpretación de los algoritmos de Penguin y Panda al poder interpretar respuestas que se dan en las SERPs a determinadas búsquedas. Lo que sucede es que va un poco más allá, porque no se trata de una actualización del algoritmo en un momento en concreto, sino que se podría decir que empleando la Inteligencia Artificial, cada vez mejora más la respuesta de usuario en los resultados de Google.

No pienses que estoy hablando de conciencia… en verdad Rankbrain se basa más en las matemáticas y en el estudio de vectores. Para que lo entiendas, con este algoritmo google analiza cada vez que buscas algo en su página y no quedas contento con lo que aparece y vuelves a hacer una segunda búsqueda pero cambiando palabras. De esta forma el algoritmo se modifica a sí mismo para esa búsqueda inicial asociando ese resultado a la segunda búsqueda que sí te ha servido como respuesta y haciendo cambios en las SERPs en función de la intención de búsqueda. Es difícil de explicar, por este motivo te dejo un vídeo en el cual lo podrás entender mejor:

2017: Algoritmo Google Fred

Es un algoritmo que salió en 2017 y afecta sobretodo a aquellas webs que estaban centradas en la temática dinero y que buscaban enriquecerse por medios diferentes a los de Google Ads. De esta forma google conseguiría quedarse con una mayor parte de los anuncios e ingresos por publicidad en estas webs de dinero y finanzas. Una jugada muy inteligente por parte de google para aumentar su monopolio. Después de todo, Google es una empresa privada y busca siempre la mejora de sus beneficios.

lista algoritmos google

2018: YMYL (Medical update)

Este es un algoritmo que se aplicó el 1 de agosto de 2018 y que afectó sobre todo a las webs de temática salud y temática dinero. Podría hablarte durante horas de este algoritmo ya que yo fui uno de los perjudicados en varias webs en las que tenía buen tráfico y google se lo cargó tal y como puedes ver en la imagen.

algoritmo you money your life google 2018

La flecha indica el día 1 de agosto de 2018 cuando entró en vigor el algoritmo que pretendía:

  • Luchar contra las webs de alimentación, consejos de salud, etc… que no eran «profesionales». Es decir que no estaban respaldadas por profesionales del sector como pueden ser doctores, psicólogos, etc… Esto tiene su sentido ya que algunas de mis webs acerca de enfermedades llegaron a estar top3 para algunas búsquedas relacionadas con curas para enfermedades y las webs de verdad de doctores, clínicas, hospitales, etc… salían después de la mía.
  • Luchar contra webs de tematica dinero, créditos, etc…

Como puedes ver en la imagen, la «hostia» fue considerable ya que pasé de tener entre 2000 y 3000 visitas diarias a 100 visitas que tengo a día de hoy.

Como puedes ver, durante meses intentamos levantarla, con enlaces a y desde clínicas, hospitales, nutricionistas, etc… haciendo perfiles «falsos» de nutricionistas para que Google se creyese de nuevo la web, pero finalmente a principios de este año desistimos y la web ha caído en el olvido. Una pena, pero en verdad tiene lógica la caída ya que yo como SEO era más leído que doctores que vivían de tratar esas enfermedades.

2019: Neural Matching

En noviembre de 2019 se confirmó una nueva actualización, Neural Matching.  El Neural Matching o coincidencia neuronal permite a Google comprender de mejor forma cuándo las consultas que los usuarios realizan tienen una intención de búsqueda local, incluso cuando no se incluyen en la búsqueda el nombre o descripción de la empresa.

De acuerdo con Google “esto significa que podemos devolver mejor las páginas relevantes incluso si no contienen las palabras exactas utilizadas en una búsqueda, al comprender que la página está relacionada con otras palabras y conceptos”.

Neural Matching: Google confirma la última actualización de su algoritmo

Aclaraciones sobre los algoritmos de Google

Cuando una actualización del algoritmo de google causa un gran revuelo o se cree que cambiará mucho las SERPs, a esta actualización de algoritmo se le pone un nombre para que la comunidad del mundo online lo identifique y se ponga las pilas para arreglar cosas en sus webs que a google no le gustan.

Pero hemos de tener claro que todos los días se producen cambios o «micro cambios» en el algoritmo de google que afectan de forma directa o indirecta a nuestras webs. Por lo que voy a dar un pequeño resumen de algunos de los factores que afectan a una web. Todo esto hay que cogerlo siempre con pinzas, ya que el algoritmo funciona de forma diferente en temáticas distintas. Veamos algunos factores a tener en cuenta de posicionamiento:

  • Que el hosting sea español. Es importante para el SEO que el hosting que eliges sea español. Una forma de remediarlo es contratando IPs españolas para simularlo. Hay que tener en cuenta que la localización de los servidores de tu web afecta al tiempo de carga, pero esto es algo de lo que hablaré otro día en otro post 😉
  • El tiempo de carga de la web. Últimamente en las diferentes conferencias y charlas a las que he acudido se hace referencia a que si tu web tarda más de 3 segundos en cargar, no hace falta que te penalice Google porque ya lo hace el propio usuario al abandonar tu web y buscar otra similar. Así que mucho ojo al tiempo de carga.
  • Los enlaces en medios de prensa. Google ha dicho siempre que los enlaces no se pueden comprar y menos los de medios digitales, por ello mucho cuidado con abusar de este tipo de enlaces y de las plataformas en los que se compran, porque pueden afectar al posicionamiento de tu web en base a la estrategia de linkbuilding.
  • Palabras clave. A día de hoy aún hay gente que crea una web y «pasa» olímpicamente de las palabras clave. Me gustaría preguntarle a esas personas qué es lo que tienen pensado posicionar y sobre todo para quién.
  • Empleo de los H2 o Subtítulos. Eso que ves en la parte superior izquierda en donde puedes cambiar el tamaño de la letra, no es para hacer más bonito el texto, es para dar a Google pistas de la estructura del texto. Así que mucho cuidado con esto.
  • No usar contenido duplicado. Esto ya lo expliqué en el primero de los algoritmos, Panda. A día de hoy se entiende más que ya no penaliza como antes, pero que Google no tendrá en cuenta ese contenido. De todos modos, nunca pongas en tu web contenido duplicado. Y mucho cuidado con los redactores que se contratan porque en ocasiones lo que hacen es plagiar a otros escritores si no analizas bien el texto.
  • Emplea imágenes. Las imágenes son muy importantes para Google también, le ayudan a dar sentido al texto y valor al usuario. De todas formas no olvides nunca establecer el alt de las imágenes para que Google sepa mejor de que tratan.
  • Haz linkbuilding. Lo de que si tienes contenido de calidad la gente te enlazará es muy bonito, pero por si las moscas tu haz linkbuilding con cabeza y verás como tus proyectos y webs van ganando visibilidad y luego llegan esos enlaces de linkbaiting.
  • Contenidos de no menos de 300 palabras. Esto es para dar valor al texto y al articulo en sí. Una web con poco contenido tiene menos posibilidades de tener visitas que una con un mínimo de 400 palabras por articulo. Ojo que hay búsquedas para las que no hace falta contenido, como por ejemplo: «calculadora de iva» «contador de palabras» etc… Dentro de esta regla también dejo fuera las google news, de las que hablaré otro día.
  • A Google le gustan más las webs verticales que las webs horizontales. Por ejemplo, si yo tengo una web de SEO como la de mi amigo Jose Tassias en la que hablo de SEO y anuncio unos servicios, no hagas artículos en tu blog para atrapar a gente que quiera comprar portátiles para programar o portátiles para ingenieros como este artículo. Esto no le gusta a Google, que es cierto que se puede posicionar algo de tráfico pero este trafico no fluirá a través de tu web. Porque si yo accedo a una web de ordenadores lo que quiero es ver análisis y diferentes páginas internas hablando de este tipo de ordenadores, no que de repente me hablen de servicios de SEO que no es lo que busco. Esto hace que nuestra gráfica de permanencia en nuestra web sea menor de lo que debería si mi sitio fuese 100% vertical.

 

Mantente informado de las noticias más relevantes en nuestro canal de Telegram