Penguin 4 en tiempo real o algo mas?

penguin-4-tiempo-real

 

El pasado 23 de Septiembre Google confirmó en su blog oficial la actualización más esperada en la historia del SEO, Penguin 4 en tiempo real.

Una de las principales razones que han llevado a Google a realizar este cambio, es la constante presión de la industria, solicitando solución al problema de lentitud de iteraciones generando largas esperas para recuperar posiciones si eras impactado (siempre negativamente) por las versiones 1, 2 y 3 del algoritmo.

Google comenzó a hablar y especular en fines de 2015 sobre una pronta actualización de Penguin y que esta vez sería en tiempo real.

Muchos pensaron en Enero que se trataba de este anhelado cambio pero finalmente Gary Illyes comentó que se trataba de una actualización del algoritmo núcleo y no Penguin.

not-google-penguin-4-0

Aproximadamente el 1 de Septiembre según Mozcast, o el 2 según AWR o el 4 según Algoroo, se genera una fluctuación importante en los SERPS.

MOZCASTmozcast-serp-septiembreALGOROO
alagaroo-serp-septiembreAWR Cloud
awr-serp-3m

Luego el 14 de Septiembre se produce una segunda fluctuación y rápidamente comienzan las primeras reacciones desde Seroundtable.com, Searchengineland.com y otros sitios como searchenginewatch.com preguntándose si se trataba de Penguin.

Según Mozcast los movimientos de SERPS no han disminuido hasta el día en que me encuentro editando este articulo (1 de oct. de 16).

mozcast-fines-septiembre

El pasado 23 de Septiembre, Gary Illyes de Google realiza la confirmación formal en el Webmaster Central Blog de Google y vía Twitter

pero

 ¿Es realmente Penguin 4 u otra cosa?

Desde Link Research Tools insisten en que esto se trata de Penguin

“I firmly believe, based on my experience, the history of Google Penguin and what I’ve seen the last days, this is the Google Penguin 4.0 rollout, the real time update.”

“Creo firmemente, basado en mi experiencia, la historia de Google Penguin y o que he visto los últimos días, que esto es un roll out de Google Penguin, la actualización en tiempo real”

— Christoph C Cemper

 

Pero también el hecho de que la actualización de Penguin 4 es la más esperada en la historia del SEO hace que podamos nublar nuestra visión para ver lo que realmente esta sucediendo.

¿PENGUIN 4 EN TIEMPO REAL?

Google aclara de la siguiente manera esta esperada característica:

“Penguin’s data is refreshed in real time, so changes will be visible much faster, typically taking effect shortly after we recrawl and reindex a page”
“Lo datos de Penguin se refrescan en tiempo real, por lo que los cambios (de posiciones) serán visibles mucho mas rápido, típicamente tomando efecto muy poco después de cada recrawl y reindexacion de una página”

— Gary Illyes

¿Que significa que sea en tiempo real? ¿A que se refieren?

Gary Illyes en el mismo comunicado oficial, se refiere a que “el problema de Penguin era que requería de una iteración completa y luego cada cierto tiempo se generaba un refresh de la lista de sitios afectados por este algoritmo. Ahora con los cambios que trae esta nueva versión, los datos de Penguin se refrescarán en tiempo real, por lo que será mucho mas rápido, dependiendo prácticamente de la velocidad de crawling de tu sitio.”

En otras palabras, lo que entendemos por “en tiempo real” significa que cuando Google indexa una página, va a recalcular inmediatamente las señales asociadas a Penguin, es decir, su perfil de enlaces.

Podría pasar como dice Josh Bachynski que en cada crawleo el robot evaluará las señales SPAM de una página desde donde recibes un link y que ha generado anteriormente una penalización de Penguin. Luego, si esta página resuelve estas actitudes SPAM, digamos 1 semana después, cuando vuelva a pasar el robot por esta pagina, el algoritmo Penguin al ver que ya no posee señales SPAM dirá, a OK, ahora estoy conforme por lo que retiro la penalización.

Esto significa que las penalizaciones deberían durar mucho menos ya que no tendremos que esperar una iteración del algoritmo o lo que era peor una completa actualización como era antes, ahora podremos eliminar una penalización de Penguin mucho mas rápido, lo que es muy bueno!

Penguin es ahora parte del algoritmo central

Tomando las palabras de Amit Singhal:

“Hummingbird es todo el algoritmo de Google y representa una tremenda oportunidad de comprender e interpretar las cosas mejor de lo que nunca habíamos podido”

— Amit Singhal

 

Podemos llamarle algoritmo central también pero se me hace mas fácil de comprender utilizando un concepto que conozco como el de Hummingbird.

En primer lugar Penguin se une a la infraestructura Hummingbird (Panda, Rankbrain, Pichon, y todos los algos). Ello implica que desde ahora Penguin tiene mucho mas herramientas para evaluar la calidad de un enlace, ya que será capaz de resolver en base a calidad, entorno, contexto, entidades, etc. el valor o lo SPAM de un enlace.

Otra ventaja de manejar todo dentro del nucleo y no como un filtro como eran las anteriores versiones de Penguin, es que puedes tener un mayor control sobre los errores que pueda generar el algoritmo. Digamos por ejemplo que Penguin penalizaba un sitio y como muchas veces ha sido mostrado en los Hangoputs de John Mueller, sucede que el sitio a pesar de limpiar su perfil de enlaces, de eliminar todas las posibles malas prácticas, se mantenía penalizado

Mantener todo en el nucleo es sin duda mucho mejor y mas eficiente, el tema pasa por saber que fue en realidad lo que sucedió.

¿Es que Penguin se hizo parte del algoritmo central? o es que en realidad el algoritmo central es el que cambió, incluyendo en su núcleo una versión construida totalmente desde cero, con otras herramientas y entorno totalmente distinto a la versión anterior, es decir, un Penguin escrito directamente y desde un principio dentro del núcleo y para el núcleo y no pasó a formar parte de nada, sino que nació desde un principio en el núcleo, por lo que la verdad se me hace difícil seguirlo llamando Penguin 4, seguramente de sus versiones anteriores no hay ni rastros.

¿Penguin 4 o Hummingbird 2?

Lo que sabemos es que Google nos advirtió de que esta es la ultima vez que sabremos de un refresh de Penguin:

“It also means we’re not going to comment on future refreshes.”

“También significa que NO haremos comentarios sobre futuros refreshes”

— Gary Illyes

 

El hecho de reflexionar sobre las siguientes características de esta nueva versión:

Este es un algoritmo que fue concebido desde un principio dentro del núcleo
Fue desarrollado prácticamente de cero
No volveremos a ver actulizaciones
Ciertamente el resto del algoritmo central tuvo que tener cambios sustanciales

 

Hacen pensar de que es una falacia haberle llamado Penguin 4 en tiempo real.

Si el algoritmo central ha sido denominado como Google Hummingbird por Amit Singhal, entonces creo que esta sería una nueva versión de Hummingbird y no de Penguin que solo llegó a la versión 3, luego fue dado de baja.

rip-google-penguin

Penguin se fusiona a Hummingbird ¿Que implica?

En éste video Josh Bachinski, se refiere a la fusión entre Penguin y el machine learning asociado a Rankbrain.

En términos de procesamiento de información me parece que debieron haber encontrado la forma de simplificar al máximo este procesamiento, seguramente eliminaron muchos factores que tenía la versión anterior, en este sentido habría que preguntarle a John Mueller si seguirán utilizando las versiones anteriores del algoritmo como ha dicho opera Panda.

La otra opción es que su fusión al núcleo le ayuda a comprender mejor las cosas ya que “analiza de forma mas granular tomando en cuenta señales SPAM de la página”.
Al contar con la infraestructura de Hummingbird los enlaces se vuelven semánticos y posiblemente sea mucho mas fácil identificar el valor, claro que esto implica un cambio total en la valoración que Google hacia de los enlaces.

Creo que hay un poco de ambas ideas en juego, definitivamente debieron haber encontrado una manera de simplificar el lento y tedioso proceso del algoritmo Penguin para evaluar los enlaces o lo SPAM de un enlace y a la vez contar con la infraestructura del algoritmo central, le permite definir no solo con mayor exactitud y velocidad sino que con mayor granulosidad lo SPAM de un enlace.

Ten en cuenta que Google tampoco puede activar un cambio que genere fluctuaciones desmesuradas en los SERPS, ellos realizan muchas pruebas en función de este tipo de cosas, de manera no parecer bajo un descontrol de las cosas.

Linkaudit indica que los efectos de éste cambio pueden estar por venir para ti y posiblemente aún no te veas afectado si por ejemplo activaste tu archivo disavow durante 2016, y los que se vieron afectados entre el 2 y el 23 de septiembre fueron quienes realizaron sus disavow files hasta el 2015.

 

Para todos los países y en todos los idiomas

¿Que tan cierto es esta afirmación de parte de Google?

Por todos es conocido que Google opera mejor en ingles semánticamente que en otros idiomas y lo vemos en reiterados casos en idioma español, y seguramente en otros idiomas suceden cosas similares cuando nos salimos del ingles.

Cambios que nada tienen que ver con Penguin se han visto los últimos días

Un ultimo argumento para decir que podría tratarse de algo mas que Penguin es que los últimos días he podido observar cambios en los SERPS, pero por otro tipo de razones

Algunas señales distintas a enlaces que marcaron cambios recientes y que podrían indicar que no solo se trata de Penguin el causante de la tormenta en los SERPS de los últimos días:

Se observa mayor granulosidad a la hora de seleccionar la página mas adecuada de cada sitio, en donde sub páginas enfocadas en un tema han reemplazado en los SERPS a la home en muchos casos en donde solo posicionaba el home de un sitio.

Se observan cambios de posiciones a paginas con títulos de cola mas larga que intentan ser mas especificas y una baja importante en paginas que abarcan mas temáticas y menos densidad.

Penguin es ahora mas granular

“Penguin now devalues spam by adjusting ranking based on spam signals, rather than affecting ranking of the whole site. “
“Penguin ahora devalúa SPAM ajustando el ranking basado en señales SPAM, mas que afectar el ranking de todo el sitio.”

— Gary Illyes

 

Lo que ha llevado a todos a pensar que actúa directamente sobre páginas (categorías, productos, secciones, etc) de un sitio, sin embargo, en TheSEMPost aparece una declaración que dice que no solo se trata de páginas, cuando le pregunta al Googler si el termino Granular significa que actúa en páginas individuales, a lo que el Google responde:

“No, it means it affects finer granularity than sites. It does not mean it only affects pages”

“No, significa que afecta una granulosidad mas fina que un sitio. No significa que solo afecte páginas”

— Un Googler consultado por The SEM Post.

 

Aquí claramente No dicen que esta granulosidad llegue a paginas, quizás se refieren a que ahora por ejemplo podrían considerar fuera de la penalización un sub dominio completo o una carpeta, pero no la página, o bien significar que llegaron mucho mas allá y que analizan secciones dentro de la pagina para entender mejor la calidad del enlace saliente, lo que me hace mas sentido formando parte de Panda que es capaz de analizar secciones o zonas dentro de una página.

¿Pero el recrawling de qué página o sección? ¿La página SPAM que me apunta o mi página?
Bueno Google responde de la siguiente manera:

“We look at the webmaster’s page and devalue incoming spam as we recrawl and reindex the particular page. So it’s the webmaster’s page that we’re taking about, not the spammy site.”

“Vemos la página del webmaster y devaluamos el SPAM entrante a medida que reindexamos la página en particular. Por lo tanto, hablamos de la página del webmaster, no del sitio SPAM.

— Un Googler consultado por The SEM Post.

¿Cambios en los Guidelines? Mmmm nop!

Vale la pena señalar que Google no ha cambiado sus guidelines sobre enlaces con este nuevo algoritmo.

El broche de oro

Finalmente y como broche de oro Gary termina despidiendo el comunicado indicando que ahora Penguin es uno mas de los 200 factores:

“It’s also important to remember that updates like Penguin are just one of more than 200 signals we use to determine rank.”

“Es importante recordar que actualizaciones como penguin son solo uno de más de 200 señales que utilizamos para determinar el ranking”

— Gary Illyes

 

¿Gary, really?

Por favor señores, como van a poner en la misma balanza los 200 factores con la ponderación de calidad o SPAM de un enlace. Solo recordar la directa frase de Andrey Lipattsev en un Google Q&A organizado por Webpromo.Expert

“Es contenido y enlaces, nada mas”
— Andrey Lipattsev

 

Entonces de los 200 factores o “pistas” digamos un alto porcentaje se dedicará al análisis de contenido, otra a la performance, otra al CTR, otra a factores sociales, pero definitivamente el contenido y los enlaces son los mas importantes.

Conclusiones

Aún están por verse las capacidades de este nuevo procesador de SPAM de enlaces dentro del núcleo, tanto para filtración como para determinación de calidad y valor de un enlace.

Extrañamente casos dramáticos de SPAM tanto de contenidos como de enlaces siguen logrando buenas ubicaciones en los SERPS y nos demuestran que los algoritmos aún están muy lejos de ser invulnerables o que este roll out se tomará algo de tiempo.

¿Cuales serán sus efectos en SEO Negativo?

Tomando en cuenta que existen muchas maneras de hacer SEO Negativo y que una de ellas es alterar el perfil de enlaces de un sitio inyectando enlaces de mala calidad penalizables por Penguin y con la posibilidad previa a este cambio de mantener por mucho tiempo a un sitio en los potreros.

Mediante su acción en tiempo real y consecuente evaluación de los enlaces a un sitio en cada crawling los efectos de SEO negativo podrían ser inmediatos y a la vez durar muy poco.

Experto SEO desde 2005 con más de 500 sitios optimizados y sobre 1000 posiciones TOP 1 alanzadas.

Nuestro blog en tu correo:

Debes completar los campos marcados con *

Más de nuestro blog

ver todos los post