R

Somos Agentes Digitalizadores del Kit Digital. Aprovecha esta ocasión única para impulsar tu actividad, innovar y diferenciarte de tu competencia en el entorno digital.

Filtración algoritmo de Google: Los secretos de Google Search

Una filtración del algoritmo de Google sin precedentes. Han revelado más de 2,500 páginas de documentación interna del API de Google, revelando alrededor de 14,000 atributos o funciones del algoritmo de búsqueda de Google.

Google siempre ha sido reservado respecto al funcionamiento de su algoritmo. Aunque proporciona directrices generales y actualizaciones periódicas, evita divulgar detalles específicos para prevenir manipulaciones y asegurar resultados de alta calidad. Esta falta de transparencia puede ser frustrante para aquellos que desean optimizar sus sitios web, pero es esencial para mantener la integridad de las búsquedas. Además, permite a Google ajustar su algoritmo sin alertar a quienes podrían intentar aprovecharse, garantizando una experiencia de usuario superior y una competencia justa.

La reciente filtración masiva podría cambiar radicalmente este escenario, por eso, hemos realizado un profundo análisis de la situación y te contamos todas las claves de este importante acontecimiento en el mundo del posicionamiento SEO. Empecemos por el principio.

 

El origen de la filtración del algoritmo de Google, parece de película

El 5 de mayo, Rand Fishkin, experto en SEO y marketing digital y fundador de Moz y SparkToro, recibió un mensaje de una persona que afirmaba poseer documentos filtrados de la API del Content Warehouse de la Búsqueda de Google. Este incidente, descrito por Fishkin en su blog, parece extraído de una trama de espionaje cinematográfica.

Los documentos en cuestión, confirmados como auténticos por antiguos empleados de Google, revelaban datos confidenciales sobre el funcionamiento de las opciones de búsqueda de la compañía.

En una videollamada, el informante mostró a Fishkin más de 2,500 páginas de la documentación interna de la API de Google. Estos documentos, subidos a GitHub el 27 de marzo de 2024 y retirados el 7 de mayo de 2024 (aunque hemos podido rastrear este repositorio), no detallaban la ponderación de cada elemento en el algoritmo de clasificación, pero sí exponían información sobre los datos recopilados por Google.

 

Rand Fishkn en twitter

 

Para comprobar la legitimidad de los documentos del API Content Warehouse de Google, Fishkin consultó a varios ex empleados de Google. De ellos, tres respondieron: uno rehusó revisar la documentación por incomodidad, pero los otros dos confirmaron que los documentos parecían genuinos y acordes con los estándares de Google. Posteriormente, Fishkin buscó la asistencia de Mike King, fundador de iPullRank, para evaluar técnicamente la documentación durante una llamada de 40 minutos, en la que King validó la autenticidad y relevancia de la información filtrada, identificando hasta 14,000 atributos o características del algoritmo de Google.

 

¿Qué desvela la filtración del algoritmo de Google? Cuestiones que debes saber

Como puedes imaginar, resumir una filtración tan extensa es una tarea complicada. Sin embargo, basándonos en el análisis previos que han realizado otros profesionales y al nuestro propio, podemos destacar algunos descubrimientos significativos como estos.

 

Claro que los clics cuentan

La documentación filtrada detalla cómo Google utiliza módulos como “goodClicks,” “badClicks,” y “lastLongestClicks,” entre otros, para optimizar la clasificación y presentación de resultados en su página de búsqueda (SERP). Estos datos, recopilados inicialmente a través de la barra de herramientas de PageRank y posteriormente mediante el navegador Chrome, son esenciales para mejorar la calidad de los resultados de búsqueda. Google también emplea técnicas como la segmentación geográfica y el análisis del tiempo de permanencia en las páginas para filtrar y precisar sus resultados. Los documentos también sugieren que Google usa las vistas de Chrome para calcular métricas importantes y determinar las URL’s más relevantes para los Sitelinks, revelando la complejidad de sus métodos para evaluar y clasificar sitios web.

 

La autoridad del dominio o del sitio

King argumenta que, aunque Google niega usar el término «autoridad de dominio» para evitar confusiones, esto no implica que no evalúen la autoridad de un sitio de alguna manera. Esta postura ambigua les permite evadir respuestas directas sobre el uso de métricas de autoridad. A pesar de las declaraciones de Gary Ilyes y John Mueller de Google, quienes afirman que no existe una puntuación oficial de autoridad para sitios, documentos filtrados indican la existencia de una métrica interna llamada «siteAuthority» utilizada en su sistema de clasificación Q*. La naturaleza precisa de esta métrica no está detallada, pero confirma que Google efectivamente evalúa la autoridad general de los dominios.

 

Calidad, originalidad y Page Rank

De acuerdo con la fuente de la filtración, Google organiza los enlaces en sus índices en tres niveles de calidad: bajo, medio y alto, basándose en la actividad de clics. Fishkin ilustra este sistema mencionando que una página de Forbes sobre gatos sin clics sería catalogada como de baja calidad y su enlace no afectaría el ranking, mientras que una página sobre perros con muchos clics verificados se consideraría de alta calidad, influyendo positivamente en el ranking y capaz de transmitir PageRank. Los enlaces del índice de baja calidad no perjudican el ranking de un sitio; simplemente son ignorados.

Además, se descubre un factor llamado OriginalContentScore que valora la originalidad del contenido, incluso si es breve, lo que indica que la calidad de un contenido no se mide únicamente por su extensión.

 

Los links importan

No existe evidencia que contradiga las recientes declaraciones de Google sobre la menor relevancia de los enlaces en la clasificación de resultados. Un aspecto crucial es cómo el nivel de indexación afecta la importancia de los enlaces. Google clasifica su índice en capas, almacenando el contenido más significativo y actual en memoria flash.

Esto significa que el valor de un enlace aumenta con el nivel de indexación. Las páginas más “frescas” se perciben como de mayor calidad, de ahí que los enlaces provenientes de páginas actualizadas o de sitios de noticias potencian el ranking.

Además, según King, los documentos filtrados revelan el énfasis de Google en mostrar resultados recientes y sus esfuerzos por asociar fechas a las páginas. Un detalle importante: la inclusión de fechas que se contradigan con otras de la página que se trabaja en las URL puede perjudicar el rendimiento del contenido.

 

Se usa información de Chrome

Dentro de los componentes que evalúan la calidad de las páginas, uno de ellos incorpora un indicador que mide las visualizaciones de un sitio desde el navegador Chrome. Adicionalmente, existe otro componente, aparentemente vinculado con la creación de enlaces internos de un sitio (sitelinks), que también utiliza una característica asociada a Chrome.

 

Los sitios nuevos lo tienen más difícil

Los nuevos sitios web pasan a un área de pruebas o “sandbox”, a pesa de que Google lo ha negado encarecidamente. Encontramos en la documentación un parámetro llamado “hostAge” que parece clasificar a los sitios para analizar más detenidamente el contenido y detectar si se trata de spam. Además, Google utiliza una etiqueta para clasificar ciertos sitios web como “pequeños sitios personales”. Aunque no se especifica claramente qué constituye estos sitios, King sugiere que para Google sería sencillo implementar un método que les permita manejar estos sitios de manera distinta en los resultados de búsqueda.

Muchas de estas cuestiones eran muy obvias en la práctica para la mayoría de los buenos profesionales del SEO, pero la ironía reside en que Google y sus líderes se han tomado muchas molestias en negar bastantes de estas cuestiones, llegando a desmentir a prestigiosos profesionales del sector. La pregunta que muchos especialistas nos hacemos ahora mismo es ¿por qué mienten? No hay necesidad alguna. Al final quiénes pasamos el día subiendo contenidos para que posicionen, sabemos qué funciona y qué no.

Para terminar, te dejo un recurso muy chulo, que te va a permitir echarle un vistazo al meollo de la filtración sin tener que descargar el repositorio, de manera sencilla y online. Explora y filtra fácilmente las 14,000 características de clasificación de Google que se filtraron de la API del Content Warehouse de la Búsqueda de Google en esta lista configurada por Dixon Jones, conocido experto en el campo del marketing digital, especialmente en SEO (optimización de motores de búsqueda).

Ahora que tienes todos los datos, solo podemos desearte…

 

Que la filtración del algoritmo de Google te acompañe

5/5 - (3 votos)
Suscríbete para estar siempre a la última

Recibe por correo electrónico todas las novedades que publicamos en nuestro blog, noticias sobre marketing digital y promociones especiales.

0 comentarios
Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Agencia de marketing online SEO Málaga Web

Somos la Agencia de Marketing Online 360º de Málaga y podemos ofrecerte el plan ideal para que alcances tus objetivos de marketing. Nos ubicamos en Málaga y Campo de Gibraltar, pero ofrecemos nuestros servicios a toda España. Nos adaptamos a tus necesidades y presupuesto para apoyarte al máximo, tanto si las necesidades de tu negocio son puntuales como si necesitas externalizar al completo tu estrategia digital.

☎ 951 59 23 59
✉ [email protected]

} De lunes a viernes de 09:00 a 14:00 y de 16:30 a 18:30 | Sábados de 09:00 a 14:00

Agencia de Marketing Digital española
¿En qué podemos ayudarte?

9 + 4 =