En una bomba para el mundo del SEO, una filtración del 5 de mayo de 2024 expuso los secretos celosamente guardados de las clasificaciones de búsqueda de Google. Más de 14.000 factores de clasificación fueron revelados accidentalmente en documentos internos de Google, lo que arroja luz sobre cómo los sitios web realmente ascienden en la escala de búsqueda. Validada por expertos en SEO, esta filtración confirmó la sospecha de larga data sobre el poder de la autoridad de dominio, al tiempo que sorprende a todos con el peso que Google otorga a los clics e incluso a las menciones de su marca en línea. Pero más allá de los cambios estratégicos, la filtración plantea preguntas preocupantes sobre la privacidad del usuario y la gran cantidad de datos que Google recopila a través de Chrome. El artículo profundiza en las consecuencias de esta filtración, explorando cómo las empresas pueden remodelar sus estrategias de SEO y las implicaciones éticas de las prácticas de datos de Google.
El 5 de mayo de 2024 marcó la primera filtración de la colección más completa de factores de clasificación de la API de búsqueda de Google en la historia de los motores de búsqueda: un momento verdaderamente histórico que quizás no hubiéramos visto si Erfan Azimi, fundador y director ejecutivo de una agencia de SEO, No había detectado los documentos de Google que se publicaron por error en Github el 27 de marzo de 2024 y simplemente se olvidaron de eliminarlos. La ironía es que fueron publicados bajo la licencia Apache 2.0, lo que permite a cualquiera que acceda a los documentos usarlos, editarlos y distribuirlos. Como tal, compartir los documentos con dos de los expertos en SEO de mayor reputación, Rand Fishkin y Mike King (el siguiente paso que dio Erfan Azimi después de detectar la filtración) estaba dentro de los límites legales de la licencia. Ambos publicaron los documentos y el análisis que los acompaña el 27 de mayo.
Aunque al principio evadió las preguntas sobre la autenticidad de los documentos, Google finalmente admitió que los documentos eran genuinos.
Los más de 2.500 documentos filtrados muestran 14.014 atributos (características API) o "factores de clasificación" de la API Content Warehouse de la Búsqueda de Google. En otras palabras, nos muestran qué datos recopila realmente Google en lugar de cómo los interpreta.
La información filtrada tiene un valor significativo para cualquier empresa que busque aumentar el tráfico orgánico y las conversiones de ventas desde el marketing de búsqueda de Google. Proporciona una visión única de los factores que influyen en las clasificaciones de búsqueda de Google, lo que permite a las empresas remodelar sus estrategias de SEO en consecuencia.
Por otro lado, la filtración destaca la falta de transparencia de Google con respecto a cómo se recopilan y utilizan los datos de los usuarios en los algoritmos de búsqueda y plantea preocupaciones éticas y de privacidad sobre el alcance y las implicaciones de la recopilación de datos del gigante de las búsquedas.
Navboost es un algoritmo de clasificación de Google que se reveló durante el juicio antimonopolio de la empresa ante el Departamento de Justicia de Estados Unidos. Mejora los resultados de búsqueda para consultas de navegación mediante el uso de varias señales, como clics de los usuarios, para identificar los resultados más relevantes. Navboost retiene los clics anteriores para consultas de hasta 13 meses de antigüedad y diferencia los resultados según la localización y el tipo de dispositivo (móvil o de escritorio). Esta señal de clasificación es crucial para que los profesionales de SEO la comprendan y la optimicen, ya que puede afectar significativamente la visibilidad de un sitio web en los resultados de búsqueda.
Google ha negado durante años que los clics pertenezcan a un factor de clasificación principal. Sus representantes, incluido Gary Illyes, han subrayado constantemente que el porcentaje de clics (CTR) es una "señal muy ruidosa" y que utilizar los clics directamente en las clasificaciones sería problemático debido al potencial de manipulación. Han explicado que, si bien los datos de clics se utilizan con fines de evaluación y experimentación para evaluar los cambios en el algoritmo de búsqueda, no son un factor principal para determinar las clasificaciones de búsqueda.
Los documentos filtrados demuestran lo contrario. Sí importa cuántos clics puede generar un sitio web. Cuanta más optimización en la página y marketing de contenidos continuo realice, más tráfico atraerá, lo que se traducirá en más clics, clasificaciones más altas y tasas de conversión más altas.
Los representantes de Google nos han desviado y engañado constantemente sobre cómo funcionan sus sistemas, con el objetivo de influir en el comportamiento de SEO. Si bien sus declaraciones públicas pueden no ser mentiras intencionales, están diseñadas para engañar a posibles spammers (y a muchos profesionales legítimos de SEO) al ocultar cómo los resultados de búsqueda pueden verse afectados. Gary Ilyes, analista del equipo de búsqueda de Google, ha reiterado este punto en numerosas ocasiones . No está solo; John Mueller, analista senior de tendencias para webmasters de Google y líder del equipo de relaciones de búsqueda, afirmó una vez que no tienen una puntuación de autoridad de sitio web.
Sin embargo, como sugiere la filtración de datos, Google tiene una medida general de autoridad de dominio. Como parte de las señales de calidad comprimidas almacenadas por documento, Google calcula una función llamada "siteAuthority". Según Mike King , fundador y director ejecutivo de iPullRank, si bien el cálculo específico de esta medida y su aplicación en funciones de puntuación posteriores siguen sin estar claros, ahora sabemos definitivamente que la autoridad de dominio de Google existe y se utiliza en el sistema de clasificación Q*.
La reciente filtración de la API de búsqueda de Google reveló la existencia de listas blancas que se utilizan para garantizar la calidad y confiabilidad de la información, particularmente para temas delicados como la salud y las noticias, donde la información errónea podría tener implicaciones drásticas en el bienestar público.
Durante tiempos críticos como la pandemia de COVID-19, Google utilizó listas blancas para suprimir la información errónea y priorizar fuentes creíbles. Esto ayudó a gestionar la difusión de información falsa sobre el virus, los tratamientos y las vacunas, garantizando que los usuarios recibieran información precisa y confiable.
Los sitios web incluidos en estas listas blancas han demostrado autoridad, credibilidad y un historial constante de suministro de información confiable. Los criterios de inclusión son estrictos y se centran en la precisión y la confiabilidad.
Sin embargo, el uso de listas blancas también genera preocupaciones sobre la transparencia y la equidad, ya que los críticos cuestionan el potencial de sesgo y los criterios de selección.
Para el SEO, esto resalta la importancia de generar credibilidad y confiabilidad. Los sitios web que deseen ser incluidos en listas blancas deben centrarse en generar informes precisos y cumplir con altos estándares editoriales, incluidas políticas de corrección claras e información de contacto.
A pesar de la advertencia de Google de no hacer suposiciones basadas en la información filtrada, los conocimientos sobre las listas blancas enfatizan su papel en la selección de información y el mantenimiento de la calidad de los resultados de búsqueda. Esto subraya la importancia de la credibilidad, la precisión y la confianza en el panorama de la información digital.
Los documentos filtrados sugieren que Google podría estar limitando la presencia de varias categorías de sitios, como blogs de empresas, sitios comerciales y sitios web personales, dentro de los resultados de búsqueda para consultas específicas. Este enfoque apunta a diversificar los tipos de fuentes presentadas a los usuarios, asegurando una gama más amplia de perspectivas y reduciendo el predominio de un solo tipo de sitio.
Por ejemplo, Google podría decidir que sólo un cierto número de blogs de viajes o sitios de viajes comerciales deberían aparecer en los resultados de una determinada consulta de búsqueda relacionada con viajes. Esta limitación ayuda a equilibrar los resultados de la búsqueda, proporcionando a los usuarios una combinación de información de diferentes tipos de fuentes. Evita que los resultados de búsqueda se saturen demasiado con una categoría, como blogs personales o sitios comerciales, que no siempre ofrecen la información más confiable o variada.
Esta estrategia destaca el compromiso de Google de ofrecer una experiencia de búsqueda diversa y equilibrada. Al controlar la combinación de tipos de sitios en los resultados de búsqueda, Google pretende mejorar la calidad y relevancia de la información presentada a los usuarios, garantizando que reciban una visión completa del contenido disponible.
La filtración de la API de búsqueda de Google proporcionó información interesante sobre cómo las menciones de entidades, como nombres o empresas, podrían influir en las clasificaciones de búsqueda de manera similar a los vínculos de retroceso tradicionales. Las menciones se refieren a casos en los que se hace referencia a un nombre o frase en la web sin que necesariamente esté vinculado. Estas menciones pueden ser una señal importante para el algoritmo de Google, indicando la relevancia y autoridad de una entidad en particular.
Los documentos filtrados sugieren que Google rastrea estas menciones y potencialmente las utiliza para evaluar la prominencia y credibilidad de las entidades. Por ejemplo, las menciones frecuentes de una marca o un individuo en varios sitios web de buena reputación podrían afectar positivamente su clasificación de búsqueda, de manera similar a cómo los vínculos de retroceso de sitios autorizados impulsan el SEO. Esto indica que el algoritmo de Google considera no sólo los enlaces directos sino también la presencia y discusión general de una entidad en la web.
Los datos de secuencia de clics de Chrome se refieren a registros detallados de las interacciones y comportamientos de los usuarios dentro del navegador Google Chrome, incluidos los enlaces en los que se hace clic, cuánto tiempo permanecen los usuarios en una página y sus rutas de navegación. Estos datos proporcionan a Google una rica fuente de información sobre las preferencias y comportamientos de los usuarios, que puede aprovecharse para refinar los algoritmos de búsqueda y mejorar la relevancia de los resultados de búsqueda.
Por ejemplo,
Si muchos usuarios hacen clic en un enlace en particular y pasan un tiempo considerable en esa página, esto le indica a Google que es probable que la página sea de alta calidad y relevancia, mejorando así su clasificación en los resultados de búsqueda.
Este descubrimiento tiene profundas implicaciones para las estrategias de SEO. Sugiere que las métricas de participación del usuario capturadas a través de Chrome pueden influir significativamente en las clasificaciones de búsqueda más allá de las prácticas tradicionales de SEO, como la optimización de palabras clave y la creación de vínculos de retroceso . Los profesionales de SEO deben centrarse en crear contenido que atraiga clics y retenga el interés del usuario, garantizando tiempos de carga rápidos, navegación sencilla y contenido valioso y atractivo. Al mejorar la experiencia general del usuario, los sitios web pueden aprovechar los datos del flujo de clics de Chrome para mejorar su visibilidad y rendimiento en los resultados de búsqueda de Google.
Sin embargo, este descubrimiento también plantea dudas sobre el alcance de la recopilación de datos de los usuarios y cómo se utilizan más allá de simplemente mejorar los resultados de búsqueda.
Además de eso, comprender los factores de clasificación, como los datos del flujo de clics, podría permitir a actores maliciosos manipular los resultados de búsqueda inflando artificialmente los clics en ciertos sitios web. Esto podría exponer a los usuarios a contenidos engañosos o dañinos y poner en gran riesgo su privacidad.
El contenido de calidad y una estrategia de vínculos de retroceso bien establecida pueden generar tráfico y ayudar a aumentar la clasificación web. Mike King dice: "Después de revisar estas características que le dan a Google sus ventajas, es bastante obvio que crear mejor contenido y promocionarlo entre audiencias con las que resuena producirá el mejor impacto en esas medidas".
Si bien la postura oficial de Google ha enfatizado a menudo que la pérdida de tráfico por sí sola no da lugar a sanciones, los documentos filtrados y varios análisis de expertos en SEO sugieren lo contrario.
De hecho, caídas significativas en el tráfico pueden indicar problemas con los algoritmos de Google. Por ejemplo, los documentos filtrados resaltaron conceptos como "deterioro del contenido" y "último clic bueno", que implican que una disminución constante en el tráfico y la participación de los usuarios puede afectar negativamente las clasificaciones. Esto sugiere que si el tráfico de un sitio web cae sustancialmente (digamos de 10.000 a 2.000 nuevos usuarios por mes), el algoritmo de Google podría interpretar esto como una disminución en la relevancia o calidad del contenido, lo que podría generar una penalización o una visibilidad reducida en los resultados de búsqueda.
Los documentos filtrados también enfatizan la importancia de la búsqueda de marcas, revelando que cuando los usuarios buscan específicamente una marca, puede aumentar significativamente la clasificación de esa marca en los resultados de búsqueda de Google. Esto subraya el valor de construir una fuerte presencia y reconocimiento de marca. Por lo tanto, las estrategias de SEO deberían incluir esfuerzos para mejorar la visibilidad de la marca y fomentar las búsquedas directas de marca. Esto se puede lograr mediante un marketing de contenidos coherente y de calidad y la interacción con el público en diversas plataformas.
Según todo lo contenido en estos documentos y un anuncio reciente sobre la desindexación de sitios web de Google que no funcionan en dispositivos móviles, debemos tomar en serio el rendimiento móvil. Si su sitio tiene un rendimiento deficiente en dispositivos móviles, se desindexará el 5 de julio de 2024.
Al reflexionar sobre estas revelaciones, son evidentes varios ajustes estratégicos. En primer lugar, está el concepto de equilibrar la mentalidad de clic cero. Anteriormente, nuestros correos electrónicos proporcionaban toda la información necesaria para evitar clics adicionales. Sin embargo, entendiendo que los datos del flujo de clics de Chrome pueden afectar las clasificaciones, podríamos ajustar nuestra estrategia de correo electrónico para fomentar los clics en las publicaciones de nuestro blog. Este cambio garantiza que se capturen las interacciones de los usuarios con nuestro sitio, lo que potencialmente aumenta nuestra visibilidad de búsqueda.
Otro eje estratégico implica centrarse en enlaces de alto tráfico. El énfasis ahora está en asegurar vínculos de retroceso de fuentes confiables y de alto tráfico en lugar de numerosas fuentes más pequeñas. Es más probable que los algoritmos de Google reconozcan las fuentes de alto tráfico como indicadores de credibilidad y relevancia, lo que influye positivamente en nuestra clasificación.
Crear demanda de contenido visual también es crucial. Producir vídeos e imágenes atractivos puede sesgar favorablemente los resultados de búsqueda. El contenido visual tiende a atraer una mayor interacción del usuario y tiempos de participación más prolongados: métricas valiosas capturadas por los datos del flujo de clics de Chrome.
También se ha hecho necesario reevaluar las prácticas de vinculación externa. Anteriormente considerado una señal SEO positiva, ahora se entiende que los enlaces externos están vinculados a puntuaciones de spam. Este descubrimiento requiere que reevalúemos el valor de la vinculación externa y ajustemos nuestras prácticas para evitar posibles sanciones.
Finalmente, centrarse en las menciones sobre los enlaces se perfila como una nueva estrategia. Dar prioridad a las menciones de su marca y entidades clave en contenido de alta calidad en la web puede ser tan impactante como la construcción de enlaces tradicional. Este enfoque aprovecha el reconocimiento de Google de las menciones de entidades en sus algoritmos de clasificación.
En resumen, los conocimientos de la filtración de la API de búsqueda de Google resaltan la importancia de la creación y distribución de contenido consistente y de calidad, la participación del usuario y el papel matizado de diversas prácticas de SEO, como la construcción de enlaces y la búsqueda de marca. Ajustar sus estrategias para alinearse con estas revelaciones puede mejorar su clasificación de búsqueda y su presencia digital general. Sin embargo, confiar demasiado en esta filtración sin considerar la naturaleza cambiante del algoritmo de Google podría resultar arriesgado.
¿Y cuál es tu opinión sobre esto?
No olvide consultar mi cobertura de las descripciones generales de IA de Google y su impacto en el marketing digital.