Factor de Ranking

En el gráfico se muestran cuatro correlaciones de ejemplo y sus respectivas curvas.

  1. Factor A: Correlación nula – curva lineal, horizontal / media alta
  2. Factor B: Correlación positiva (más alta) – función exponencial, descendente
  3. Factor C: Correlación negativa (más baja) – curva lineal, ascendente
  4. Factor D: Correlación positiva – curva irregular, descendente

Explicación: Cálculo de la correlación y enfoques de interpretación

El eje y indica el valor medio de las 10.000 URL estudiadas en la posición X (eje x). Los factores con valor «cero», según nuestro análisis, señalan que no existe una correlación medible entre los buenos y los malos resultados de Google. Cuanto mayor sea el valor de una correlación, mayores y más regulares serán las diferencias entre las posiciones. Los valores en un rango negativo se entienden mejor si se interpreta positivamente la afirmación contraria.

En pocas palabras, cuanto mayores sean las diferencias de la posición 1 a la 30, mayor será el valor de la correlación. Para interpretar los factores, se utilizan siempre valores medios. Por ejemplo, los factores B y C del gráfico anterior tienen el mismo valor de correlación (es decir: 1), pero son completamente diferentes en cuanto a sus respectivas curvas. Sin embargo, en el caso del factor A, el valor medio es de 95 (eje de abscisas) para cada posición (eje de abscisas), pero podría estar incluso en 5 (eje de ordenadas). El valor de la correlación seguiría siendo idéntico a 0, pero la interpretación del factor sería completamente diferente.

Algoritmos de los motores de búsqueda y factores de clasificación de Google & Co.

Los motores de búsqueda funcionan utilizando algoritmos para evaluar los sitios web por temas y relevancia. Esta evaluación se utiliza para estructurar las páginas en el índice del motor de búsqueda, que en última instancia, los resultados de las consultas de los usuarios muestran la mejor clasificación posible de la pantalla de resultados. Los criterios para la evaluación de las páginas web y para producir esta clasificación se denominan generalmente factores de clasificación.

Las razones son sencillas: el número exponencialmente creciente de documentos en Internet -y en el índice de búsqueda- hace imposible clasificar estas páginas sin un algoritmo automático, a pesar de la existencia de «calificadores de calidad» humanos. Este algoritmo es a la vez obligatorio (el orden, al fin y al cabo, requiere un patrón) y, al mismo tiempo, el secreto mejor guardado del negocio de Internet, porque para los motores de búsqueda es esencial mantener estrictamente confidenciales los factores subyacentes que componen el algoritmo.

Este secreto inherente tiene menos que ver con la competencia entre motores de búsqueda que con razones más básicas: Si se conocieran ampliamente las formas de obtener buenas clasificaciones, éstas se volverían irrelevantes, ya que serían constantemente manipuladas. Nadie más que Google sabe cuáles son los verdaderos factores de clasificación. Analizamos los datos mediante el análisis de correlación de rangos para obtener nuestras conclusiones basadas en las propiedades de los resultados de búsqueda orgánica existentes. A partir de ellas, concluimos cuáles podrían ser los Factores de Clasificación y sus respectivas ponderaciones. Nuestra inmensa base de datos proporciona una base fiable para estos análisis.

Black Hat SEO: Keyword Stuffing, Cloaking & Co.

Al principio de la era de los motores de búsqueda, Google consideraba que las páginas eran relevantes para temas específicos cuando los términos de búsqueda asociados al tema (palabras clave) se utilizaban con frecuencia. Los operadores de sitios web pronto se aprovecharon de este conocimiento y lograron muy buenas posiciones en las SERP «rellenando» las páginas con palabras clave, lo que permitía que sus páginas, a menudo no relevantes, se encontraran en posiciones de buena clasificación para los términos de búsqueda previstos.

Esto no sólo generó una competencia real entre los motores de búsqueda y los SEO, sino que produjo el mito del factor de clasificación. El objetivo de la búsqueda semántica creó una red de criterios que al principio eran estrictamente técnicos (por ejemplo, el número de backlinks), pero a los que se añadieron componentes menos técnicos (por ejemplo, las señales de los usuarios).

Este desarrollo, junto con la búsqueda del resultado óptimo, ha culminado en la constante evolución de los factores de clasificación. El interminable bucle de retroalimentación de los ciclos de actualización permanentes e iterativos está diseñado exclusivamente para generar resultados de búsqueda que ofrezcan mejoras constantes al buscador individual. La estructura y la complejidad de los factores de clasificación, sumadas a la fuerte influencia de las señales del usuario, están diseñadas para producir el contenido más relevante para el usuario.

Desde el punto de vista empresarial, el éxito a largo plazo puede lograrse utilizando una estrategia comercial sostenible basada en la incorporación de factores de calidad relevantes para mantener posiciones de búsqueda sólidas. Este enfoque supone prescindir de las opciones de influencia negativa y centrarse claramente en los contenidos relevantes, combatiendo al mismo tiempo el spam y el cortoplacismo.

Causalidad ≠ Correlación

No somos Google. El análisis y la evaluación de los factores de ranking que utilizan nuestros datos se basan en una interpretación fundamentada -no en la especulación- de los hechos; a saber, la evaluación y la estructuración de las propiedades de los sitios web con posiciones altas en los resultados de búsqueda.

Las evaluaciones de ranking de Searchmetrics son exactas, frescas y se basan en muchos datos. En Searchmetrics agregamos miles de millones de puntos de datos mensualmente – y aquí está la pregunta de los 64 millones de dólares: ¿Qué factores distinguen a los sitios bien situados de los que ocupan posiciones inferiores en los resultados de búsqueda de Google?

Comparamos las propiedades de las páginas web con la suma de sus posiciones en Google y obtenemos una lista estructurada de factores más o menos ponderados. Así, si en las primeras posiciones de las SERPs investigadas, por ejemplo, muchas páginas contienen la palabra clave en la etiqueta del título, entonces lo reconocemos como una alta correlación con un buen ranking. Por lo tanto, estas correlaciones pueden ofrecer conclusiones sobre las páginas que aparecen en las primeras posiciones de los resultados de búsqueda que tienen características similares.

Sin embargo, es necesario señalar que las correlaciones no son sinónimo de relaciones causales y, por lo tanto, no hay garantía de que los factores respectivos tengan realmente algún impacto en el ranking – o sean utilizados por Google como una señal. Lo que hacemos en Searchmetrics, sin embargo, es interpretar estas correlaciones.

«Cum hoc ergo propter hoc» – Falacia lógica y correlaciones ilusorias

Las plantas se marchitan cuando no reciben agua: la casa se calienta cuando subes la calefacción – y porque un sitio tiene muchas señales sociales, sube al #1? Basta!

Hay muchos ejemplos de correlaciones o valoraciones ilusorias que se denominan «falacia lógica» (Cum hoc ergo propter hoc – véase Wikipedia). Por ejemplo, la aparición conjunta de fenómenos como el número de cigüeñas y la mayor natalidad en determinadas zonas, o la relación entre la venta de helados y el aumento de las quemaduras solares en verano. Pero, ¿realmente se queman los helados por el sol? Por supuesto que no. Estos ejemplos muestran una correlación (ilusoria), no una relación causal. (Encuentre más ejemplos aquí)

Queremos evitar a toda costa las falacias lógicas y las correlaciones ilusorias, y nuestra experiencia demuestra que es demasiado fácil evaluar un factor de clasificación como si tuviera un significado causal cuando no existe. Preferimos trabajar utilizando un «coeficiente de correlación de rango», y esto requiere una interpretación evaluada y una base de datos sólida.

Base de datos para los factores de clasificación de Searchmetrics

Nuestro análisis se basa en los resultados de búsqueda de un conjunto de palabras clave muy grande de 10.000 términos de búsqueda para Google U.S.. El conjunto de partida son siempre los 10.000 términos de búsqueda más importantes por volumen de búsqueda, pero de los que se extraen palabras clave específicas orientadas a la navegación para no distorsionar las evaluaciones. Se considera que las búsquedas de palabras clave orientadas a la navegación son aquellas en las que todos los resultados, excepto uno, son irrelevantes para el buscador, más o menos (por ejemplo: «Inicio de sesión en Facebook»).

Nuestra base de datos para los análisis del factor de clasificación son siempre las tres primeras páginas de resultados de búsqueda orgánica. Los conjuntos de palabras clave de años consecutivos coinciden en más de un 90% con la base de datos del año anterior, por regla general. Aquí hemos buscado un término medio, para tener en cuenta dos factores, a saber, la conservación del «mayor denominador común» como base óptima de comparación con el estudio anterior, y por otro lado, tener en cuenta las nuevas palabras clave, que han crecido en volumen de búsqueda en el top 10.000.

La base de datos de Searchmetrics está siempre actualizada. Por lo tanto, para los análisis actuales se utilizan palabras clave nuevas y relevantes, como «Samsung Galaxy S5» o «iPhone 6», que no existían anteriormente.

Factores binarios y numéricos – Especificación frente a existencia

Los factores examinados se dividen en características binarias y numéricas. Esto significa que hay una diferencia inherente en la naturaleza de los factores utilizados en este análisis. Esta diferencia no debe descuidarse en la interpretación de los valores.

Los elementos que se describen mediante factores binarios -como una meta descripción en la página- están presentes o no. No hay gradaciones. También hay elementos con características graduadas que cambian en diferentes grados. Por ejemplo, una URL puede tener cero o seis mil backlinks – pero cada valor intermedio también es posible.

Estos factores numéricos son en algunos sentidos «mejores» para los estudios que utilizan cálculos de correlación como Spearman, con filas y/o principios de clasificación basados en gradaciones. Cuando se trata de interpretaciones basadas únicamente en el valor de la correlación pura, las afirmaciones de los factores numéricos suelen ser más significativas.

Para apoyar la validez de las correlaciones de los rasgos binarios en nuestro estudio, por lo tanto, se debe especificar un valor medio en la regla. Por ejemplo, con respecto al factor «Existencia de descripción», puede ser que sólo haya una correlación cercana a cero con las clasificaciones, pero de hecho casi el 100% de todas las URL tienen una descripción (véase el ejemplo de correlación para el factor A más arriba).

Valores de correlación frente a valores medios y curvas

Los valores de correlación trazados como una barra se calculan siempre sobre la base de todos los datos disponibles por característica, por lo que para una o 10.000 palabras clave, cada línea del gráfico tiene 30 valores por palabra clave.

Los valores medios se calculan a partir de estos valores medios de la curva, que también dejan fuera el cinco por ciento superior de cada característica para permitir una curva lo más suave posible y una escala manejable (eje Y), de lo contrario no se verían algunos promedios inferiores en las curvas respectivas. Asimismo, los valores individuales de la mediana y la media se calculan para las características prescindiendo del cinco por ciento superior de los hallazgos.

El factor marca

Una de las constantes en los estudios de los factores de clasificación es una interesante peculiaridad en los datos que hemos denominado «factor marca», presente en muchos factores y observaciones.

Lo que queremos decir con factor de marca es la observación de que los sitios web de marcas de alto perfil o con cierta autoridad suelen ocupar las primeras posiciones en los rankings, incluso si no tienen en cuenta factores particulares a los que se adhieren las URL que se clasifican ligeramente por debajo.

Por ejemplo, en promedio las marcas tienden a no tener una etiqueta h1 en su página, su contenido tiene un menor número de palabras y la palabra clave no se encuentra en la descripción del meta-título con tanta frecuencia. En pocas palabras: desde el punto de vista del SEO están menos optimizados. Por otro lado, los sitios web de marca suelen tener muchos más backlinks y señales sociales que otras URLs.

Google ya es muy eficiente a la hora de identificar marcas de determinados sectores y de asignar a sus URLs una clasificación preferente. Valores como la reconocibilidad, la confianza de los usuarios y la imagen de marca también se reflejan en las SERPs en cierta medida.

Intención: ¿Por qué los factores de clasificación?

Es justo decir que ni siquiera el propio Google sabe cómo se compone su propio algoritmo, tan complejas se han vuelto las métricas de evaluación.

El objetivo de los estudios de Searchmetrics «Factores de clasificación» no es producir un evangelio de la verdad absoluta. Por el contrario, consideramos que los estudios de Searchmetrics son un análisis metodológico desde una perspectiva interpretativa. Esto significa que nuestro objetivo es proporcionar a la industria online un acceso fácil a una caja de herramientas de datos. Al utilizar esta caja de herramientas, la industria puede tomar decisiones informadas basadas en nuestra investigación intensiva en un amplio espectro de criterios.

Al estudio: Ranking Factors 2018: Análisis dirigido para tener más éxito en Google y en su mercado online.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.