Cómo analizar el algoritmo de Google: las matemáticas y las habilidades que necesita

¿Listo para analizar los algoritmos de búsqueda de Google y aprender todos los secretos del ranking?

Esto es lo que necesitará para hacerlo correctamente.

“¿Quieres gastar dinero en anuncios o resolver esta caja negra?”

Esa pregunta (aproximada) ayudó a determinar el camino de mi carrera hace más de 10 años para convertirme en el SEO que soy hoy.

Elegí este camino porque me encanta trabajar en los desafíos y buscar bajo el capó las causas de que algo suceda.

Buscar resolver la respuesta a la vida, el universo y todo lo dado con la ayuda de Google Deep Thought como 42 y luego verificar dos veces que tenía la pregunta correcta (spoiler: es seis por nueve) es lo que me emociona con el SEO.

Y lo que me llevó a trabajar en este artículo fue una gran discusión sobre la publicación de Jeff Ferguson sobre si teníamos las matemáticas para decodificar el algoritmo de Google y, de ser así, ¿qué era lo que necesitaba la industria?

Las dos cosas necesarias

Entonces, para aquellos que me conocen, no se sorprenderán al ver que me opongo a la opinión de que un análisis de correlación básico, incluso con el uso del coeficiente de Spearman, es suficiente para analizar el algoritmo de Google.

Desde mi presentación de SMX East en 2011, he abogado públicamente por el uso de regresiones multilineales como mínimo sobre cómo se debe analizar lo que importa.

Otros métodos estadísticos avanzados, ya sea el aprendizaje automático o las redes neuronales, tienen un papel que desempeñar.

Pero para este artículo, me centraré en las regresiones.

Una advertencia importante para el uso de métodos estadísticos es que una herramienta por sí sola o agregada al final no califica en sí misma como un buen estudio.

Ahí es donde entra en juego tener las habilidades adecuadas de análisis de datos con experiencia en SEO.

Como se ha visto repetidamente con los análisis de COVID-19, el simple hecho de tener experiencia en analistas de datos no es suficiente para afirmar que uno puede resolver desafíos en una publicación de Medium o Twitter sobre los expertos en epidemiología.

Y aunque algunos pueden parecer ayudar a proporcionar ideas valiosas para compartir, la mayoría predominante no tiene mucha precaución y la humildad permite que se difunda la información errónea.

¿Necesito recordarle a la industria lo que sucede cuando la información errónea de SEO se difunde en las noticias por parte de expertos que no son de búsqueda?

El “No soy un estadístico, pero …”

Bien, entonces, ¿qué me da derecho a apuntar en la dirección de estadísticas avanzadas para los estudios?

Una Maestría en Relaciones Internacionales con concentración en Economía Internacional donde aprendí Econometría y tuve el placer de destrozar artículos de Econometría sobre la economía de China.

Hay una razón por la que me encontrarás en Twitter destrozando los estudios de correlación de SEO a medida que salgan.

Entonces, ¿por qué las regresiones?

En primer lugar, ya no se trata de analizar una sola medida de forma aislada.

En cambio, se trata de múltiples medidas que también pueden interactuar entre sí sobre lo que puede afectar las clasificaciones.

Eso exige el uso de una regresión multilineal como mínimo solo en este punto.

Más allá de eso, dejar de centrarse en métricas únicas y en lugar de hablar sobre los factores múltiples empuja a los SEO a pensar de manera más amplia sobre un conjunto completo de métricas en las que trabajar para mejorar las clasificaciones.

Y por otro lado, esto prioriza el trabajo ya que 1,000 métricas pueden parecer desalentadoras, pero si más de 900 apenas mueven la aguja un 0.1%, la certeza de en cuáles trabajar acelera las tareas de optimización.

Además, el uso de series de tiempo con análisis de regresión puede ayudar a suavizar los cambios diarios o semanales para centrarse en las áreas centrales.

Al tiempo que proporciona información sobre qué actualizaciones principales del algoritmo cambiaron.

Y para las agencias que buscan ganar credibilidad, busque en los campos científicos cómo ejecutan análisis de regresión en áreas complicadas. Por ejemplo:

  • Aumento del nivel del mar.
  • Ciencia de materiales para superconductividad.

O, si desea algo más cercano al SEO, qué impulsa el tráfico orgánico a los sitios minoristas.
Y aunque son raras, las presentaciones específicas para trabajos de investigación de SEO aparecen para participar.

Las buenas habilidades de análisis son importantes

Lógicamente, darle a alguien una herramienta sin la formación adecuada no significa que automáticamente se obtendrán buenos resultados.

Y es por eso que tener la mentalidad inquisitiva adecuada que esté dispuesta a profundizar (como un usuario avanzado) y pasar los datos por el timbre complementará la herramienta estadística avanzada.

Esa mentalidad funcionará para determinar:

  • Qué datos recopilar.
  • Qué tiene calidad direccional.
  • Que eliminar incluso antes de comenzar un análisis.

Es un estándar fundamental que requiere algo de experiencia en SEO, especialmente para reconocer de antemano qué métricas pueden ser la causa subyacente y cómo evitar sesgos en torno a la demografía, la estacionalidad, la intención del comprador, etc.

Y tener esa experiencia de SEO también significa que el análisis tiene una mejor oportunidad de incluir efectos de interacción valiosos para analizar, especialmente cuando una optimización aislada puede no ser vista como spam a menos que se haga junto con otras tácticas.

(Por ejemplo, texto blanco en un párrafo grande sobre un fondo blanco sin que el usuario pueda verlo)

Además, saber que Google no está utilizando un solo algoritmo monolítico significa que cualquier análisis deberá incluir categorías o grupos, ya sea por:

  • Intención de la palabra clave.
  • Volumen de búsqueda.
  • Posiciones de ranking.
  • Industrias.
    Etc.

Razón de más para revisar el diagrama de dispersión de los datos para asegurarse de que no haya problemas como:

Heteroscedasticidad: datos que se expanden hacia afuera debido a que la variabilidad es desigual.

La paradoja de Simpson: dos poblaciones diferentes que muestran la misma tendencia que cuando se combinan dan como resultado la tendencia opuesta.

Por lo tanto, los diagramas de dispersión o diagramas de bigotes son imprescindibles en estos análisis como una forma de demostrar que el estudio ha evitado problemas estadísticos comunes.

Con los resultados, proporcionar un formato de resultado de regresión estándar ayuda a las personas con antecedentes estadísticos a revisar las conclusiones de manera rápida y sencilla sin tener que ejecutar la regresión por separado solo para verificar la afirmación de los resultados.

Debido a que una parte crucial de un estudio estadístico, y un error común en el transcurso de muchos estudios de SEO promocionados públicamente, es que las interpretaciones están lejos de ser razonables.

Con demasiada frecuencia, las afirmaciones crédulas se utilizan como linkbait en lugar de dilucidar para la comunidad SEO.

A menudo me pregunto cuando profundizo en estos estudios:

¿El conjunto de datos excluye posibles valores atípicos como Wikipedia o Amazon?
¿Cómo maneja el estudio la endogeneidad cuando la clasificación afecta el CTR si la afirmación es la clasificación de impactos del CTR?
¿Una afirmación fantástica de tráfico directo que impacta en las clasificaciones tiene la prueba extraordinaria para respaldarla?
¿Por qué se muestran las clasificaciones en el eje X? De acuerdo, ese último es más lo que me molesta.
Y ahí es donde entra la revisión por pares.

Volver a verificar el propio trabajo en busca de inexactitudes.

La revisión por pares lo lleva a otro nivel al ayudar a encontrar puntos ciegos, desafiar las suposiciones hechas, mejorar la calidad del estudio y establecer la idoneidad del trabajo para que la comunidad SEO en general confíe.

¿Todo eso de una vez?
En un mundo ideal, ¡sí!

En realidad, es probable que se necesiten un par de pasos (y pasos en falso) para llegar allí.

Y yo, y muchos SEO con mentalidad estadística, no estamos pidiendo seguir un solo ejemplo.

Ahí es donde debe ir la industria del SEO si realmente queremos comprender realmente lo que está sucediendo en el algoritmo de Google, construir una base sólida de confianza en los estudios y detener la desinformación.

¿Qué pasa con este estudio que …

OK, depende.

O más precisamente, hay excepciones aceptables y algunos contrapuntos destacados de Russ Jones que deben tenerse en cuenta cuando los estudios de correlación y las métricas de software tienen valor.

description-six-most-widely-used-statistical

No tengo nada en contra del uso privado de los estudios de correlación para hacer un caso de uso empresarial interno.

Tienen en él.

El tiempo es precioso en el mundo de los negocios, así que use lo que pueda y confíe en si falla.

En el ámbito público, los pocos estudios que valen la pena se han pensado bien mediante el uso del marco analítico adecuado con el cuidado escrito adecuado o se han centrado en los cambios año tras año en los SERP de Google.

Y los artículos que destacan la metodología con transparencia de datos requieren un elogio bien merecido por ser abiertos.

Por separado, existen estudios de pruebas de SEO en vivo a través de herramientas como SearchPilot.

Estos están estructurados más matemáticamente y he trabajado con los desarrolladores para crearlos internamente y he presentado públicamente su valor desde 2011.

Por lo tanto, los trabajos de estos estudios, desde el uso de títulos de PPC para SEO hasta los experimentos realizados en Pinterest, son un gran trampolín si tiene la inmensa cantidad de tráfico que requiere.

Sigamos hacia arriba

Fuera de estos, los métodos estadísticos avanzados y una sólida capacidad de análisis de datos con experiencia en SEO son imprescindibles para lo que la industria necesita lograr.

Y hay suficientes SEO con mentalidad estadística dispuestos a ayudar, revisar y brindar sugerencias para que los estudios sean autorizados.

Sí, hay muchas críticas fuertes en los hilos de Twitter por parte de estos SEO cada vez que se publica un nuevo estudio, pero proviene del cuidado de la reputación de la industria para evitar que el punto de un estudio se malinterprete, impulsando un SEO pobre y un deseo de que otros Aprenda a analizar mejor un sistema complicado.

Y aunque un modelo de regresión multilineal no es perfecto dada la necesidad de depender de datos históricos y la cantidad de mantenimiento a lo largo del tiempo que de otra manera puede crear un sesgo en los resultados, sigue siendo un paso en la dirección correcta para que la industria del SEO se convierta en más estadístico.

En pocas palabras …

Si tiene la inmensa cantidad de datos (así como el tiempo y los recursos) necesarios para hacer esto correctamente y desea convertirse en la primera agencia de SEO, consultor, etc., en hacer esto en la industria, esto es lo que necesitará:

  • Un modelo estadístico avanzado como regresiones multilineales.
  • Una mentalidad inquisitiva con experiencia en SEO.
  • Un gran conjunto de métricas, reducido en tamaño por aquellas con calidad direccional.
  • Métricas de interacción.
  • Grupos y categorías de datos.
  • Un período de tiempo superior a una semana.
  • Revisión de la endogeneidad, heterocedasticidad y otros sesgos.
  • Se eliminaron los datos atípicos, si los hubiera.
  • Metodología explicada.
  • Trabajo presentado con diagramas de dispersión y formatos de datos de regresión.
  • Reclamaciones respaldadas con suficiente cantidad de pruebas.
  • Datos y análisis revisados por pares

Fuente y foto: https://www.searchenginejournal.com/analyze-google-algorithm-math-skills/378203