Si la comunidad científica analizara en profundidad la industria del SEO, probablemente se reirían tanto que un par de ellos probablemente morirían de un derrame cerebral.
A pesar de que la industria está madurando a estas alturas. La mayoría de las reglas de SEO se basan simplemente en evidencia anecdótica.
… o teorías que se le ocurrieron a algún gurú muy seguido basándose en el tweet de Matt Cutts de 6 años.
Así que queríamos hacer todo lo posible para tratar de mejorar las cosas y traer datos reales a la mesa, especialmente después del reciente lote de grandes actualizaciones que llegaron al algoritmo central de Google.
Sea amable, esta es nuestra primera oportunidad, pero hemos estado creando un rastreador personalizado para esta publicación solo para analizar 1,1 millones de resultados de búsqueda y compartir nuestros hallazgos aquí (guau, recién escribiendo esto, puedo decir que esto tiene mucho sentido comercial). ).
Aquí hay un resumen de lo que hemos aprendido:
- Lo más probable es que la primera posición sea el resultado más relevante . Si hay un resultado obvio (como una marca), Google lo mostrará, incluso si va en contra de todos los demás factores de clasificación y reglas de SEO.
- Para resultados menos obvios (es decir, búsquedas de palabras clave sin marca), los fragmentos destacados están tomando el control. Entre el 50% y el 65% de todos los lugares número uno están dominados por fragmentos destacados .
- En otras palabras, esta es el área donde ocurre la mayor competencia de SEO. Google se dirige hacia respuestas más inmediatas y menos clics en las SERP .
- Debido a estas dos cosas, gran parte de la competencia SEO real ocurre hoy en día en el segundo y tercer lugar .
- Los vínculos de retroceso , medidos por el número de dominios que remiten a una URL, siguen siendo el factor más fuertemente correlacionado para el éxito del SEO .
- Algunas de las métricas de autoridad de enlaces populares, como Ahrefs Rank o Domain Rating, han demostrado estar menos correlacionadas en nuestro estudio de lo que esperábamos .
- Las palabras clave importan . Tanto el número de palabras clave en el contenido como la densidad de palabras clave. Las palabras clave en la URL resultaron algo relevantes. Las palabras clave en metas, h1 y etiquetas de título mostraron correlaciones mucho más fuertes .
- Si bien el contenido más largo se correlaciona con clasificaciones más altas, es sensato pensar que la longitud no es el factor, sino que proporciona espacio para que se inserten más palabras clave con una densidad que no sea spam.
- Es mejor optimizar para el tema principal (la palabra clave de mayor volumen para la que se clasifica el resultado superior) que la palabra clave real que cubre. Todos los resultados mejor clasificados dominaron el «tema principal» sobre la palabra clave para la que clasificaron.
- HTTPS ahora es imprescindible para clasificar. No hay novedades aquí, Google ya lo dejó claro.
- Algunos de los rumores de SEO resultaron completamente inválidos. Por ejemplo, el rumor de que Google trata de manera diferente las palabras clave de gran volumen o que tiene preferencia por el contenido integrado de YouTube sobre otras plataformas de vídeo.
- Algunas creencias bien establecidas podrían ser simplemente el resultado de una mala ciencia de datos en estudios anteriores. Por ejemplo, la longitud de la URL es un factor importante de clasificación.
- Todos los resultados de la primera página muestran una puntuación media alta (más del 90%) para las auditorías Lighthouse (SEO) de Google, pero no se encontró ningún vínculo entre las puntuaciones más altas y las primeras posiciones.
- Page Speed parece ayudar, pero no tanto como se esperaba. Debería querer que sus páginas se carguen rápido, al menos por otras razones.
- Necesita más estudio : algunos resultados de la página dos imitan las métricas de los resultados principales de la página uno; parece haber una delgada línea entre hacer todo bien y parecer spam.
Continúe leyendo para conocer más detalles sobre los hallazgos…
Acerca de este estudio
En resumen, para este estudio, extrajimos 120.000 palabras clave aleatorias del Planificador de palabras clave de Google, la mitad de las cuales nos aseguramos de obtener al menos 1.000 búsquedas al mes.
Luego obtuvimos los 10 mejores resultados SERP para cada uno y extrajimos datos adicionales de Ahrefs (como la calificación del dominio), las API de Google y nuestros propios rastreadores personalizados.
En general, terminamos con un conjunto de datos bastante rico de alrededor de 1,1 millones de resultados SERP. Los detalles de cómo se realizó este estudio y ejemplos de datos con los que trabajamos se pueden encontrar aquí .
Estudios existentes, lo que hay ahí fuera
Naturalmente, antes de empezar con esto echamos un vistazo a los estudios que se han realizado en el pasado. Sorprendentemente, no tanto.
Lo que se hace, surge como un estudio publicado por uno de los proveedores de datos de SEO como Ahrefs (que están haciendo un gran trabajo) o como un análisis de terceros de los datos donados por los proveedores, como este estudio de 2016 realizado por Backlinko , que sirvió como nuestra inspiración para esta pieza, pero nos pareció un poco desactualizada debido a los cambios masivos de algoritmo que tuvimos en 2018 y 2019.
Luego tienes algo como la encuesta anual de Moz a profesionales de SEO, donde informan sobre su experiencia diaria. Todo esto lo consideramos valioso para ayudarnos a comenzar.
El resto de lo que encuentre se basa en rumores, evidencia anecdótica, análisis de publicaciones de blogs y tweets anteriores de Matt Cutts y hallazgos reciclados de estudios anteriores.
Obviamente, estábamos emocionados de hacer esto.
Limitaciones y desafíos de nuestro estudio
Fue una experiencia bastante reveladora trabajar con tantos puntos de datos y nos topamos con muchos desafíos.
Esas eran algunas cosas complicadas que obtenían resultados que parecían perfectamente buenos pero que en realidad no eran válidos o no eran confiables. Lo revelador fue que gran parte de lo que sabemos sobre SEO puede provenir de esos resultados.
Por ejemplo, cuando se trata de un conjunto tan grande de datos de palabras clave aleatorias (100.000 en este caso), obtendrá muchas palabras clave de marca allí.
Eso significa que comparar los resultados del primer ranking con el resto arrojará resultados muy diferentes, ya que con las palabras clave de marca, a Google no le importarán mucho los pequeños factores de SEO como HTTPS o la velocidad de la página cuando hay una respuesta obvia a la consulta.
Como resultado, el promedio de las estadísticas del rango uno a menudo se verá muy diferente a todo lo que se ubica debajo.
Esto es algo que también ha aparecido en los estudios de casos de otras personas como Ahrefs o Backlinko. A menudo, la eficacia del SEO se puede ver en los datos agregados de los resultados de los puestos dos y tres.
U otro ejemplo: se ha escrito mucho sobre cómo las URL más cortas conducen a una mejor clasificación y está respaldado por estudios anteriores.
Bueno, si trabaja con resultados agregados y palabras clave diversas, es más probable que las clasificaciones más altas sean para las páginas de inicio reales, sin un sufijo, porque son relevantes para palabras clave específicas y se clasificarían para la consulta de todos modos, no porque tengan un URL corta.
En otras palabras, para muchas palabras clave, es más probable que encuentre algo como www.website.com entre las clasificaciones más altas, mientras que algo como www.website.com/top-ten-something produzca una longitud promedio más corta.
Hemos hecho todo lo posible para filtrar gran parte de ese ruido estadístico.
Bien, aquí están los hallazgos reales….
#1 Todavía vale la pena luchar por el puesto #1
¿Has oído hablar alguna vez de la regla de Pareto? Es la idea de que una gran mayoría de los resultados en cualquier área provienen de “unos pocos vitales”; muchos blogs de Internet han escrito sobre ello.
Bueno, antes que nada, Pareto era economista y la regla de Pareto es un concepto económico. Y el mundo de los negocios y la economía parece estar dominado por esta regla.
Por ejemplo, el 99% de las aplicaciones en las tiendas de aplicaciones móviles generan poco o ningún dinero, mientras que los miles de millones van al 1% superior. O el 95% de los inversores del mercado minorista de valores apenas alcanzan el punto de equilibrio.
En promedio, el mejor resultado obtiene el 40% del tráfico orgánico agregado. Para las palabras clave importantes (es decir, 1000 búsquedas al mes), la cifra sube al 47%.
Lo mismo ocurre con el SEO. Los primeros clasificados dominan el mercado dejando al resto prácticamente en el polvo.
Esto no se debe sólo al hecho de que el resultado número uno es el número uno para la palabra clave que analizamos. También se debe a que el resultado número uno termina clasificándose para muchas más palabras clave en promedio.
Y su ranking número 1 le permite ganar más enlaces orgánicos, lo que refuerza su posición. Es un círculo virtuoso.
De vez en cuando me encuentro con algunos «hechos alternativos» e ideas de SEO como que debes apuntar al puesto número dos o tres asumiendo que la mayoría de las personas se saltan el primer resultado por desconfianza.
Si observamos el tráfico orgánico que obtuvimos de Ahrefs , no parece ser el caso.
Conclusión: vale la pena luchar por el puesto número uno cuando estás en la primera página de una palabra clave. A menudo, más que luchar por nuevas palabras clave si tienes la oportunidad de luchar.
#2 Los fragmentos destacados están creciendo muy rápido
En general, el 46% de las primeras posiciones en nuestro estudio estaban ocupadas por una función SERP. Para las palabras clave que obtienen una cantidad decente de búsquedas, la cifra fue ligeramente superior, alrededor del 48%.
Si eres SEO, esta no es la cifra más relevante.
Básicamente, con las palabras clave de marca, no hay necesidad de una función SERP si la búsqueda puede generar un resultado muy específico, como una página de Amazon en particular.
Entonces, después de eliminar los resultados de las consultas probables sobre marcas, los resultados aumentaron al 65,5%.
Eso es mucho más que el 12,29% que Ahrefs encontró a mediados de 2017, incluso considerando un margen de error saludable.
En otras palabras, para las palabras clave sin marca, la clasificación número uno se reemplaza por una respuesta inmediata.
Lo que esto significa es que hay un claro cambio hacia que Google monopolice el tráfico y sus usuarios pueden terminar obteniendo respuestas inmediatas, sin hacer nunca clic en los enlaces y reduciendo el volumen general de tráfico orgánico con el tiempo.
Nuestro consejo aquí es optimizar su página para que termine en una de esas funciones SERP.
Hubspot realizó un estudio de caso sobre esto y demostró que, para consultas grandes, cuando aparecían en los fragmentos destacados, su página obtenía un CTR más alto que cuando no aparecían.
Lo ideal sería ocupar el segundo puesto y optimizar para atraer tráfico en el nuevo mundo dominado por las funciones SERP. Por ejemplo, al tener un título sólido.
Conclusión: Nos dirigimos hacia resultados de búsqueda dominados por fragmentos destacados y no hay nada que puedas hacer al respecto. No optimice simplemente con el objetivo de convertirse en uno, intente ser también el primer resultado orgánico «clásico».
#3 HTTPS importa, pero la relevancia lo supera
No hay nada nuevo aquí, Google ha estado presionando por HTTPS durante bastante tiempo. Ha habido una amenaza de perder rangos y Chrome literalmente llamará a su sitio inseguro si no tiene un certificado SSL activo.
Hasta ahora, más del 90% de los resultados de la página uno ya tienen HTTPS, lo que muestra que la mayoría de los sitios ahora han hecho la transición a SSL y Google los está recompensando por ello.
La clasificación número uno, sin embargo, tiene una correlación más baja probablemente debido al factor de relevancia que mencionamos anteriormente.
Esto se debe simplemente a que si busca algo como «centro de manutención infantil» desde una IP en Ohio, Google colocará el sitio web del centro de manutención infantil local en la parte superior de la página, independientemente de si tiene un certificado SSL o no.
Para este tipo de consultas, descubrimos que ni HTTPS ni ningún otro factor de SEO juegan un papel importante.
Conclusión: proteja su sitio con HTTPS si aún no lo ha hecho. Cualesquiera que sean los resultados de este estudio, Google dejó clara su dirección y probablemente sufrirás las consecuencias si lo retrasas más.
Los vínculos de retroceso n.° 4 siguen siendo el factor de clasificación n.° 1
No hay noticias aquí. Los vínculos de retroceso siguen siendo el factor de clasificación más importante.
Medimos el número total de dominios de referencia que apuntan a la URL y que produjeron las correlaciones más altas con las primeras posiciones.
En este punto, sólo podemos hablar de cantidad y de que la diversidad de propiedad intelectual sea un factor. (Creo que Ahrefs ha realizado una investigación más exhaustiva sobre los perfiles de vínculos de retroceso, pero no pude encontrarlos nuevamente).
Gráfico: Si bien el número promedio de vínculos de retroceso por SERP cambió según el conjunto de datos (palabras clave de gran volumen versus todas, incluye palabras clave de marca versus no de marca), la proporción permaneció igual para todos los análisis que realizamos.
En este momento tiendo a creer que cuando los SEO hablan de factores como la longitud del contenido o la presencia de una imagen, es posible que no sean factores que Google considere en absoluto, sino que simplemente se correlacionan con un contenido de mayor calidad al que se vincula.
También analizamos otras métricas populares, como Ahrefs Rank, y no encontramos correlación. La calificación de dominio parecía algo relevante.
Conclusión: dedique más tiempo a crear contenido vinculado, en lugar de leer todas esas guías y artículos de SEO.
#5 Longitud de URL y palabras clave en URL
La creencia actual en la industria del SEO es que la longitud de la URL afecta la clasificación. Los estudios anteriores también han correlacionado los rankings de búsqueda más altos con la concordancia exacta de la palabra clave en la URL.
También encontramos las mismas correlaciones pero sospechamos de ello. Es lógico que cuanto más alto llegue en el ranking de búsqueda, más corta será la URL, ya que obtendrá más resultados para la página de inicio sin sufijo y páginas de categorías cortas.
Cuando se utiliza una muestra grande de palabras clave, algunos de esos resultados afectarán drásticamente la longitud promedio.
Con la presencia de palabras clave, la historia es ligeramente diferente. Eche un vistazo a dos ejemplos de URL a continuación.
- www.mywebsite.com/protein-bars-vegan-athletes
- w ww.mywebsite.com/vegan-protein/
Supongamos que desea clasificar según la palabra clave «barras de proteína veganas». El consejo estándar es utilizar un sufijo como el del último ejemplo, es decir, /vegan-protein/.
Al buscar una coincidencia exacta en el sufijo de la URL, en general, no encontramos correlación.
Si incluyéramos el dominio raíz, los primeros se destacarían con números más altos, por lo que es sensato asumir que las palabras clave en los dominios raíz (o subdominios) parecen ser algo relevantes a pesar de lo que dice Google.
Ahora digamos que la palabra clave que analizamos es «barras de proteína veganas». Cuando tokenizamos la palabra clave de la siguiente manera: «vegano», «proteína», «barra» y simplemente contamos la aparición de estas, encontramos una correlación mucho más fuerte.
Con este método, es más probable que la primera URL, más larga, se encuentre más arriba en los rankings de búsqueda.
Conclusión: Creo que la longitud de la URL y las palabras clave que contiene tienen una importancia mucho menor de lo que generalmente se cree. Incluso con algunas correlaciones, al observar todos los resultados que tenemos, el caso no es tan convincente.
Sin embargo, podría ser una buena práctica ser breve y conciso, pero lo suficientemente largo como para incluir todas las palabras importantes en palabras clave de gran volumen para las que desea clasificar.
#6 Palabras clave en meta, etiquetas de título, etiquetas H1, etc.
Logramos rastrear el 90% de todo el conjunto de datos de 1,1 millones de URL (el otro 10% bloqueó nuestra solicitud o de alguna manera no era accesible para los rastreadores).
Encontramos una correlación mucho más fuerte para las palabras clave en meta descripciones, etiquetas H1 y de título que en el análisis de URL. De hecho, podemos dar por hecho que Google los analiza, ya que su herramienta de auditoría Lighthouse deja relativamente claro que son importantes.
En cada caso, hubo una correlación bastante sólida para la palabra clave para la que obtuvimos las clasificaciones, pero aún más fuerte para el tema principal.
De hecho, las palabras clave del tema principal (la palabra clave de mayor volumen para la que se clasifican los resultados principales; lea más sobre esta métrica aquí ) tenían hasta el doble de probabilidades de aparecer en estas propiedades.
Esto nos animó a prestar más atención al tema principal cuando analicemos la presencia de palabras clave en las próximas pruebas para ver cuán valioso es para el SEO.
Sin embargo, una cosa que noté al observar la lista real de temas principales es que a menudo son versiones finales más cortas de la palabra clave que estábamos analizando, lo que explica por qué a menudo superan a la palabra clave real en correlación.
C onclusión: Optimice estas propiedades para su palabra clave, pero no olvide apuntar al tema principal en primer lugar. Por cierto, medimos la coincidencia exacta en este análisis.
#7 Longitud del contenido y palabras clave del contenido
Existe una fuerte creencia en la industria del SEO de que el contenido más extenso ofrece clasificaciones más altas o que Google de alguna manera prefiere el contenido de formato largo.
También existe la creencia general de que la longitud óptima del contenido para SEO es de alrededor de 2000 palabras. Si bien el estudio encontró correlación con la longitud del contenido, tiendo a no estar de acuerdo con la opinión general.
En primer lugar, cualquier estudio más amplio tendrá dificultades para evaluar con precisión la extensión del contenido, a menos que se haga manualmente. Los web scrapers tienden a capturar elementos que no pertenecen al recuento de palabras e inflar los números.
Cosas como secciones de comentarios, navegación lateral y cuadros de autor.
Otras veces, los estudios publicados sobre este tema provienen de empresas de software que se dedican al marketing de contenidos y, por lo tanto, estarán predispuestos a decirle que el contenido más extenso es mejor.
Para este estudio, probamos un montón de soluciones diferentes y finalmente nos decidimos por una basada en la biblioteca Readability que potencia la vista del lector en el navegador Firefox, ya que era, con diferencia, la mejor para aislar contenido y eliminar navegación, comentarios, etc.
Si bien encontramos una hermosa correlación para el recuento de palabras, la longitud total del contenido fue más corta de lo que generalmente se cree una vez que se elimina gran parte del ruido que los scrappers más genéricos tienden a captar.
Pero aquí está el hallazgo más emocionante.
Para obtener los mejores resultados, la palabra clave aparecería en promedio 5,7 veces en el texto legible (por ejemplo, el cuerpo del artículo) y 17,2 veces en el tema principal. Eso es aproximadamente 3 veces más en comparación con los resultados del puesto 12.
El recuento de palabras clave también mostró una hermosa correlación. En promedio, encontramos que la palabra clave apareció en el texto legible seis veces.
Lo que es más interesante es que el tema principal aparecería en la parte legible del texto casi 3 veces más a menudo que la palabra clave para la que extrajimos las SERP.
Otra cosa interesante es que la densidad de palabras clave también se correlaciona, a pesar de que las clasificaciones más altas tienen un recuento promedio de palabras más largo.
Conclusión: Lo que eso nos deja es que puede que no sea la longitud del contenido lo que afecte tanto su SEO, sino que le permita mostrarle a Google más palabras clave mientras mantiene una densidad creíble.
En otras palabras, si no optimiza su contenido para palabras clave, la extensión del contenido no ayudará mucho. (A menos que sea tan bueno que la gran cantidad de su valor haga que más sitios enlacen hacia usted).
#8 Auditoría Lighthouse y PageSpeed Insights
Finalmente, queríamos echar un vistazo a la velocidad de la página y todo lo que fuera accesible mediante las herramientas API de Google.
Se ha dicho mucho sobre cómo la velocidad es fundamental para el SEO.
En el pasado se encontraron algunas correlaciones, pero generalmente provenían de fuentes como Alexa. Supongo que porque es la forma más barata y sencilla de obtener datos adicionales.
También consideramos a Alexa, pero muchos usuarios informan datos inexactos, por lo que recurrimos a la herramienta PageSpeed Insights de Google , una forma mucho más costosa de obtener datos.
Esta herramienta le brinda una puntuación general para una URL, teniendo en cuenta una serie de factores, incluida la velocidad, el rendimiento general, las mejores prácticas de SEO y la optimización móvil.
Hace unos meses se actualizó con la última versión de la herramienta de auditoría Lighthouse . Contiene una auditoría SEO que analiza los siguientes puntos y los califica:
- El documento tiene un `rel=canonical`’ válido
- El documento tiene un `
Si bien aprendimos que, en promedio, más del 90% de todas las páginas cumplen con todos los puntos, no hubo correlación entre la clasificación alta y las puntuaciones más altas. De hecho, parecía ligeramente al revés.
Luego miramos los resultados de velocidad de la página. Mirábamos:
- Retraso de la primera entrada (FID) : el tiempo desde que un usuario interactúa por primera vez con su sitio hasta el momento en que el navegador puede responder.
- First Contentful Paint (FCP) : el tiempo desde la navegación hasta el momento en que el navegador muestra el primer bit de contenido del DOM.
- … y velocidad general.
Los resultados son que las páginas mejor clasificadas son ligeramente más rápidas, pero la mayoría obtuvo una puntuación PROMEDIO o LENTA en general, y PROMEDIO para FID y FCP.
Conclusión: Parece ser una buena práctica optimizar con PageSpeed Insights actualizado, pero no espere milagros para sus clasificaciones y no sacrifique la experiencia de usuario y las funcionalidades premium por unos pocos puntos de velocidad de página.
Obviamente, existen muchas otras razones por las que desearía que su página fuera rápida, como mejores conversiones y tasas de rebote más bajas.
#9 Otras observaciones
Todo lo anterior son sólo los hallazgos interesantes o dignos de mención que obtuvimos del estudio. Sin embargo, observamos un montón de cosas mientras lo realizábamos.
Por ejemplo, queríamos ver si la presencia de un vídeo en el contenido tiene algún impacto en las SERP o si es cierto que Google prefiere las páginas que utilizan YouTube a otras plataformas de vídeo.
Ninguna de estas suposiciones resultó válida. Al menos no en nuestro análisis.
También asumimos que el rumor de que Google ejecuta un algoritmo diferente para palabras clave de gran volumen es cierto, y ejecutamos cada análisis en diferentes volúmenes por separado, solo para encontrar resultados similares cada vez.
Finalmente, lo más interesante de ver, y algo que Shopihunter también observó antes, es que a menudo los resultados principales en la página dos parecen mostrar métricas similares a las de las páginas reales mejor clasificadas.
Por ejemplo, densidad de palabras clave similar, rango de dominio de Ahrefs, prevalencia de HTTPS, etc. Sin embargo, nunca llegaron a la página uno.
Parece que hay algunos problemas de credibilidad (¿tal vez COMER?) o una delgada línea entre hacer las cosas bien y dar la impresión de que existe spam en el algoritmo de Google.
Conclusión final
Después de observar estos resultados, creo que mucha gente tiene interés en hacer que el SEO parezca demasiado complicado para mantener el estatus de gurú.
Creo que muchos de los pequeños detalles técnicos como la palabra clave en la URL o la velocidad de la página son importantes para consultas extremadamente competitivas donde las ventajas del 1% pueden marcar la diferencia.
Pero en la mayoría de los casos, no tienen tanto impacto como la mayoría de la gente piensa.
El estudio ha demostrado una vez más que Google hace un gran trabajo a la hora de establecer la relevancia y, cuando hay una elección clara, presta poca atención a los aspectos técnicos del SEO.
Esto ya se puede observar en el estudio de Backlinko de 2016: observe cómo el primer ranking siempre muestra puntuaciones más bajas en la mayoría de los gráficos.
Para todo el contenido en el que el SEO juega un papel, creo que la respuesta es sencilla. Haga su investigación de palabras clave, cree un contenido único y de gran valor y promuévalo para obtener enlaces.
Tenga un sitio limpio tanto desde la perspectiva técnica como desde la perspectiva de la experiencia del usuario y debería estar listo para comenzar.
Se vuelve un poco más desafiante cuando sus sitios se vuelven muy grandes y necesita organizar el contenido de una manera lógica.
Pero una vez más, esto no se aplica a la mayoría de los propietarios de sitios.
La gente tiende a creer que Google está implementando algunos algoritmos de PNL e inteligencia artificial demasiado sofisticados para establecer qué páginas impulsar más alto y cuáles penalizar.
Más bien creo que hace un gran trabajo al recopilar, clasificar y organizar cantidades increíbles de datos muy básicos (como ocurrencias de palabras clave y enlaces), encontrar patrones en ellos y sacar conclusiones.
Entonces me concentraría en esas cosas simples.
Pero esa es mi opinión personal basada en lo que sé sobre el estado actual de las tecnologías de PNL y IA: son mucho más primitivas de lo que la gente cree.
Los resultados de este estudio sólo han solidificado esta opinión.
Aquí está el enlace a nuestros métodos de investigación en caso de que desee más detalles o desee replicar este estudio.