Si estás viendo datos raros de impresiones en Search Console, no es solo cosa tuya. Un pequeño cambio, en apariencia poco relevante y al que Google no le ha dado publicidad, está causando un terremoto a nivel SEO en todo el mundo.
¿Has notado un descenso repentino en las impresiones de tu sitio web en Google Search Console (GSC)? No eres el único. Lo que a simple vista podría parecer un problema con tu web es, en realidad, el resultado de una decisión técnica de Google que ha destapado una verdad sorprendente sobre cómo se han medido los datos de búsqueda hasta ahora.
Durante años, las herramientas SEO han utilizado un pequeño atajo para recopilar información de Google de forma masiva: el parámetro &num=100. Simplemente al agregarlo a la URL de una búsqueda, Google mostraba 100 resultados en una sola página, en lugar de los 10 habituales. Por ejemplo, si escribes simplemente “historia de Internet” en tu buscador, irás a una url como esta, en la que verás 10 resultados orgánicos antes de tener que pasar a la siguiente página para ver más resultados: https://www.google.com/search?q=historia+de+internet&oq=historia+de+internet
Sin embargo, si añadías ese fragmento e ibas a https://www.google.com/search?q=historia+de+internet&oq=historia+de+internet&num=100 podías acceder a todo el top 100 de resultados.
Ahora, esto ya no funciona así. Si añades ese &num=100 seguirás viendo los 10 resultados básicos.
Un cambio bastante sencillo, ¿verdad?
Pues no.
Verás: este atajo era muy útil para algunas de las principales herramientas SEO del mercado, ya que les permitía rastrear las posiciones de miles de palabras clave de manera rápida y eficiente. Al eliminar este atajo, Google ha obligado a estas herramientas a volver al método tradicional: solicitar 10 páginas de 10 resultados para obtener la misma información.
Como consecuencia, estas herramientas han tenido que adaptarse rápidamente. Una de las referencias del mercado como Semrush ya ha emitido un comunicado para asegurar a sus usuarios que los datos de los 20 resultados principales siguen siendo totalmente fiables. Sin embargo, explica que “las clasificaciones más abajo en la página pueden ayudar a diagnosticar problemas (por ejemplo, canibalización de palabras clave) o a detectar señales tempranas de crecimiento. Estas siguen siendo valiosas, pero tenga en cuenta que la visibilidad aquí puede fluctuar mientras la industria se adapta a este cambio”. La herramienta AccuRanker ha sido más drástica, limitando su seguimiento a los 20 resultados principales por defecto y advirtiendo sobre un potencial aumento de los costes si quieren rastrear más posiciones.
En palabras de Semrush: “Este es un problema que afecta a todo el sector y a todas las herramientas de seguimiento de posicionamiento, pero la buena noticia es que ya hemos implementado soluciones alternativas para minimizar las interrupciones y mantener intacta la funcionalidad principal. Estos son ajustes provisionales y, en las próximas semanas, perfeccionaremos nuestro enfoque y compartiremos actualizaciones a medida que implementemos soluciones a largo plazo. Sabemos que su negocio depende de estos datos. Nuestro objetivo es ser totalmente transparentes a medida que la situación evolucione y garantizar que Semrush siga siendo su fuente más fiable de información de búsqueda”.
El giro de guion más interesante ha ocurrido en Google Search Console, la herramienta gratuita que te dice cómo tu web aparece en Google. Durante el último año, muchos analistas SEO habían notado algo extraño: un aumento en las impresiones (las veces que una web aparece en los resultados de búsqueda), pero sin un aumento de los clics. Este fenómeno, apodado el “Gran Desacoplamiento”, se atribuía a la llegada de las respuestas con IA de Google, las AI Overviews, que ofrecían la respuesta al usuario sin necesidad de visitar una web, agrupando la información de múltiples fuentes de una sola vez: los usuarios obtenían respuestas rápidas a sus dudas sin tener que hacer clic. Eso provocaba más impresiones, pero con menos clics.
Ahora, justo ahora, en pleno contexto de este cambio de Google, la tendencia se ha revertido. Si consultas tu Search Console, probablemente descubrirás una gran caída en las impresiones desde el sábado 13 de septiembre.
Sin embargo, para algunos expertos SEO, como el especialista Brodie Clark, la caída repentina de impresiones coincide demasiado con la eliminación del parámetro &num=100 como para ser casualidad. Su teoría es que gran parte de esas impresiones no provenían de usuarios reales, sino de bots de herramientas SEO que rastreaban las 100 posiciones de golpe y generaban impresiones artificiales en Google Search Console.
Además, Clark destaca un detalle clave: el descenso se ha notado sobre todo en escritorio, mientras que en móvil el impacto ha sido mucho menor. Esto encaja con la práctica habitual de muchas herramientas SEO, que utilizan el seguimiento de escritorio como configuración por defecto para rastrear posiciones. Dicho de otra forma: no estábamos midiendo solo a usuarios, sino también a bots que “inflaban” los datos de impresiones.
Piénsalo así: cada vez que una herramienta SEO rastreaba las 100 posiciones en una sola página para una búsqueda, se registraba una impresión en GSC, incluso si la página de tu web estaba en la posición 99, muy lejos del alcance visual del usuario. El volumen de este tráfico de bots era tan grande que habría estado “contaminando” y distorsionando los datos de GSC durante mucho tiempo.
Esta es una de las preguntas más incómodas e interesantes de este misterio, pero rascando un poco en el contexto, podríamos pensar que Google simplemente se está defendiendo de un exceso de consultas. ¿De quién?
Bueno, uno de los culpables podrían ser las herramientas SEO. Tal y como explica el comunicado de AccuRanker recopilar información de más resultados de búsqueda requiere peticiones adicionales, lo que aumenta “significativamente los costes”. Esta misma lógica se podría aplicar a Google. Al obligar a las herramientas SEO a realizar 10 peticiones en lugar de una para obtener los mismos datos, Google puede reducir la carga en sus sistemas, especialmente del rastreo masivo por parte de terceros.
De hecho, Brodie Clark sugiere que la desactivación del parámetro es un movimiento intencional para “reducir el abuso de los sistemas de Google por parte de servicios de seguimiento externos”. La creciente demanda de este tipo de soluciones en el campo del SEO motivada por la llegada de las AI Overviews podría estar detrás de ello.
Por otra parte, el boom de la IA también podría tener bastante que ver: según el análisis de Clark, los datos de GSC estaban “desafortunadamente… contaminados con una gran cantidad de impresiones de bots”. Al deshabilitar la capacidad de las herramientas para rastrear 100 resultados a la vez, Google elimina la fuente de estas impresiones de bots, haciendo que sus propios datos sean más precisos y representen de mejor manera el comportamiento real de los usuarios.
A falta de una explicación de Google, estamos en un puro terreno especulativo, pero la teoría tiene sentido. La eliminación del atajo &num=100 ha actuado como una “purga”, revelando que la información con la que estábamos trabajando no era del todo realista.
Aparentemente, la principal derivada de este movimiento es que los datos de Google Search Console serán ahora más realistas, aunque seguramente veas menos impresiones que antes. En realidad, esto no implica necesariamente una pérdida de visibilidad, sino la eliminación de ese “ruido” generado por bots.
Por otro lado, las herramientas de tracking podrían encarecerse o limitar el número de posiciones que muestran por defecto, como ya está pasando con AccuRanker y Semrush. Esto significa que tendrás que poner el foco en las posiciones más relevantes (Top 10–20) y asumir que seguir a fondo el resto del ranking será menos accesible o más costoso.
Seguiremos de cerca la evolución del caso para conocer la explicación de este misterio 😉
Imagen: Gemini
Your email address will not be published. Required fields are marked *
Δ