Durante días, las redes se han llenado de mensajes alarmistas: “Google ha bloqueado a ChatGPT”, “el 90 % de Internet ha desaparecido”, “la web se ha vuelto invisible para la Inteligencia Artificial”. El detonante no ha sido un gran anuncio público, sino un cambio técnico y silencioso en cómo Google muestra sus resultados.
La realidad es menos apocalíptica, pero mucho más relevante de lo que aparenta a primera vista.
Qué ha hecho realmente Google
El cambio es muy concreto: Google ha dejado de respetar el parámetro num=100 en las URLs de búsqueda. Durante años, este parámetro permitía cargar hasta 100 resultados orgánicos en una sola página. Era una función poco visible para el usuario medio, pero crítica para todo el ecosistema de SEO, scrapers y herramientas de IA que se apoyaban en Google como fuente de datos.
Desde mediados de septiembre de 2025, forzar &num=100 ya no funciona. Las búsquedas estándar se limitan en la práctica a unos 10 resultados por página, obligando a paginar para ver el resto.
Es un detalle aparentemente menor en la interfaz, pero ha reventado una autopista de datos que miles de herramientas utilizaban a diario.
El “num=100”: la autopista oculta del SEO y la IA
Hasta ahora, la lógica era sencilla: una herramienta de rankings, un scraper o una startup de IA añadían &num=100 a la URL de búsqueda, hacían una sola petición y obtenían de golpe los 100 primeros resultados de Google para una consulta. Eso significaba:
- Menos peticiones HTTP.
- Menos riesgo de bloqueos y captchas.
- Menor coste de infraestructura.
- Acceso fácil al “long tail”: posiciones 11–100, donde viven la mayoría de webs pequeñas.
Con la desaparición del parámetro, cualquier actor que quiera la misma profundidad de datos necesita multiplicar por diez sus peticiones: 10 páginas de 10 resultados, en lugar de una sola de 100. Eso supone más coste computacional, más probabilidades de ser bloqueado y más fricción para sacar datos a escala
Para Google, el movimiento significa reducir una vía de extracción masiva de información que nunca fue un canal oficial. Para buena parte del ecosistema que vivía de esa “grieta técnica”, es un cambio de reglas en mitad de la partida.
Por qué los “derrumbes” de visibilidad no son el fin del mundo
Una de las cifras que más se ha viralizado procede de un análisis de 319 propiedades en Google Search Console: el 87,7 % de los sitios registró caídas de impresiones y el 77,6 % perdió términos de búsqueda únicos tras la eliminación de num=100.
En redes, esto se ha traducido en titulares del tipo “el 77 % de las webs ha perdido visibilidad en Google”. La realidad es más matizada:
- Los clics y el tráfico real apenas han variado en muchos casos.
- Lo que se ha desplomado son las impresiones profundas, aquellas que se generaban en páginas 3, 4, 5 o más, muchas veces infladas por rastreadores y herramientas automáticas.
Dicho de otro modo: parte de los datos que se veían en Search Console nunca reflejaron comportamientos reales de usuarios, sino tráfico automatizado. Al cortar el acceso fácil a los 100 resultados por página, esos “fantasmas” desaparecen de los informes. Las métricas parecen peores, aunque el negocio siga igual.
Para las agencias y profesionales del SEO, el reto ahora es pedagógico: explicar a clientes que no están desapareciendo de Google, sino midiendo con un termómetro distinto.
No, Google no ha censurado a ChatGPT (pero sí ha encarecido mirar la web)
Otra de las narrativas que ha corrido como la pólvora es que Google habría “cerrado la puerta” a ChatGPT y a otros modelos de lenguaje. El matiz es importante: Google no ha bloqueado a un proveedor concreto, sino que ha encarecido estructuralmente la recolección de datos a través de su buscador.
Muchos agentes y herramientas de IA —incluyendo integraciones con ChatGPT, modelos de Anthropic o startups como Perplexity— usaban o se beneficiaban indirectamente de scrapers que tiraban de Google para descubrir contenido en tiempo real.
Con el límite efectivo de 10 resultados:
- Ver el “long tail” se vuelve más caro y complejo.
- Las soluciones que dependían de scrapers baratos sufren un golpe directo.
- Ganan peso quienes cuentan con sus propios índices web o acuerdos de datos oficiales.
Eso no significa que las IA se hayan quedado ciegas de la noche a la mañana. Los grandes actores llevan años construyendo sus propios rastreadores, usando fuentes abiertas como Common Crawl o cerrando acuerdos de licencia con medios y plataformas. Pero sí supone un freno para quienes se apoyaban exclusivamente en Google como atajo.
Menos diversidad, más concentración en el top 10
El impacto más preocupante no es inmediato, sino estructural. Si cada vez más capas de descubrimiento —buscadores, asistentes, agentes de IA— se concentran en los mismos 10 resultados de siempre, el panorama informativo se estrecha.
El contenido sigue online, alojado en sus servidores, pero se vuelve prácticamente invisible si nadie lo pone delante del usuario. Eso golpea de lleno a:
- Blogs especializados de nicho.
- Medios pequeños y proyectos locales.
- Comunidades y foros que rara vez escalan al top 10 (como muchos hilos de Reddit).
Los primeros análisis apuntan precisamente a un recorte fuerte en la visibilidad de ese tipo de contenidos, tanto en buscadores como en respuestas generadas por IA, donde el peso de los grandes dominios tiende a amplificarse.
Ventaja para quienes tienen índice propio (y músculo financiero)
En este nuevo escenario salen especialmente reforzados quienes pueden “pagar el peaje”:
- Google y Bing, que controlan sus propios índices masivos y ya no facilitan tanto que terceros aspiren a replicarlos vía scraping barato.
- Grandes plataformas de IA —OpenAI, Anthropic, Google DeepMind, Meta…— con capacidad para rastrear directamente la web, cerrar acuerdos de licencia y absorber el coste extra de paginar resultados.
Para pequeñas herramientas SEO, SaaS de nicho o startups de IA, el panorama es distinto: el coste de seguir ofreciendo rankings profundos, auditorías masivas o sistemas de RAG basados en SERP aumenta de forma significativa. Algunas ya han avisado de posibles subidas de precios o recortes en la profundidad de los datos que ofrecen.
En la práctica, el cambio refuerza una tendencia de fondo: el acceso a la web “a escala Google” se está convirtiendo en un privilegio de pocos actores muy capitalizados.
Qué pueden hacer las empresas y creadores de contenido
En este contexto, las recomendaciones que empiezan a repetirse entre expertos de SEO y marketing digital se mueven en tres grandes líneas:
- Menos obsesión con el “puesto 73” y más foco en negocio real
Si Search Console muestra menos impresiones, pero los clics y las conversiones se mantienen estables, el problema es de lectura de datos, no de visibilidad real. - Estrategias que vayan más allá de Google
Invertir en newsletters, comunidades propias, presencia en redes, canales directos y acuerdos con plataformas es una forma de no depender exclusivamente del buscador como canal de descubrimiento. - Contenido pensado para IA y para personas, no solo para el algoritmo
A medida que las respuestas generadas por modelos de lenguaje ganan peso, gana importancia estar citado como fuente fiable, tener contenido bien estructurado, claro, actualizado y con señales de autoridad. - Monitorizar, pero con nuevos indicadores
Muchas agencias están redefiniendo dashboards para dar más peso a clics, tráfico orgánico cualificado y conversiones, y menos a métricas infladas por impresiones profundas.
Una decisión técnica con consecuencias políticas
La eliminación de num=100 no es, sobre el papel, una ley ni un acto de censura. Es un ajuste técnico dentro del derecho de una empresa privada a definir cómo se accede a su servicio.
Sin embargo, en un entorno donde Google concentra cerca del 90 % de las búsquedas globales, cualquier modificación en la forma de ver resultados tiene efectos sistémicos.
Si solo un puñado de actores controla el “filtro” principal de descubrimiento —y, por extensión, el grifo de datos que alimenta a la Inteligencia Artificial—, el riesgo no es que desaparezca Internet, sino que se vuelva más homogénea, más corporativa y menos abierta.
Lo que ha cambiado estas semanas no es que Google haya “cerrado la puerta” a ChatGPT, ni que el 90 % de la web haya sido borrado. Lo que ha cambiado es quién puede permitirse mirar la red en profundidad, a qué coste y con qué condiciones.
Esa diferencia —quién puede pagar por ver— puede marcar buena parte de la próxima década de la web y de la propia IA.
Preguntas frecuentes
¿Qué significa que Google haya eliminado el parámetro num=100 para el SEO de pequeñas empresas?
Significa que las herramientas que antes podían ver de un vistazo los 100 primeros resultados ahora tienen que paginar y hacer muchas más peticiones para obtener la misma información. En la práctica, algunos informes de visibilidad mostrarán menos palabras clave y menos impresiones, sobre todo en posiciones profundas, pero eso no implica necesariamente una caída real de tráfico. Las pequeñas empresas deben fijarse en clics, leads y ventas, más que en impresiones que antes podían estar infladas por bots y scrapers.
¿Cómo afecta el límite de 10 resultados por página de Google a la visibilidad en long tail?
El long tail —términos de búsqueda menos masivos, muchas veces en posiciones 20, 40 o 80— se vuelve más difícil de rastrear y de analizar. Los usuarios humanos ya solían moverse poco más allá de la primera página, pero ahora también las herramientas automáticas tienen más fricción para llegar a esos resultados. Eso concentra aún más la visibilidad en el top 10 y obliga a trabajar mejor el contenido para aspirar a entrar en esa franja, sin dejar de lado estrategias complementarias como el tráfico directo, las newsletters o las redes profesionales.
¿Perjudica este cambio a la capacidad de ChatGPT y otros modelos de IA para encontrar información actualizada?
Perjudica sobre todo a los sistemas que dependían de scrapers baratos basados en Google para hacer recuperación en tiempo real. Los grandes modelos de lenguaje combinan múltiples fuentes: índices propios, rastreos directos, datasets públicos y acuerdos de licencia. El cambio introduce fricción y coste, pero no corta de raíz el acceso a la información. Donde sí puede notarse más es en soluciones pequeñas que dependían casi exclusivamente de la SERP para alimentar sus respuestas o sus sistemas de RAG (retrieval-augmented generation).
¿Qué se puede hacer para proteger la visibilidad en buscadores y en respuestas de IA tras el fin de num=100?
La estrategia pasa por reforzar la calidad del contenido, mejorar la arquitectura de la web, atacar bien las búsquedas de intención clara (informacional, transaccional, local), cuidar la reputación de marca y diversificar canales. También es recomendable vigilar cómo citan los modelos de IA el contenido de la empresa, revisar si aparecen como fuente y, cuando sea necesario, reforzar la estructura de los artículos con datos, ejemplos y FAQs que faciliten su uso en resúmenes automáticos y AI Overviews.
Fuentes:
- Informes y análisis sobre la retirada de
num=100y el límite de 10 resultados por página en Google Search. (SEO-Kreativ) - Datos de Search Engine Land sobre la caída de impresiones y pérdida de visibilidad de palabras clave en Google Search Console tras el cambio. (Search Engine Land)
- Artículos y guías de agencias y consultores SEO sobre el impacto en herramientas de tracking, scrapers y reporting. (wd-strategies.com)
- Análisis sobre las implicaciones para sistemas de recuperación de información y modelos de IA conectados a buscadores. (Joshua Thompson)
