Los datos de Web Almanac revelan que los complementos de CMS están estableciendo estándares técnicos de SEO

Fecha:

--Advertisement--spot_img

Si más de la mitad de la web funciona con un sistema de gestión de contenidos, entonces la mayoría de los estándares técnicos de SEO se están configurando positivamente incluso antes de que un SEO comience a trabajar en ellos. Esa es la lente que adopté en el capítulo SEO de Web Almanac 2025 (para mayor claridad, soy coautor del capítulo SEO de Web Almanac 2025 al que se hace referencia en este artículo).

En lugar de preguntar cómo las decisiones de optimización individuales influyen en el rendimiento, quería entender algo más fundamental: qué parte de la base técnica de SEO de la web está determinada por los valores predeterminados del CMS y los ecosistemas que los rodean.

El SEO a menudo se siente intensamente práctico, quizás demasiado. Debatimos la lógica canónica, la implementación de datos estructurados, el control de rastreo y la configuración de metadatos como si cada sitio fuera un proyecto de ingeniería personalizado. Pero cuando más del 50 % de las páginas del conjunto de datos de HTTP Archive se encuentran en plataformas CMS, esas plataformas se convierten en los creadores de estándares invisibles. Sus valores predeterminados, restricciones e implementaciones de funciones definen silenciosamente cómo se ve lo «normal» a escala.

Este artículo explora esa influencia utilizando datos de 2025 Web Almanac y HTTP Archive, específicamente:

  • Cómo se rastrean las tendencias de adopción de CMS con señales técnicas básicas de SEO.
  • Donde los ecosistemas de complementos parecen dar forma a los patrones de implementación.
  • Y cómo se están extendiendo estándares emergentes como llms.txt.

La pregunta no es si el SEO importa. Se trata de si hemos estado subestimando quién establece las bases para la web moderna.

La columna vertebral del diseño web

El capítulo 2025 CMS del Web Almanac marcó un hito con la adopción de CMS; Más del 50% de las páginas están en CMS. En caso de que no esté convencido de la proporción de la web que utilizan los CMS, más del 50% de los 16 millones de sitios web es una cantidad significativa.

Captura de pantalla de Web Almanac, febrero de 2026

Con respecto a qué CMS son los más populares, esto tampoco debe sorprender, pero vale la pena reflexionar sobre cuál tiene el mayor impacto.

Imagen del autor, febrero de 2026.

WordPress sigue siendo, con diferencia, el CMS más utilizado, aunque ha caído marginalmente en los datos de 2024. Shopify, Wix, Squarespace y Joomla están muy por detrás, pero aún tienen un impacto significativo, especialmente Shopify, específicamente en el comercio electrónico.

Funciones de SEO que se envían por defecto en las plataformas CMS

Los valores predeterminados de la plataforma CMS son importantes, esto, creo, es que muchos estándares técnicos básicos de SEO son configuraciones predeterminadas o para la cantidad relativamente pequeña de sitios web que tienen SEO dedicados o personas que al menos construyen o trabajan con las mejores prácticas de SEO.

Cuando hablamos de “mejores prácticas”, para algunos estamos en un terreno un poco inestable, ya que no existe una visión universal y prescriptiva al respecto, pero yo consideraría:

  • URL descriptivas “compatibles con SEO”.
  • Título editable y meta descripción.
  • Mapas de sitio XML.
  • Etiquetas canónicas.
  • Cambio de directiva de meta robots.
  • Datos estructurados: al menos un nivel básico.
  • Edición de robots.txt.

De las principales plataformas CMS, esto es lo que, según ellos mismos, tienen como «predeterminado». Nota: Para algunas plataformas, como Shopify, dirían que son compatibles con SEO (y, para ser honesto, es «suficientemente bueno»), pero muchos SEO argumentarían que no son lo suficientemente amigables para pasar esta prueba. No estoy sopesando esos matices, pero diría que tanto Shopify como esos SEO tienen algunos buenos puntos.

CMS URL compatibles con SEO IU de título y meta descripción mapa del sitio XML Etiquetas canónicas Meta soporte de robots Datos estructurados básicos Robots.txt
WordPress Parcial (depende del tema) Limitado (artículo, publicación en blog) No (se requiere acceso al servidor o complemento)
comprar Limitado Centrado en el producto Limitado (editable mediante robots.txt.liquid, restringido)
wix Guiado Limitado Básico Sí (editable en la interfaz de usuario)
Espacio cuadrado Limitado Básico No (administrado por plataforma, sin control directo de archivos)
flujo web Manual JSON-LD Sí (editable en configuración)
drupal Parcial (núcleo) Mínimo (extensible) Parcial (acceso al módulo o al servidor)
Joomla Parcial Mínimo Parcial (edición de archivos a nivel de servidor)
Fantasma Artículo No (solo nivel de servidor/configuración)
TIPO3 Parcial Mínimo Parcial (basado en configuración o extensión)
LEER  Las mejores agencias de marketing de contenido para nuevas empresas y pequeñas empresas en 2024


Con base en lo anterior, diría que la mayoría de los conceptos básicos de SEO pueden ser cubiertos por la mayoría de los CMS «listos para usar». Si funcionan bien para usted o no puede lograr los exacto configuración que sus circunstancias específicas requieren, son otras dos cuestiones importantes, que no voy a abordar. Sin embargo, a menudo todo se reduce a estos puntos:

  1. Es posible que estas plataformas se utilicen mal.
  2. Es posible que la lógica de negocios que necesita se rompa o no funcione con lo anterior.
  3. Hay muchos Funciones de SEO más avanzadas que no están listas para usar y que son igual de importantes.

Aquí estamos hablando de fundaciones, pero cuando reflexiono sobre lo que se consideraba “predeterminado” hace más de 15 años, se han logrado avances.

Huellas digitales de valores predeterminados en los datos del archivo HTTP

Dado que muchos CMS incluyen estos estándares, ¿se correlacionan estos valores predeterminados de SEO con la adopción de CMS? En muchos sentidos, sí. Exploremos esto en los datos del archivo HTTP.

La adopción de etiquetas canónicas se correlaciona con el CMS

Al combinar los datos de adopción de etiquetas canónicas con (toda) la adopción de CMS durante los últimos cuatro años, podemos ver que tanto para dispositivos móviles como para computadoras de escritorio, las tendencias parecen seguirse bastante de cerca.

Imagen del autor, febrero de 2026.
Imagen del autor, febrero de 2026.

Al ejecutar una correlación simple de Pearson sobre estos elementos, podemos ver esta fuerte correlación aún más clara, con la implementación de etiquetas canónicas y la presencia de URL autocanónicas.

Imagen del autor, febrero de 2026.

Lo que difiere es la correlación móvil de las URL canonicalizadas; eso parece ser una correlación negativa en dispositivos móviles y una correlación más baja (pero aún positiva) en computadoras de escritorio. Una caída en las páginas canonicalizadas está causando en gran medida esta correlación negativa, y las razones detrás de esto podrían ser muchas (y más difíciles de determinar).

Las etiquetas canónicas son un elemento crucial para el SEO técnico; su adopción continua ciertamente también parece seguir el crecimiento en el uso de CMS.

Los tipos de datos de Schema.org se correlacionan con el CMS

Los tipos de Schema.org contra la adopción de CMS muestran tendencias similares, pero en general son menos definitivos. Hay muchos tipos diferentes de Schema.org, pero si comparamos la adopción de CMS con los más comunes para las preocupaciones de SEO, podemos observar un panorama en aumento.

Imagen del autor, febrero de 2026.

Con la excepción del sitio web Schema.org, podemos ver el crecimiento de los CMS y los datos estructurados siguiendo tendencias similares.

Pero debemos tener en cuenta que la adopción de Schema.org es considerablemente menor que la de los CMS en general. Esto podría deberse a que la mayoría de los valores predeterminados de CMS son mucho menos completos con Schema.org. Cuando analicemos ejemplos de CMS específicos (en breve), veremos vínculos mucho más sólidos.

La implementación de Schema.org sigue siendo en su mayor parte intencional, especializada y no tan extendida como podría estar. Si fuera un motor de búsqueda o creara una herramienta de búsqueda de IA, ¿confiaría en la adopción universal de estas al ver datos como estos? Posiblemente no.

Robots.txt

Dado que robots.txt es un archivo único que tiene algunos estándares acordados detrás, su implementación es mucho más simple, por lo que podríamos anticipar niveles de adopción más altos que Schema.org.

La presencia de un archivo robots.txt es bastante importante, principalmente para limitar el rastreo de los motores de búsqueda a áreas específicas del sitio. Estamos empezando a ver una evolución (notamos en el capítulo SEO de Web Almanac de 2025) en la que el archivo robots.txt se utiliza aún más como una pieza de gobernanza, en lugar de simplemente como limpieza. Una señal clave de que estamos usando nuestras herramientas clave de manera diferente en el mundo de la búsqueda de IA.

Pero antes de considerar las implementaciones más avanzadas, ¿qué papel desempeña un CMS a la hora de garantizar que un archivo robots.txt esté presente? Parece que en los últimos cuatro años, las plataformas CMS están generando una cantidad significativa de más archivos robots.txt que ofrecen una respuesta 200:

Imagen del autor, febrero de 2026.

Lo que es más curioso, sin embargo, es cuando se considera el archivo de archivos robots.txt. Las plataformas que no son CMS tienen archivos robots.txt que son significativamente más grandes.

Imagen del autor, febrero de 2026.

¿Por qué podría ser esto? ¿Son más avanzados en plataformas que no son CMS, archivos más largos y reglas más personalizadas? Probablemente en algunos casos, pero nos estamos perdiendo otro impacto de los estándares de un CMS: los archivos robots.txt compatibles (válidos).

LEER  Athletic Brewing hace una jugada para la cerveza no alcohólica esta temporada de fútbol

Muchos archivos robots.txt ofrecen una respuesta 200 válida, pero a menudo no son archivos de texto o redireccionan a páginas 404 o similares. Cuando limitamos esta lista solo a archivos que contienen declaraciones de agente de usuario (como proxy), vemos una historia diferente.

Imagen del autor, febrero de 2026.

Aproximadamente el 14% de los archivos robots.txt publicados en plataformas que no son CMS probablemente ni siquiera sean archivos robots.txt.

Un archivo robots.txt es fácil de configurar, pero es una decisión consciente. Si se olvida o se pasa por alto, simplemente no existirá. Un CMS hace que sea más probable tener un archivo robots.txt y, lo que es más, cuando está implementado, hace que sea más fácil de administrar/mantener, lo cual es clave.

Valores predeterminados específicos de WordPress

Al parecer, las plataformas CMS cubren lo básico, pero las opciones más avanzadas, que aún deben ser predeterminadas, a menudo necesitan herramientas de SEO adicionales para habilitarse.

Interrogar sitios específicos de WordPress con los datos del Archivo HTTP será más fácil ya que obtenemos la muestra más grande, y los datos de Wapalizer brindan una forma confiable de juzgar el impacto de las herramientas de SEO específicas de WordPress.

Desde Web Almanac podemos ver qué herramientas SEO son las más instaladas en los sitios WordPress.

Captura de pantalla de Web Almanac, febrero de 2026

Para cualquiera que trabaje en SEO, esto no resultará sorprendente. Si eres SEO y trabajaste en WordPress, es muy probable que hayas utilizado alguno de los tres principales. Lo que vale la pena considerar en este momento es que, si bien Yoast SEO es, con diferencia, el más frecuente en los datos, se ve en poco más del 15% de los sitios. Incluso el complemento SEO más popular en el CMS más popular sigue teniendo una participación relativamente pequeña.

De estos tres complementos principales, consideremos primero cuáles son las diferencias entre sus «predeterminados». Son similares a algunos de WordPress, pero podemos ver muchas características más avanzadas que vienen de serie.

Capacidad de SEO SEO todo en uno Yoast SEO Clasificar Matemáticas
Control de etiqueta de título Sí (global + por publicación)
Control de meta descripción
Interfaz de usuario de metarobots Sí (índice/sin índice, etc.)
Salida de metarobots predeterminada Índice explícito, seguir Índice explícito, seguir Índice explícito, seguir
Etiquetas canónicas Auto autocanónico Auto autocanónico Auto autocanónico
Anulación canónica (por URL)
Manejo canónico de paginación. Limitado Históricamente obstinado Más configurable
Generación de mapas de sitio XML
Filtrado de URL del mapa del sitio Básico Básico Más granular
Inclusión de URL sin índice en el mapa del sitio Posible por defecto Históricamente posible Configurable
Editor de robots.txt Sí (administrado por complemento)
Comentarios/firmas de robots.txt
Gestión de redirecciones Limitado (gratis)
Marcado de ruta de navegación
Datos estructurados (JSON-LD) Sí (plantillado) Sí (plantillado) Sí (plantillado, amplio)
UI de selección de tipo de esquema Limitado Extenso
Estilo de salida del esquema Específico del complemento Específico del complemento Específico del complemento
Análisis de contenido/puntuación Básico Pesado (legibilidad + SEO) Pesado (puntuación SEO)
Guía de optimización de palabras clave
Múltiples palabras clave de enfoque Pagado Pagado Gratis
Metadatos sociales (OG/Twitter)
Generación de Llms.txt Sí, habilitado de forma predeterminada Sí, habilitación con una sola verificación Sí, habilitación con una sola verificación
Controles de rastreo de IA A través de robots.txt A través de robots.txt A través de robots.txt

Los metadatos editables, datos estructurados, robots.txt, mapas de sitio y, más recientemente, llms.txt son los más notables. Vale la pena señalar que gran parte de la funcionalidad es más «back-end», por lo que no es algo que podamos ver tan fácilmente en los datos del archivo HTTP.

Impacto de los datos estructurados de los complementos de SEO

Podemos ver (arriba) que la implementación de datos estructurados y la adopción de CMS se correlacionan; Lo que es más interesante aquí es entender dónde están los propios impulsores clave.

Ver los datos del archivo HTTP con un segmento simple (complementos de SEO versus sin complementos de SEO), a partir de la puntuación más reciente, muestra un panorama sombrío.

Imagen del autor, febrero de 2026.

Cuando limitamos los @tipos de Schema.org a los más asociados con SEO, queda muy claro que algunos tipos de datos estructurados son empujados en realidad Es difícil usar complementos de SEO. No están completamente ausentes. Es posible que las personas estén usando complementos menos conocidos o codificando sus propias soluciones, pero la facilidad de implementación está implícita en los datos.

LEER  Contenido Decación y actualización Estrategias para mantener la relevancia del sitio

Meta soporte de robots

Otro hallazgo del capítulo SEO Web Almanac 2025 fue que las directivas «seguir» e «indexar» fueron las más frecuentes, aunque son técnicamente redundantes, ya que no tener directivas de metarobots es implícitamente lo mismo.

Captura de pantalla de Web Almanac 2025, febrero de 2026

Dentro del número de capítulos en sí, no profundicé mucho más, pero sabiendo que todos los principales complementos de WordPress para SEO tienen «indexar, seguir» de forma predeterminada, estaba ansioso por ver si podía establecer una conexión más sólida con los datos.

Cuando los complementos de SEO estaban presentes en WordPress, «indexar, seguir» se configuró en más del 75% de las páginas raíz vs.

Imagen del autor, febrero de 2026.

Dada la ubicuidad de los complementos de WordPress y SEO, es probable que esto contribuya en gran medida a esta configuración en particular. Si bien esto es redundante, no está mal, pero es, nuevamente, un ejemplo clave de si uno o más de los complementos principales establecen un estándar de facto como este; realmente da forma a una parte importante de la web.

Profundizando en LLM.txt

Otra área clave de cambio con respecto al Almanaque web 2025 fue la introducción del archivo llms.txt. No es un respaldo explícito del archivo, sino más bien un reconocimiento tácito de que se trata de un dato importante en la era de la búsqueda de IA.

A partir de los datos de 2025, poco más del 2% de los sitios tenían un archivo llms.txt válido y:

  • El 39,6% de los archivos llms.txt están relacionados con All-in-One SEO.
  • El 3,6% de los archivos llms.txt están relacionados con Yoast SEO.

Esto no es necesariamente un acto intencional por parte de todos los involucrados, especialmente porque Rank Math lo habilita de forma predeterminada (no una opción de suscripción como Yoast y All-in-One SEO).

Imagen del autor, febrero de 2026.

Dado que los primeros datos se recopilaron el 25 de julio de 2025, si analizamos los datos mes a mes, podemos ver un mayor crecimiento desde entonces. Es difícil no ver esto como una confianza cada vez mayor en este margen de beneficio O, al menos, que es tan fácil de habilitar que es probable que más personas estén cubriendo sus apuestas.

Conclusión

Los datos de Web Almanac sugieren que el SEO, a nivel macro, se mueve menos debido a los SEO individuales y más porque WordPress, Shopify, Wix o un complemento importante incluye un valor predeterminado.

  • Las etiquetas canónicas se correlacionan con el crecimiento del CMS.
  • La validez de Robots.txt mejora con la gobernanza del CMS.
  • Las directivas redundantes de “indexar, seguir” proliferan porque los complementos las hacen explícitas.
  • Incluso llms.txt ya se está propagando a través de complementos antes de obtener un consenso total.

Esto no disminuye el impacto del SEO; lo reformula. Los profesionales individuales todavía crean ventajas competitivas, especialmente en configuración avanzada, arquitectura, calidad del contenido y lógica empresarial. Pero el estado básico de la web, el piso técnico sobre el que se construye todo lo demás, lo establecen cada vez más los equipos de productos que envían valores predeterminados a millones de sitios.

Quizás deberíamos considerar que si los CMS son la capa de infraestructura del SEO moderno, entonces los creadores de complementos son los creadores de estándares de facto. Despliegan “mejores prácticas” antes de que se conviertan en doctrina

Así es como debería funcionar, pero tampoco me siento del todo cómodo con esto. Normalizan la implementación e incluso crean nuevas convenciones simplemente haciéndolas de costo cero. Las normas que son redundantes tienen la capacidad de perdurar porque pueden hacerlo.

Entonces, la pregunta no es tanto sobre si las plataformas CMS impactan el SEO. Claramente lo hacen. La pregunta más interesante es si nosotros, como SEO, estamos prestando suficiente atención a dónde se originan esos valores predeterminados, cómo evolucionan y qué parte de las “mejores prácticas” de la web son en realidad solo el camino de menor resistencia enviado a escala.

El valor de un SEO no debe interpretarse a través de la cantidad de horas que dedica a discutir etiquetas canónicas, meta robots y reglas de inclusión de mapas de sitios. Esto debería ser estándar y predeterminado. Si desea tener un impacto enorme en el SEO, presione una herramienta existente, cree su propio complemento o genere interés para influir en el cambio en una.

Más recursos:

Seminario web sobre auditoría de IA de CMS para SEO


Imagen de portada: Prostock-studio/Shutterstock

--Advertisement--spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img

Popular

spot_img

Más como esto
Relacionada

Los primeros datos muestran menos dominios en EE. UU.

NewzDash publicó un análisis que compara la visibilidad de...

4 sitios que se recuperaron de la actualización principal de Google...

La actualización principal de diciembre de 2025 tuvo un...

Una guía técnica para prepararse para la UCP de Google

En enero, escribí sobre el nacimiento del comercio de...