Los miembros del equipo de Relaciones de Búsqueda de Google recientemente compartieron ideas sobre los estándares web en la búsqueda del podcast de registro.
Martin Splitt y Gary Illyes explicaron cómo se crean estos estándares y por qué importan para SEO. Su conversación revela detalles sobre las decisiones de Google que afectan la forma en que optimizamos los sitios web.
Por qué algunos protocolos web se convierten en estándares, mientras que otros no
Google ha estandarizado formalmente robots.txt a través de la Fuerza de Tarea de Ingeniería de Internet (IETF). Sin embargo, dejaron el protocolo de mapa del sitio como un estándar informal.
Esta diferencia ilustra cómo Google determina qué protocolos requieren estándares oficiales.
Illyes explicado durante el podcast:
«Con robots.txt, hubo un beneficio porque sabíamos que diferentes analizadores tienden a analizar robots.txt archivos de manera diferente … con Sitemap, es como ‘eh’ … es un archivo XML simple, y no hay tanto que pueda salir mal con eso».
Esta declaración de Illyes revela las prioridades de Google. Los protocolos que confunden las plataformas reciben más atención que aquellos que funcionan bien sin estándares formales.
Los beneficios de la estandarización del protocolo para SEO
La estandarización de robots.txt creó varios beneficios claros para SEO:
- Implementación consistente: Los archivos Robots.txt ahora se interpretan de manera más consistente en los motores de búsqueda y los rastreadores.
- Recursos de código abierto: «Nos permitió abrir el código a nuestro analizador robots.
- Más fácil de usar: Según Illyes, la estandarización significa «Hay menos tensión en los propietarios del sitio que intentan descubrir cómo escribir los malditos archivos».
Estos beneficios hacen que el SEO técnico funcione más sencillo y más efectivo, especialmente para los equipos que administran grandes sitios web.
Dentro del proceso de estándares web
El podcast también reveló cómo se crean los estándares web.
Los grupos de estándares, como el IETF, W3C y WhatWG, trabajan a través de procesos abiertos que a menudo tardan años en completarse. Este ritmo lento garantiza la seguridad, el lenguaje claro y la amplia compatibilidad.
Illyes explicó:
«Debes demostrar que en lo que estás trabajando realmente funciona. Hay toneladas de iteración y hace que el proceso sea muy lento, pero por una buena razón».
Ambos ingenieros de Google enfatizaron que cualquiera puede participar en estos procesos de estándares. Esto crea oportunidades para que los profesionales de SEO ayuden a dar forma a los protocolos que usan a diario.
Consideraciones de seguridad en los estándares web
Los estándares también abordan importantes preocupaciones de seguridad. Al desarrollar el estándar robots.txt, Google incluía un límite de 500 kilobytes específicamente para evitar posibles ataques.
Illyes explicó:
«Cuando leo un borrador, miraba cómo explotaría cosas que el estándar está describiendo».
Esto demuestra cómo los estándares establecen límites de seguridad que salvaguardan los sitios web y las herramientas que interactúan con ellos.
Por qué esto importa
Para los profesionales de SEO, estas ideas indican varias estrategias prácticas a considerar:
- Sea preciso al crear directivas robots.txt, ya que Google ha invertido mucho en este protocolo.
- Use los robots de fuente abierta de Google. Txt Parser para verificar su trabajo.
- Sepa que los sitios sitios ofrecen más flexibilidad con menos preocupaciones de análisis.
- Considere unir grupos de estándares web si desea ayudar a dar forma a los protocolos futuros.
A medida que los motores de búsqueda continúan priorizando la calidad técnica, comprender los principios subyacentes detrás de los protocolos web se vuelve cada vez más valioso para lograr el éxito de SEO.
Esta conversación muestra que incluso las especificaciones técnicas simples implican consideraciones complejas sobre la seguridad, la consistencia y la facilidad de uso, todos los factores que afectan directamente el rendimiento de SEO.
Escuche la discusión completa en el video a continuación: