Bienvenido al Pulse de la semana: las actualizaciones afectan la forma en que aparecen los enlaces profundos en sus fragmentos, cómo se analiza su archivo robots.txt, cómo funcionan las funciones agentes en la Búsqueda y cómo se aplican las reglas de intercambio de datos de la UE a los chatbots de IA.
Esto es lo que importa para usted y su trabajo.
Google enumera las mejores prácticas para leer más enlaces profundos
Google actualizó su documentación de fragmentos con una nueva sección sobre enlaces profundos «Leer más» en los resultados de búsqueda. La documentación enumera tres mejores prácticas que pueden aumentar la probabilidad de que aparezcan estos enlaces.
Hechos clave: El contenido debe ser inmediatamente visible para un humano al cargar la página, y el contenido oculto detrás de secciones expandibles o interfaces con pestañas puede reducir la probabilidad de que aparezcan estos enlaces. Las secciones deben utilizar títulos H2 o H3. El texto del fragmento debe coincidir con el contenido que aparece en la página, y las páginas con contenido cargado después de desplazarse o interactuar pueden reducir aún más la probabilidad.
Por qué esto importa
Las tres prácticas son la primera guía específica que Google publica sobre esta función. Los sitios que utilizan secciones de preguntas frecuentes ampliables, áreas de detalles de productos con pestañas o contenido activado por desplazamiento para obtener información principal pueden ver menos enlaces profundos en sus fragmentos en comparación con los sitios que muestran el mismo contenido al cargar la página.
La guía coincide con un patrón que Google ha aplicado a otras funciones de búsqueda. Es más probable que el contenido que se muestra sin la interacción del usuario aparezca en visualización mejorada.
Slobodan Manić, fundador de No Hacks, hizo una observación relacionada en LinkedIn:
«La documentación se enmarca en torno al comportamiento de un fragmento (leer más enlaces profundos en los resultados de búsqueda), pero el lenguaje que eligió Google se lee como una preferencia general. ‘Contenido inmediatamente visible para un humano’ es la instrucción estructural, no un consejo para leer más específico».
El punto de Manić amplía su entrevista en mi humilde opinión del 16 de abril con la editora en jefe Shelley Walsh, donde argumentó que la mayoría de los sitios web están estructuralmente rotos para los agentes de IA. Sostiene que los rastreadores de búsqueda y los agentes de inteligencia artificial ahora enfrentan el mismo problema estructural y la auditoría es la misma para ambos.
Para las páginas existentes, la pregunta de auditoría es si la información clave está contenida en un elemento que se puede hacer clic para expandir. Si una página ya tiene un enlace profundo «Leer más» para una sección, la estructura de esa sección sirve como guía sobre lo que funciona. Para otras secciones de la misma página, replicar esa estructura también puede mejorar sus posibilidades.
Google describe la guía como mejores prácticas que pueden «aumentar la probabilidad» de que aparezcan enlaces profundos. Esa cobertura es importante porque no se trata de una lista de requisitos, y cumplir los tres puede no garantizar que aparezcan los enlaces.
Lea nuestra cobertura completa: Google enumera las mejores prácticas para leer más enlaces profundos
Google puede ampliar su lista de reglas no compatibles con Robots.txt
Google puede agregar reglas a su documentación robots.txt basadas en el análisis de datos del mundo real recopilados a través de HTTP Archive. Gary Illyes y Martin Splitt describieron el proyecto en el último podcast de Search Off the Record.
Hechos clave: El equipo de Google analizó las reglas no compatibles con mayor frecuencia en archivos robots.txt en millones de URL indexadas por HTTP Archive. Illyes dijo que el equipo planea documentar las 10 a 15 reglas no compatibles más utilizadas más allá de agente de usuario, permitir, no permitir y mapa del sitio. También dijo que el analizador puede ampliar los errores tipográficos que acepta para no permitir, aunque no se comprometió con un cronograma ni nombró errores tipográficos específicos.
Por qué esto importa
Si Google documenta más directivas no respaldadas, los sitios que utilizan reglas personalizadas o de terceros tendrán una guía más clara sobre lo que Google ignora.
Cualquiera que mantenga un archivo robots.txt con reglas más allá de agente de usuario, permitir, no permitir y mapa del sitio debe realizar una auditoría para detectar directivas que nunca hayan funcionado para Google. Los datos del archivo HTTP se pueden consultar públicamente en BigQuery, por lo que la misma distribución que utilizó Google está disponible para cualquiera que quiera examinarlos.
La tolerancia al error tipográfico es la parte más especulativa. La redacción de Illyes implica que el analizador ya acepta algunos errores ortográficos de «no permitir», y es posible que se respeten más con el tiempo. Revise cualquier variante ortográfica ahora y corríjala, en lugar de asumir que será ignorada.
Lea nuestra cobertura completa: Google puede ampliar la lista de reglas de Robots.txt no compatibles
La UE propone que Google comparta datos de búsqueda con rivales y chatbots de IA
La Comisión Europea envió conclusiones preliminares proponiendo que Google comparta datos de búsqueda con motores de búsqueda rivales en la UE y el EEE, incluidos los chatbots de IA que califican como motores de búsqueda en línea según la DMA. Las medidas aún no son vinculantes, con una consulta pública abierta hasta el 1 de mayo y una decisión final prevista para el 27 de julio.
Hechos clave: La propuesta cubre cuatro categorías de datos compartidos en términos justos, razonables y no discriminatorios. Las categorías son clasificación, consulta, clic y visualización de datos. La elegibilidad se extiende a los proveedores de chatbots de IA que cumplan con la definición de motores de búsqueda en línea de la DMA. Si la Comisión mantiene la elegibilidad hasta la decisión final, los proveedores calificados podrían obtener acceso a datos anonimizados de la Búsqueda de Google según los términos propuestos por la Comisión.
Por qué esto importa
Esta propuesta extiende explícitamente la elegibilidad para compartir datos de motores de búsqueda a los chatbots de IA según la DMA. Si la elegibilidad sobrevive a la consulta, la categoría regulatoria de “motor de búsqueda” ahora incluye productos que la mayoría de los trabajos de marketing de búsqueda han tratado como una categoría separada.
Las consecuencias varían según el lugar donde opere. Para los sitios que se optimizan para la visibilidad de la UE/EEE, el cambio podría ampliar el alcance del flujo de señales de búsqueda anónimas. Los productos de inteligencia artificial que compiten con Google en ese mercado podrían usar los datos para mejorar sus sistemas de recuperación y clasificación, lo que, a su vez, podría afectar el contenido que citan.
Fuera de la UE, el efecto regulatorio directo es nulo. La definición de categoría es un asunto diferente. Es probable que en futuros procedimientos se mencione cómo la Comisión traza la línea entre “chabot de IA” y “chabot de IA que califica como motor de búsqueda”.
La cuestión de la elegibilidad es la historia a seguir hasta el 1 de mayo. Si la Comisión reduce los criterios de los chatbots de IA en respuesta a los comentarios de la consulta, las implicaciones seguirán siendo regulatorias. Si mantiene la línea, eso sentaría un precedente material sobre cómo se clasifica la búsqueda de IA.
Lea nuestra cobertura completa: Es posible que Google tenga que compartir datos de búsqueda con sus rivales
Google agrega nuevas funciones de búsqueda basadas en tareas
Google introdujo nuevas funciones de búsqueda que continúan su evolución hacia la finalización de tareas. Los usuarios ahora pueden rastrear las caídas de precios de hoteles individuales a través de un nuevo interruptor en la Búsqueda, y Google está agregando la capacidad de iniciar agentes de IA directamente desde el Modo AI.
Hechos clave: El seguimiento de precios de hoteles está disponible a nivel mundial a través de un interruptor en la barra de búsqueda. Cuando los precios de un hotel rastreado bajan, Google envía una alerta por correo electrónico. El agente de IA iniciado desde el modo AI permite a los usuarios iniciar tareas manejadas por AI dentro de la interfaz de búsqueda. Rose Yao, líder de productos de Búsqueda de Google, publicó sobre las funciones de X.
Por qué esto importa
Cada función basada en tareas mueve un proceso que comenzó previamente en otro sitio a la propia superficie de Google. El seguimiento de los precios de los hoteles existe desde hace meses a nivel de ciudad. La expansión a hoteles individuales añade una nueva señal que los usuarios pueden establecer dentro de Google en lugar de hacerlo en sitios de hoteles o agregadores.
La visibilidad de las reservas directas depende de estar dentro del ecosistema de Google. Los sitios que dependen de alertas de caída de precios como disparador de retorno para los usuarios pueden ver parte de esa participación reasignada a la interfaz de usuario de seguimiento de Google. Para las marcas de hoteles, esto aumenta las apuestas para garantizar que las páginas individuales de los hoteles estén completamente completas en Google Business Profile y en los feeds de hoteles.
En LinkedIn, Daniel Foley Carter relacionó la función con un patrón más amplio:
«Las descripciones generales de IA de Google, el modo AI y ahora la funcionalidad en marco para SERP + SITE son simplemente Google aprovechando cada vez más las oportunidades de tráfico. Todo lo que Google nos dijo que no lo hiciéramos nosotros mismos. SPAM/CONTENIDO DE BAJO VALOR: no resumas el contenido de otras personas, Google lo hace».
El lanzamiento del agente de IA es más especulativo. Google no ha publicado documentación detallada que explique qué tipo de tareas pueden delegar los usuarios o cómo se citan las fuentes. La función confirma que la búsqueda de agentes, descrita por Sundar Pichai como “búsqueda como administrador de agentes”, aparece de forma incremental en la Búsqueda en lugar de como un lanzamiento único.
Lea la cobertura completa de Roger Montti: Google agrega nuevas funciones de búsqueda basadas en tareas
Tema de la semana: Las reglas se están escribiendo
Cada historia de esta semana explica algo que anteriormente estaba implícito o en marcha.
Google señaló planes para ampliar lo que cubre su documentación robots.txt. La empresa enumeró prácticas específicas que pueden aumentar la probabilidad de que aparezcan enlaces profundos de «Leer más». La Comisión Europea propuso medidas que amplían la elegibilidad para compartir datos de motores de búsqueda a los chatbots de IA según la DMA. Y las funciones basadas en tareas que Sundar Pichai describió en entrevistas se están implementando como botones en la barra de búsqueda.
Para tu día a día, el terreno se vuelve más firme. Menos preguntas son decisiones de juicio. Lo que califica y lo que no, lo que Google admite y lo que cuenta como motor de búsqueda para un regulador se están anotando. Eso funciona a su favor cuando significa criterios de auditoría más claros, y en su contra cuando “no estábamos seguros” ya no es una respuesta defendible.
Historias principales de la semana:
Más recursos:
Imagen destacada: (Fotógrafo)/Shutterstock


