Saltar al contenido

cómo solucionar el problema de contenido duplicado de blogger m = 1 m = 0

Nuestros mejores desarrolladores agotaron sus depósitos de café, en su búsqueda diariamente por la respuesta, hasta que Paúl halló el arreglo en GitHub por lo tanto en este momento la compartimos contigo.

Solución:

estoy usando esta consulta inurl:"m=" "site:mydomain.com" para detectar aquellas publicaciones con m=0 y m=1.

Parecería que lo que estamos viendo son simplemente los resultados de un site: búsqueda. Utilizando el site: operador no es una búsqueda de Google “normal” y se ha demostrado que devuelve resultados no canónicos (incluidos redirigido) URL en las SERP. Estas son URL que normalmente no se devuelven en una búsqueda orgánica “normal” (cuando no se utilizan operadores de búsqueda). Se ha demostrado que incluso las URL que son la fuente de redireccionamientos 301 se devuelven para un site: buscar, cuando no son devueltos normalmente. Google sigue rastreando (y procesando) estas URL no canónicas y, a menudo, se reconocen en un site: búsqueda.

Referencia:

  • Cómo enviar URL acortadas a Google para que se incluyan en el índice
  • Pregunta relacionada: Google indexa contenido duplicado a pesar de una etiqueta canónica que apunta a una URL externa. ¿Me arriesgo a una sanción de Google?

Normalmente, un rel="canonical" (que ya ha hecho) es suficiente para resolver tales conflictos con parámetros de consulta y contenido duplicado. Pero tenga en cuenta que no impide necesariamente que las páginas no canónicas se indexado (que se ve al hacer un site: búsqueda), sino de ser devuelto en una búsqueda “normal” de Google.

bloqueado m=0 y m=1 en robots.txt ….

Probablemente no desee bloquear estas URL para que no se rastreen, ya que podría dañar su clasificación en la búsqueda móvil.

Por cierto, ¿qué pasa con Disallow?: /.html, Permitir: /.html$

Aparte: Esto parece “peligroso”. Google no procesa el robots.txt directivas en orden descendente. Se procesan en orden de especificidad (longitud de URL), pero cuando se trata del uso de comodines, el orden es oficialmente “indefinido” (lo que también significa que incluso podría cambiar). los Allow: La directiva también es una extensión del “estándar” y es posible que no sea compatible con todos los motores de búsqueda. Sería mejor ser más explícito. p.ej. Disallow: /*?m=. Pero, como se mencionó, probablemente no debería bloquear estas URL en robots.txt de todos modos.

Consulte también mi respuesta a esta pregunta para obtener más información sobre robots.txt y cómo se procesa:

  • Robots.txt con solo las directivas Disallow y Allow no impide el rastreo de recursos no permitidos

Recuerda algo, que tienes permiso de agregar una reseña si te ayudó.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *