URL参数会不会影响页面排名?

2019-05-08 10:45:46

  RSS是什么东西?  虚拟机内部错误怎么解决  关键词搜索量评估工具

  URL参数是在域名地址后面添加的特殊代码,这些参数多用于跟踪营销活动,会话ID和语言等,它们通常称为查询字符串。

  例:

  http://www.example.com/products/toys.aspx

  http://www.example.com/products/toys.aspx?category=cars&type=womens&color=blue

  这些URL参数主要应用于使用分面导航模型的电子商务商店,此模型有助于生成URL参数,以帮助用户/访问者关注不同类别的各种项目。但是,分类使搜索引擎的工作变得非常困难。

  URL参数的关键问题

  内容重复

  使用站点过滤器生成URL参数时,存在创建影响页面排名的问题。过滤器仅添加不会为网站带来任何价值的网址,这是因为新类别具有相同的内容,如果您没有及时解决问题,该网站的性能可能会受到影响。

  测试这些过滤器的最佳方法之一是确定每个搜索是否影响每个页面,在上面概述的示例中,搜索引擎会将这两个页面视为重复内容,尽管它们处于不同的类别中。这仍然成为一个巨大的困境,因为搜索引擎机器人无法确定应该将两个页面中的哪一个编入索引。

  关键词同类化

  当网站的各个页面定位相似的关键字时,会发生此问题。在这种情况下,搜索引擎机器人发现很难建立更重要的页面。虽然搜索引擎很少会标记重复问题,但您仍然会遇到大问题,例如:不重要的页面排名优于核心页面。

  避免URL参数陷阱

  虽然某些解决方案可以帮助解决问题而不会影响SEO,实现URL参数时,请始终检查最终副本是否发生显着变化,您应该特别检查元描述和标题。

  以下是您可以实施的主要解决方案来解决此问题。

  利用正确的URL参数工具: URL参数工具为百度机器人提供有关如何使用特定参数处理URL的信息。如果您使用Bing,它会附带一个可以帮助所有不需要的参数的工具。

  使用robots.txt:此文件用于禁止机器人访问内容,网页和帖子。您可以使用该文件来阻止特定的搜索查询参数。请记住,使用robots.txt文件时应格外小心,以避免禁止重要内容。应始终将代码(Disallow:/ *?*)添加到robots.txt文件中以禁止特定的URL或页面。

  规范标签:这些是在搜索引擎中使用的特殊标签,用于指定主要副本并指定搜索引擎应编制索引的标签。写法为:rel = canonical。