从Google搜索控制台(GSC)覆盖报告中的较大导出案例

在2018年,谷歌改变了谷歌搜索控制台中的指数覆盖报告。从以前的版本和地球周围的SEO是一个巨大的改善。随着升级,新覆盖率报告大大扩展了站点所有者的信息量,包括从索引中排除的错误,索引级别和URL。谷歌还开始提供16个月的数据,这与我们以前有过重大的增加。更新真是太棒了,但有一个辉煌的问题:来自覆盖报告的导出能力有限,这是特别艰难的用于媒体到大规模站点。目前,每份报告有一个
一千行限制

A screenshot from Google Search Console for a site with over 250,000 URLs

较小的位点通常可以获得t每个报告的所有数据,但许多大规模站点都很容易吹过每类限制。
例如,具有只有两百页的站点可以轻松导出所有索引页面,通常都是排除的页面按类别。但是有数十万或数百万页的网站通常受到每份报告只有一千行的限制。这可能会妨碍网站所有者在整个站点上完全识别出现问题模式的能力,按类别出口更多URL,然后当然,以及时解决所有这些问题。

谷歌搜索控制台应该每份报告提供更多数据。我将提供特定的案例,其中更多的数据有助于网站所有者,我会为您提供参与的方法(所以我们可以了解整体SE的方式o社区对Google搜索控制台中当前的出口限制感觉)。
实现这一目标,我已经建立了一个轮询(下面嵌入的),在那里可以让您的声音听到。根据SEO,网站所有者等的反馈,也许我们可以说服谷歌以增加Google搜索控制台的覆盖报告的出口能力。

在山景中的网站管理员会议上是一个重要的对话

2019年11月,我很幸运足以参加山景谷歌总部的

谷歌网站管理员会议

。这是一个令人敬畏的为期一天的会议,我们能够从各种陀螺仪中看到他们正在跨越搜索的内容的演示文稿。此外,Google还举行了其中一个产品展览会建立展示他们正在努力的项目的信息亭。

一旦开始,我就扫描了房间的房间里的标题。一个人立即为我而出局……它读了,“谷歌搜索控制台。”所以,当我快速接近立场时,我跑过了几个人。我决心与有关从新的和改进的覆盖报告(甚至API)获得更多数据的人交谈。

我最终与Google搜索控制台产品团队的工程师进行了良好的对话。当他听取我的积分时,我案件获得了更多的数据,同时也反驳了我所说的一些。听到谷歌的观点非常有趣,挑战提供了为什么我们需要更多数据等的实际案例。
我解释道通过第三方工具的爬行网站非常重要和有用,但对于大规模的网站来说,持续爬行大规模网站狩猎问题往往是不可行的。此外,刚刚爬行网站并不提供如何在规模上实际处理
URL。例如,它们被分类为“爬行,而不是索引”软404s,可以为其他URL等规范化。您仍然需要检查那些URL以找出(而且您不能在批量中轻易做到)。

从谷歌搜索控制台报告的覆盖范围和通过Deepcrawl,尖叫青蛙和SitsBulb等流行的工具爬行是一种更好的方法。基本上,谷歌已经拥有数据,所以也许它可以提供更多的数据如此E主人可以获得更强烈的对这些问题的看法。谷歌:覆盖范围用于识别模式与完全(或大)出口

我听到了谷歌搜索控制台产品团队的压倒性原因成员关于报告未提供更大的出口是覆盖报告应该提供

模式

,而不是完全出口数据。我完全得到了,它确实提供了一些模式,但我的观点是谷歌搜索控制台可能是曲面

所有模式

对于更大的复杂网站。在Google搜索控制台上工作的工程师很棒,并听到我出去了,但我没有离开那个对话的感觉,我们会尽快看到一个API ……虽然我希望将来能够看到一个。

这是pa我在网站管理员会议之后共享的推文线程的RT。这个特定的推文是关于一个覆盖API:

关于报表API,我发表了在GSC上工作的工程师。我没有得到我们的感觉,我们很快就会看到一个API。他说GSC对于提供问题模式并没有为每个问题提供每一个URL来说更有价值。我不同意,但这就是我。 🙂

pic.twitter.com/2vjeihooit

– Glenn Gabe(@Glenngabe)
2019年11月8日
SEO Nirvana – 更大的出口或覆盖报告API:
在该谈话之后,并继续在更大规模的网站上工作,我一直贯穿于更多数据更大的数据,更大帮助我的努力(以及我正在帮助的网站所有者)。我无法忍受看到数十岁在各种覆盖范围内,数十万,数十万,甚至数百万个URL仅报告只有一千行。谈论压力的…

  • 那是我在寻找什么?什么可以帮助SEO和网站所有者在更大规模的网站上工作?对此有一个两部分的答案,诚实,我会对任何一个人都满意。
  • 1)覆盖API

  • 这将是令人难以置信的。就像你可以使用

  • 搜索控制台api
  • 现在要从业绩报告中批量导出数据,您可以为覆盖报告(以及按类别)执行此操作。

例如:

需要将分类为“爬行,未索引”的所有URL导出?繁荣,你得到它。
如何导出所有柔软的404s?没问题。哔哔,bop,boop。它们导出。

谷歌忽略rel =常规跨越许多网址并选择不同的规范? Pfft ……它们导出。
想要导出特定目录中索引的所有URL?你的愿望是我的命令!

我得到它,这是一个很大的要求谷歌搜索控制台产品团队,但它会令人难以置信。如果API不容易实现,那么就有第二个选项。Screenshot of Google Search Console showing a site with 100,000 URLs

2)更大的出口(例如,每份报告100K)

虽然这仍然是限制许多更大的限制-Scale网站,每份报告的100k行数据会很大,比仅为一千行。如果站点可以在覆盖报告中每次报告导出100k行,则站点所有者可以基于查看正在分类为特定的更多URL的URL来曲面问题。我认为我说我在谷歌搜索控制台中的大多数人都在较大的网站上工作的大多数人都说。

谁不会在谷歌搜索控制台中看到这一点?

Screenshot of Google Search Console showing a site with 491,000 valid URLs.
  • 案例研究:当更多数据有很大帮助的网站所有者时的实际话语情景 帮助展示较大规模站点进入的局限性,我决定在我个人工作的情况下提供一些案例。它们意味着强调每份报告一千行的点往往不足以在大型和复杂的网站上表面表面曲面。在该网站上可能存在问题,而报告可能只会显示少数这些区域。再一次,只是爬行网站自己没有给你完整的图片(谷歌实际处理这些网址)。需要检查Google Search控制台中的URL,您不能在批量中进行。
  • 在涉及案件后,我提供了一项民意调查,您可以在哪里听到声音。我很想听到较大的SEO社区关于从覆盖报告中获取更多数据的内容。提前感谢您的参与!
  • 索引的URL(两者提交和未提交)

这里最明显的好处是了解当前索引的所有页面(和在某些目录中),这可能对较大的网站有挑战性。这可以帮助网站所有者了解索引哪些特定页面,在该网站的哪些部分等。目前无法真正理解e非常有页面,用于在网站上或目录中索引。

能够看到逐个页面类型或站点部分

    的索引级别

  • 可以帮助网站所有者了解这些页面类型或地区的潜在问题网站。具有更强的索引级别的视图将有助于在这方面。水平。适当的工作,但它仍然不适合大规模站点。例如,这里是 从正在努力努力的大规模网站
  • 目录

目录

大规模重复内容问题。很高兴看到在本节中索引的所有URL,因此他们的开发团队可以轻松挖掘:

  • 超出总数,将分类为“索引的所有URL(但
  • 未提交)在网站地图中提交的所有URL是惊人的。”这些通常可以是网站不知道是可索引的网址,这可能是它们不包含在XML站点地图中的原因。能够批量导出该类别将是惊人的。

  • 此外,这也可以帮助网站所有者弄清楚大规模站点上的规范URL是

  • 不是在站点地图中提交确定他们是。因此,更大的出口可以帮助他们追踪问题,同时还帮助他们在XML站点地图中提交正确的URL。例如,这里是一个网站,我在这里有助于59%的索引页面为“索引” ,未在网站地图中提交。“
侧说:他Re是一篇我写道的帖子,该帖子通过目录涵盖指数来了解“质量索引”级别,

这是SEO的重要主题。

    “爬行,不索引”和“发现,未索引“

  • 这些类别通常可以信号质量问题和/或爬网预算问题。对于网站所有者来说,挖掘这些类别并了解那里的超级重要。
  • 顺便说一下,爬行您自己的网站将

  • 在这里帮助这里,因为您不知道页面是否被分类作为“爬行,不索引,”或“发现,不索引”。您可以使用URL检测工具通过URL在Google Search控制台中在Google搜索控制台中测试它们,但这不会在批量中用。 在挖掘到这两个类别时,我经常在那里找到低质量或薄的内容,或口袋谷歌没有理由的网站。完全导出此数据的能力将是令人难以置信的。 作为最近的示例,客户端具有256k URL,分为“爬出,不索引”,并且它们跨越网站跨越几个类别。报告确实否则涵盖现场的所有模式。导出所有URL是非常有帮助的,所以我的客户端的Dev团队和内容团队可以通过它们来识别关键问题(然后建立一个修复它们的计划)。
  • 和同一客户端结束1M分类为“发现,不索引”。再次,很高兴看到那些网址(或至少更多的网址),并且跨页面类型,以便更好地分析情况。

A screenshot of search console interface coverage report showing that Google ignores user-detected canonical and selects the inspected URL instead

  • 规范化问题
Google搜索控制台中有几个类别在Google选择不同的规范URL时标志。这对网站所有者来说非常重要。例如,“重复,Google选择不同的规范比用户”和“重复,未被选择为规范的提交的URL”。导出所有URL(或更多)的能力并分析每个情况到曲面模式会很大。目前,您只能看到一千个URL,并且无法完全代表一些可能有数百万页索引(或更多)的大规模站点。A screenshot of Google SEarch Console showing a site with over 260,000 pages affected by the Soft 404 error

因为rel = canonical是一个提示,谷歌无论如何都可以选择忽略它和索引URL。当发生这种情况时,许多URL最终可以索引不应该,但网站所有者经常不知道那是继续。这可能导致问题(如在网站所有者认为它们是规范化时,许多较低的质量页面被索引。能够将所有属于这两个类别的URL导出会有所帮助了解谷歌如何处理某些情况。

作为一个例子,我审核了包含大量评论的客户网站,他们是Canonicalized很多站点上的页面,但与

不同

内容

。它们自动假设这些页面不会被索引。由于Google Views rel = canonical作为

提示
,它最终忽略了许多页面中的许多页面。问题是页面薄而较低,质量较低,许多人正在索引。这是一个大网站,而不是所有的网址T页类型正在这种方式处理。因此,能够导出完整列表将是令人难以置信的。



侧说:以下是我写的柱关于这种情况(谷歌忽略rel = canonical在不应该的时候得到了许多页面,它们不应该被索引)。软404s 我知道谷歌搜索控制台有所改善此类别最近,这很好,但对于网站所有者了解软404s居住的位置仍然很重要。对于较大且更复杂的网站,那些可以在网站上以及不同的类别中找到。在批量中导出此数据的能力可以帮助他们追捕这些问题并相应地处理。这也可以帮助有股票缺货或已过期交易或C的网站Ampaigns。对于较大的网站,它们可能不知道这些页面仍然在网站上返回200个代码,探讨爬网预算等。我还在发现这些页面的某些页面被视为软404s的情况通过谷歌,虽然许多其他人实际上是索引。这些页面在会议时没有射击或超过用户期望。例如,客户端有超过261k软404s,直到最近的谷歌搜索控制台更改在1月初推出。能够导出那些软404s有用的有助于。这是一个巨大的网站,使用了几个数据饲料,并且Dev团队往往很难跟踪这样的页面。 加入我寻求更多覆盖范围 Google Searc的一千个行限制H控制台的覆盖范围报告可以非常令人沮丧地处理更大的网站。通过提供API甚至更大的出口,网站所有者能够追踪其站点的更多模式。这可以加快整除这些问题的过程。如果你管理一个较大的网站,你可能也经历了这种挫折感。这就是为什么我想听听较大的SEO社区关于这一点。下面,我嵌入了一个民意调查,这样你就可以让你的声音听到。填写不会需要很长时间,也许,也许,只许可以使用Google与Google分享结果,同时在谷歌搜索控制台的覆盖范围报告中接收更大的出口。如果整体SEO社区不觉得需要从Google搜索控制台的更大的出口“覆盖报告”,我将接受,继续前进,并在可预见的未来留在谷歌搜索控制台中的一千行。 提前谢谢您的参与! [第 本文中表达的意见是客人作者的意见,而不一定是搜索引擎土地。员工作者在这里列出 。