为什么Googlebot在某些网站上没有足够的页面

在Google Seo办公时间,Houghout谷歌的John Mueller被问到为什么Google没有足够的网页爬网。询问问题的人解释说,谷歌正在爬行以不足以与大型网站保持步伐的步伐。 John Mueller解释了谷歌可能不会爬行足够的页面。

google爬网预算是什么?目的。

但是由于Web是大谷歌的策略只有索引更高质量的网页,而不是索引低质量的网页。

根据Google的开发人员页面的巨大网站(在数百万网页中):

“”时间和资源谷歌致力于爬行一个网站通常被称为网站的爬网预算。

注意,在您的网站上爬行的所有内容都必须被索引;必须评估,整合和评估每个页面,以确定它是否将在爬行之后索引。

爬网预算由两个主要元素确定:爬网容量限制和爬行需求。“

在下面的情况下阅读

相关:

谷歌SEO 101:网站爬网预算说明

什么决定了Googlebot爬网预算? 这个人询问问题有一个有数百页的网站。但谷歌每天才爬上约2,000个网页,这是一个如此大网站对此来说太慢了。

问这个问题遵循的人下面提出的问题:

“”你有任何其他建议是否有进入当前爬行预算的洞察? 只是因为我觉得我们真的一直在努力改进,但没有看到每天爬行的跳跃。“

谷歌的穆勒问这个人的网站有多大。

这个人提出问题回答:

“我们的网站是数以千计的页面。

我们已经看到了每天约有2,000页甚至爬行有类似于60,000的积压,但尚未索引或爬行页面。“

谷歌的约翰穆勒回答:

”在实践中,我看到了两种主要原因。

在一方面,如果服务r显着慢,这是……响应时间,我认为你也看到了在爬网统计报告中。 那是一个地方……如果我不得不给你一个号码,我会瞄准低于300,400毫秒的东西,平均这样的东西。

因为它允许我们尽可能多地爬网。

它与页面速度不一样事情。

那么……一件事要注意。“

相关:

爬网预算:你需要的一切要了解SEO

现场质量会影响Googlebot爬网预算

谷歌的John Mueller接下来提到了网站质量问题。 差的网站质量可能导致Googlebot履带者不爬网网站。

谷歌的John Mueller解释说:

“”我们不从网站爬行很多的另一个重要原因是因为我们并不相信整体的质量。

所以这是一个尤其是与较新的网站的东西,我看到我们有时会与之奋斗。

我也看到有时候人们说得很好,它在技术上可以创建一个拥有一百万页的网站,因为我们有一个数据库和我们只是在线把它放在网上。

而只是通过这样做,基本上从一天到下一个我们找到了很多这些页面,但我们就像那样,我们不确定这些页面的质量尚未。

我们对爬行和索引它们,直到我们确定质量实际上是好的,我们会更加谨慎。“

影响多少pGooges爬网

还有其他因素可以影响未提及的Google爬网的页面。

例如,托管在共享服务器上的网站可能无法快速服务页面足够谷歌因为可以使用过多的资源的服务器上有其他网站,在该服务器上的其他数千个站点上放慢服务器。

另一个原因可能是服务器正在猛击猛击机器人,导致网站减速。

John Mueller的建议记下服务器服务网页的速度很好。一定要在晚上审理它,因为谷歌这样的许多爬行者将在清晨爬行,因为这通常是爬行的较少的破坏时间,并且存在较少的网站访问在那个时刻的网站上。

引文

阅读Google Developer页面上的大站点的爬网预算:

大网站所有者的管理指南您的爬网预算

广告联系读数以下

观看谷歌的John Mueller回答了Googlebot的问题,而不是爬行足够的网页。
在大约25:46分钟标记查看它: