搜索引擎优化(SEO)就是让搜索引擎更好地理解网站,而不仅仅是希望他们自己解决所有问题。这既是一门艺术也是一门科学,许多技术SEO方面为你的网站排名提供了重要的一部分。
虽然许多算法更新和策略仍然模糊不清,但谷歌确实在谷歌搜索控制台提供了一些性能指标,以了解大型站点的未来搜索引擎可见性。
继续读下去,你会发现我列出的最重要的5个SEO性能指标——以及如何解读它们的信号:
1. 页面下载速度
2. 每天抓取的页面数
3. 站点地图页面vs.索引页面
4. 抓取页面vs.索引页面
5. 结构化数据
1. 页面下载速度
注重用户体验的互联网公司痴迷于速度,b谷歌就是其中之一。许多关于HTML延迟影响的研究表明,延迟会扼杀用户的转换,甚至是长期的。随着更快的设备和互联网连接的广泛使用,用户对延迟的容忍度在此后几年有所下降。
这就是为什么页面下载速度非常重要。谷歌搜索控制台(GSC,以前的谷歌网站管理员工具)表示谷歌机器人抓取页面所需的平均时间。目标必须是保持该值尽可能低,最好始终低于500毫秒。
增加如下图所示的值,会大大超过基准参数,随着时间的推移,可能会减少每天抓取的页面数量。
目前,500毫秒是一个很好的页面速度基准值
2. 每天抓取的页面数
网站越快,就越有可能为Googlebot处理更多的连接。如果平均页面下载速度上升,那么Googlebot在一天内抓取的平均页面量就会下降,因为谷歌试图自动找出抓取有问题网站的安全范围。
这两个值是一个强烈的信号,表明一个网站没有充分发挥其潜力,无论是在b谷歌的自然搜索中,还是在用户中。这两个指标结合在一起,每天花费在下载上的时间不断增加,每天抓取的页面越来越少,几乎总是表明网站的性能问题可能会随着时间的推移影响自然搜索的可见性。为了扭转这些趋势,必须检查和改进基础设施和架构。
谷歌Search Console表示每天抓取的页面数
3. 站点地图页面vs.索引页面
索引页面的数量与提交给GSC的XML Sitemaps中的页面数量之间的显著差异可能表明存在严重的SEO问题。这些问题包括有太多的孤立页面、破碎的内部链接结构、重复的内容或缓慢的页面速度等等。谷歌可能无法抓取和/或索引XML站点地图中列出的所有url的原因有很多。为了从GSC站点地图功能中获得最有用的数据,必须在XML站点地图中提交网站的所有唯一规范,并在可能的情况下将XML站点地图按URL类型划分为几个文件,每个文件独立提交给GSC,这样可以更好地识别网站上出现的差异。
提交页面和索引页面之间越来越大的差异表明了一个严重的问题
4. 抓取页面vs.索引页面
网站性能的另一个重要指标是每天抓取的页面与谷歌索引页面的比率。这个值是一个重要问题的答案:谷歌需要抓取多少个页面来建立索引并对一个页面进行排名?经验表明,对于大型商业场址,10/1的比率是一个合理的值。不幸的是,10到100倍的不利比率并非闻所未闻。
如果确定,这种趋势可能表明网站资源没有得到有效利用,可能是由于结构和内容问题,这可能会对网站在自然搜索中的表现产生负面影响。
简而言之:网站真正的SEO潜力还没有被充分发掘。然而,要更有效地管理网站的爬虫预算,需要的不仅仅是评估GCS数据和潜水日志文件,以确定哪些页面正在被Googlebot抓取。
谷歌会抓取多少页来索引1 ?
5. 结构化数据
站点范围内的结构化数据(如结构化面包屑或组织模式)很少有好的理由减少,除非最近的内容审查活动导致广泛的无索引。将GSC中的结构化数据趋势与通过站点地图提交的页面和实际索引的页面数量进行比较,可以作为站点运行状况指示器。
再一次,显著的偏差可能表明数据结构不一致,或者更糟糕的是,抓取和索引问题阻碍了网站的自然搜索。
随着时间的推移,结构化数据的减少可能表明站点存在健康问题
来自谷歌搜索控制台的所有SEO性能指标都可以让我们了解大型网站在自然搜索方面的表现,它们很少适用于无法提供足够数据来得出任何可操作结论的小型网站。
重要的是要记住,虽然谷歌搜索控制台是一个不可或缺的免费SEO数据源,但它绝不是万无一失的,所提供的数据必须有所保留。偶尔的尖峰,可能表明问题,也可能不表明问题。
b谷歌有时也会遇到问题。同样,季节变化也可能起作用,必须加以考虑。重要的是要记住,对站点进行的任何改进都可能导致新趋势在几周甚至几个月后才显现出来。
上面提到的谷歌SEO性能指标是经过验证的SEO目标之一,任何大型网站都不能忽视,并且可以根据谷歌数据得出可操作的结论。