上周五,我们与世界各地的seo分享了一些大新闻:b谷歌正式宣布发布企鹅更新4.0。企鹅现在成为核心谷歌算法的一部分,并实时运行。
在我们看到这些变化将对搜索行业产生什么影响之前,让我们先回顾一下。
2012年4月,全世界第一次听说了企鹅更新。它的主要目的是处理那些为了提高排名而不自然获取链接的网站。谷歌推出这一更新后,影响了大约3.1%的查询,许多网站受到谷歌的处罚,并因此退出了搜索。因此,游戏规则完全改变了,一个全新的链接建设时代开始了。
从谷歌的惩罚中恢复过来总是需要很长时间,9月23日谷歌推出的新版企鹅带来了一些重大变化。“从历史上看,受企鹅影响的网站列表会定期刷新。现在企鹅是实时的,所以变化将会更快地可见,通常在我们重新抓取和重新索引页面后不久就会生效,”Gary Illyes在谷歌网站管理员博客上写道。
让我们回顾一下企鹅4.0的主要特性,看看它们将如何影响SEO专家的工作:
企鹅4.0是在所有国家和语言同时发布的。这意味着所有网站都将受到相同的影响,而不受其位置的影响;规则对每个人都是一样的。
企鹅现在是实时的。这意味着每次谷歌更新关于这个页面和链接到它的页面的信息时,任何页面的排名都会发生变化。因此,你的行为的积极和消极影响都会变得更快。
实时算法允许您更快地从谷歌惩罚中恢复。如果你的网站被处罚了,而你的站长做了很好的改进工作,删除了有害的链接,你很快就会看到积极的结果,就在谷歌重新抓取你网站的页面之后。
从现在开始,企鹅是b谷歌核心算法的一部分,而不是一个单独的过滤器。这就是为什么我们看到了b谷歌关于更新的最后一个官方公告。现在你需要持续监控你的反向链接配置文件。
企鹅正变得更加精细。简单地说,该算法现在专注于有毒链接指向的特定页面,而不是整个网站。这种微小的惩罚更难以跟踪,这就是为什么现在有必要定期审计您网站的所有重要子域名和特定页面。
如何从企鹅4.0中受益?
企鹅如此危险的原因之一是,如果你的网站受到处罚,你永远不会被告知。你只能假设你受到了间接的惩罚,比如自然流量急剧下降,或者你的一些(或全部)关键字(包括品牌关键字)的排名下降。
因为更新后的算法可以让你快速看到自己行动的结果,所以它可能是一把双刃剑。恢复过程变得更快,但惩罚过程也是如此。以下是你可以做的事情来保护你的网站免受意外的排名下降:
不断监控您在serp中的位置。设置定期电子邮件提醒,随时了解职位变动。确保你不仅跟踪你的主页排名的关键字,还跟踪所有重要细分的关键字。Tom Clark建议“比较关键词排名,并调查哪些关键词的排名突然下降了。”
保持你的反向链接配置文件健康和干净。养成习惯,定期检查新的和丢失的反向链接,它们的价值和质量,并处理可疑的。
对整个网站进行深入的反向链接审计。因为新的企鹅采用粒状的方法,对你网站的每个重要子域名和细分进行反向链接审计是必要的(例如,对你网站的每个不同语言版本进行单独的审计)。
在谷歌Search Console中为每个重要的子域或子路径设置属性,并根据需要更新disavow文件。您可以使用SEMrush反向链接审计工具来轻松正确地格式化拒绝文件。
企鹅更新和链接建设的未来
一般来说,企鹅的“实时”功能意味着你可以更快地从惩罚中恢复过来。新的更新允许你进行各种实验,减少错误的成本-只要你有能力和小心。
然而,从理论上讲,这可能会导致精明的seo试图欺骗系统并再次操纵SERP结果-例如,通过人为地获取具体子域名或url的反向链接并观察谷歌对他们实验的反应。我们已经询问了一些专家来分享他们的意见,如果新的企鹅更新将导致新的灰帽优化浪潮。
我怀疑实时的特性会让垃圾邮件发送者很难知道他们是否被Panda, Penguin或其他东西击中。所以我不确定它会使它更容易还是更难。时间会证明一切。
简而言之,没有。我不相信Penguin转向核心算法并“实时”运行会导致更多灰帽优化,原因有两个:
1. 实时并不是瞬时的。
尽管谷歌使用了“实时”的语言,但是在看到新安全链接的结果时仍然会有一段滞后时间。理论上,只有当谷歌同时抓取您的页面和链接到您站点的页面时,才会发生这种情况。
2. 谷歌表示,这一更新使企鹅“更细粒度”。
谷歌用来描述Penguin的粒度特性的确切语言是:“Penguin现在通过根据垃圾邮件信号调整排名来降低垃圾邮件的价值,而不是影响整个站点的排名。”
一些搜索引擎优化者推测,新的企鹅算法可能会简单地忽略垃圾链接,而不是强制执行惩罚性措施。根据b谷歌的声明,企鹅算法对网页的影响要大于对网站的影响。这将在很大程度上击败负面SEO,但也进一步模糊了灰帽子链接的效果,旨在测试和操纵企鹅。
简而言之,我认为要真正衡量和理解操纵链接对企鹅算法的影响将是极其困难的。谷歌随着时间的推移变得越来越好,我相信这个新的更新将继续这一趋势。
我认为有几件事需要关注企鹅的新实现。
谷歌有效地将实验(也许是操纵算法)的权力还给了那些有能力在上面花费时间和资源的人。我认为有两个关键群体可能会以不利于竞争对手和serp总体质量的方式利用这一点。
首先是那些为了深入了解b谷歌核心算法的工作原理而喜欢突破实验极限的人。对于这些人来说,未知的东西现在能够被测试,极限被突破,serp再次受到影响。
也许更令人担忧的是,给恶意运营商真正测试负面SEO效果的能力。虽然b谷歌声明的目标一直是确保企鹅算法不受负面SEO的影响,但最初的迹象并不好。在新的企鹅算法发布后,第一个联系我的客户是一个企业主,他几个月来一直在观察大量的垃圾链接建立到他的网站,在那些相信“谷歌通常非常擅长识别负面SEO”的人的建议下忽略了它们。在发布24小时后,他的网站的可见度受到了重大打击。
虽然我很高兴终于有一个更敏感的企鹅在块上,有很多要注意,因为所有这些动摇。与此同时,我们将继续专注于帮助那些处理手动操作的人,对于他们来说,没有努力工作和对细节的关注就不会有任何改变。
我们每天都能从企鹅中学到越来越多的东西,这真是太棒了。前几天我说也许再也不需要否认了,我是对的!加里昨天证实了这一点。然后他解释说,在接下来的几天里,企鹅之前的处罚(压制)将被取消。这可是个大新闻。
不管怎样,我要等更多的数据进来再说。我仔细分析了许多之前受到影响的领域。我想下个星期将会非常有趣。
虽然现在评价这个消息还为时过早,但有几个有趣的方面:企鹅成为谷歌核心算法的一部分,因此成为一个排名因素。如果这是真的,那就意味着,只要有人试图欺骗谷歌,算法就会立即调整排名。在布鲁斯克莱,我们正在分析这种实际影响,我们将在10月下旬提供更多的数据和分析。
我不认为b谷歌所做的任何事情都能阻止seo寻找欺骗系统的方法!但是,是的,我可以看到企鹅4.0如何成为seo尝试人工链接的优势。自从企鹅4.0发布以来,每个人都在谈论这个问题,但现在说这是不是真的还为时过早。
灰帽seo当然要调整他们的流程,黑帽seo也是如此。这就像在田径运动中使用药物;除非你是超人,否则你知道要赢得比赛,你可能必须人为地提高自己的表现,但如果你被发现,你的职业生涯可能永远结束。更让我担心的是,Penguin 4.0的粒度可能会让负面seo更容易在没有检测的情况下接管一个特定关键字或小众的serp。
否认链接时常犯的5个错误
我已经指出了实时企鹅4.0。定期监控你的反向链接并清除危险链接是绝对必要的。我们分析了在SEMrush反向链接审计工具中创建的30,000个活动,以了解seo如何拒绝链接并识别他们最常见的错误。
我们研究过的21%的否认文件不符合谷歌搜索控制台规则。让我们来看看最常犯的错误:
1)当拒绝来自整个域的链接时,没有在域名前面添加“域”
谷歌只识别以http或domain开头的行。如果您写入www.domain.com,谷歌将忽略这一行,并且不会拒绝它。
正确:domain: mydomain.com
错误:mydomain.com
2)在行首使用引号
同样,谷歌将简单地忽略以http或domain以外的任何内容开头的行。
正确:http://www.domain.com/index.html
错误:“http://www.domain.com/index.html”
3)文件格式不正确
在某些工具中使用不正确的行分隔符可能导致多行数据合并为单行。谷歌将无法正确识别文件并应用拒绝规则。
4)在否认文件中只包含url
有时候,一篇文章的链接可能会出现在网站的其他几个页面上——比如,当月热门文章的页面,按类别分类的帖子等。所以,如果你想确保谷歌不会考虑到你的网站和一个特定网站之间的连接,否认一个特定的URL是不够的。你需要放弃这整个域名。
5)添加注释而不使用“#”
评论你的否认文件不是必须的。但是,如果您决定提供额外的信息,请确保它不会阻止谷歌解析您的文件。
上传disavow文件后,总是检查谷歌正确识别了多少行。如果数字与请求中的行数不匹配,请检查文件是否符合GSC的规则。
我们建议您尽快开始审计您的反向链接配置文件,并习惯定期这样做。