【被 SEO 行业 OG 大哥 Ted 硬控了 3 个小时,我学到了什么】: 上週在拉斯維加斯參加了一個很小眾的 SEO 峰會,来的全是北美的 SEO 行业大佬,我一直很敬佩的大哥 Ted Kubaitis 也来了,找了个机会我们坐在一起沟通了 3 个小时,他跟了分享了很多不为人知的 SEO 优化的秘密,今天我就用这个推总结分享给大家,大部分的内容比较硬核,可能对 SEO 基礎不深的人来讲不是很容易理解:
-
谷歌的算法无法像人一样理解页面内容的
和大部分人的预期可能不太一样,尽管 AI 能力已经超群,但谷歌的搜索算法仍然无法像人一样理解页面的内容。谷歌主要还是通过把页面上面包含的各种关键词,通过一些算法进行分析理解,来确定页面内容和搜索词之间的相关性。 -
文章的質量和谷歌排名之間並沒有直接的關係。
既然谷歌沒有辦法像人類一樣理解页面的内容,那么,一篇文章写得流畅的程度、精彩的程度,与它是否能够排到前面关系其实也就不大了。当然,这并不是说我们就可以不用考虑文章的质量了。只是在谷歌排名的考量中,文章质量这件事情本身很难量化,因此也不会作为排名的依据。但是,谷歌同时也会考虑用户与当前文章交互的一些指标,以侧面评判这篇文章的内容与用户的预期是否接近。这就包括页面停留时长、跳出率等等相关的指标。 -
不必过于纠结白帽还是黑帽
按照定义来讲,如果你主觀意願上去進行 SEO 优化,那麼就等同於手動參與對谷歌搜索結果的 manipulation。那它本身就不符合谷歌对于白帽标准的定义。大部分所謂白帽的技巧,其實都是谷歌主動分享出來的一些方法,而這些官方的優化方法,大部分都起不了什麼作用。因為他們主要的目的是為了隐藏谷歌算法真正的运作机制和原理。从谷歌的角度来讲,他们当然不希望我们去真正了解谷歌算法的机制。所以很多谷歌官方分享的优化方法,听听就算了,不必过于当真。 -
谷歌一直以来要解决和面对的问题是规模化
從谷歌的角度來講,它每天都需要去爬取收入幾十億、上百億的頁面。这样的行为带来的服务器成本是非常可观的。尤其是在 AI 内容大量盛行之后,谷歌爬虫所需要爬取的页面数量以天为单位在几何级数的增长。那么,如何控制页面爬取收录的成本就成了非常大的一个考量。从 SEO 的角度来讲,如果你的页面的大小越小,读取的速度越快,那么对谷歌来说,它爬取你站点的成本就越低。相应地,谷歌就更愿意来爬取你页面的内容。尤其是对那些动辄几千、上万、上百万页面的站点来讲,有效地进行技术优化非常重要。 -
影响谷歌排名的因素很多,但是 On-Page 的因素影响更大一些
如果 on-page 没有优化好,完全靠站外的信號,虽然排名一样可以提升,但是,所需要投入的成本可能会高很多。ted 建议在优化时,要把超过 80% 的精力放在 On-Page 上面。On-Page 做好了,其他的事情事半功倍。 -
页面是否被收录与它是否会影响排名没有直接的关系。
從外鏈的角度來講,這個外鏈如果沒有被收錄,以往我們都會認為它就沒有權重的傳遞。但实际上,这个说法并不是正确的。谷歌的链接传递主要取决于这个链接的信号是否被加入到 Link Graph 中,而這件事情和外鏈頁面被收錄是兩個不同的系統。所以其实不必过于纠结外链的页面是否被收录,只要链接本身被爬重爬到,那么就等同于有效。 -
谷歌搜索结果 SERP 展示在一天会有多次的变化
你的页面的排名并不是固定的,在不同的时间,通过不同的方式去搜索,都会影响最终页面排名的结果。所以,如果要去做页面排名的分析的话,最好的方式是在不同的时段多次针对同一个关键词进行搜索结果的比较。你可以通过在不同时段 Google 对于你页面排名的情况,横向分析出自己页面上是否存在不同的问题。