谷歌SEO外链避坑指南

秦半两发布于 2024年 8月 17日

想必大家平常做SEO的过程中多少会买点外链,毕竟是获取外链最容易的方式。但是其中有好多坑,不知道大伙知不知道?今天就来写一篇文章来帮大家避坑。

一、明显的坑

1、高DA/DR/AS,低流量

单纯看DA没啥用,有一大堆DA很高、但是流量见底的垃圾网站。DA完全可以用一小点钱就可以刷到五六十,所以不要迷信这个值。

2、流量跳楼式下降,趋于见底或是流量上天入地般变动

这种多半是被谷歌惩罚的网站,这种外链百害无一利。

3、域名年龄特短

几个月、甚至一两年域龄的网站,基本不靠谱。多半AI站点,很可能不久就挂掉。

4、backlinks几百W条

域名历史很短的网站,有几十W、几百W条入站外链,基本都是垃圾外链堆起来的。迟早药丸。

二、技术向的坑

有时候可能好不容易遇到几个各项指标还算过得去的网站,这时不要冲动,还需再做个检查。

1. nofollow

这个坑倒是很容易识别,毕竟大部分有点外链知识的人买了外链后都会检查,很容易发现。当然,nofollow要检查两处:

①检查锚文本<a>中是否有nofollow

②检查页面<head>中是否有nofollow —— 这个可能也有挺多人忽略掉。

并不是说nofollow外链一无是处,对我们的整体外链结构健康度还是挺有帮助的;但是,把nofollow当成dofollow来忽悠我们,这是无法接受的。

很多时候,我们检查了nofollow后便觉得ok了,其实不然,还有更多的坑。

2. noindex

如下图,这是在页面<head>中,写给爬虫的标记,表示这个页面不能被收录。当爬虫看到noindex标记时基本不会爬取这个页面,也就不知道我们在这个页面中放了链接,那我们的外链即便是dofollow的,依然是做了也是白做。

noindex
noindex

3. canonical标记的url与当前页不一致

canonical用来告诉搜索引擎当前页与标签内url页面雷同,希望搜索引擎索引指定的页面。当然谷歌实际上不会完全采信这个标签,但是依然可能会对当前页面的收录有影响。

4. 页面主体内容全部由JaveScript提供

见下图。正常我们的文本是包裹在<p>或<div>标签内,假如所有文本都在<script>标签内,谷歌不一定会去执行JS脚本,所以很可能不会被收录。

JS生成页面
JS生成页面

5.robots.txt禁止url路径

这是一个挺隐蔽的点。正规爬虫是会遵循robots协议的,那么当robots文件中禁止爬虫爬取某些url路径,那么谷歌的爬虫压根就不会抓取这些页面的内容。检查路径:xxx.com/robots.txt .

robots-disallow路径
robots disallow路径

三、去哪购买外链?

我一般在 Fiverr 上购买。但是注意识别,上面有大量垃圾外链,之前用脚本跑了一遍人家提供的包含几百条外链的列表,发现基本都是被惩罚的垃圾外链。

不过,按照我这篇文章的辨别方法来筛选外链,并从注册年份比较长、评分比较高的卖家那里购买,就基本没啥问题的。

还需记住一个原则:正常的外链通常一条$50+至几百刀不等;便宜基本没好货。(这里的一条是指购买一篇Guest Post或是在已有文章中插入链接;在这些文章中一般允许我们放1-3条指向我们网站的链接)。

这篇文章对你有帮助吗?
[ 评价次数: 0 ; 满意度: 0/5 ]

欢迎留言