优化推广:SEO常用基础入门词汇大全

优化推广:SEO常用基础入门词汇大全

SEO是一个专有名词,是一个广泛的定义。很多人以为认识了SEO这个词就认识了SEO的全部,其实并不是这样,学习SEO也不能抱着这种心态去学。需要不断的深入挖掘SEO的内在,并用到实践当中去。

资深的SEO工作者往往不会将SEO挂在嘴上,他们往往会通过一些专有的词汇来进行分析并得出结论再进行相应的改进和优化。比如:爬行,索引,收录,排名,Robots文件等。

这些常用的词汇,优化推广都会在接下来的文章种讲到。

爬行

爬行广义上指的是慢慢的向前行走,但是在网络术语当中却并不是这样。爬行一词来源于百度蜘蛛,特指百度蜘蛛通过网站并留下痕迹的过程叫做爬行。

我们曾经在做谷歌搜索引擎的时候会发现,谷歌很容易做收录,那是因为谷歌搜索引擎在爬行并判断方面做的没有百度那么严谨。而百度蜘蛛也会做到快速收录并展示的效果,但是它却不会急于展示出来,而是通过一段事件的审核才会展示在搜索引擎上。

1.确定爬行

确定式爬行是指当你的网站进行更新之后,百度会第一次来你的网站进行爬行,并确定你的网站定位,但是不会立马就展现出来。

2.稳定式爬行

稳定式爬行一般是该网站上线了一段时间,比如半年左右并且成功的渡过了沙盒期。百度蜘蛛此时就会每天来该网站进行爬行,并在第一时间展示和收录该网站的页面。

3.爆发式爬行

这种模式一般会出现百度重新定义算法,对所有网站进行大洗牌。剔除掉那些不符合规则的网站,并将一些高质量的网站给于更好的排名。

4.爬行与抓取

通过词汇我们可以看出,先爬行后抓取。百度蜘蛛在爬行网站的时候,往往会优先判断Robots文件里的内容,哪些文件是禁止抓取的。而这个Robots文件的定义是国际规范标准而定,正所谓无规矩不成方圆,百度也不例外。

义是国际规范标准而定,正所谓无规矩不成方圆,百度也不例外。

5.爬行轨迹

百度蜘蛛爬行的轨迹往往从首页开始,而且会根据首页的链接进行抓取。根据W3C是规则所以网站才出现了,诸如头部,正文,底部三大块。而首页头部的导航部分则会引导百度蜘蛛进行栏目页的抓取,首页的文章列表部分则会引导百度蜘蛛抓取文章页。

为了保证全站的畅通性,于是百度给出了网站内链和锚文本的定义。
 

SEO词汇大全

索引

百度索引是指百度根据百度蜘蛛所爬行的网站,比如通过服务器日志你会发现,百度蜘蛛爬行了网站的多少个页面,那这个爬行的页面就是百度的索引量。

这种数据是看不到的,而且非专业人士也是看不懂的。往往我们更多的是通过百度给出的某个特定的单词来读取多少个页面。比如:site:http://www.xxx.com这个site 的意思百度蜘蛛通过索引之后,并展示出来的页面条数,与索引是不相关的。

1.索引量下降的原因

初级SEO一般会关注收录量,而专业一点的SEO就会知道,如果不是大的变动,网站的页面收录之后就会趋于稳定。所以往往会去观察那些有待放出来的页面,也就是索引量。而有的时候,索引量也会下降,现在来了解一下百度索引量下降的原因。

原因1:配额已满,重新分配。这种情况可以理解为百度大规模的更新,当某个关键词的配额无限接近百度的最大容量的时候,就会进行第二次分配。

解决办法:这种时候,我们需要对网站进行数据整改,更新,研究竞争对手的网站,并再次超越对手。

原因2:更新数据异常,错误的判断网站数据错误。在官方更新的时候出现错误的情况下,叫做蝴蝶效应。

解决办法:这种情况一般是误杀,如果在我们网站没有出现任何碰触百度搜索引擎底线的情况下,我们需要将网站提交给百度,并请求恢复原来的数据。

原因3:地区性数据异常。百度抓取了全国各地的网站,当然也包括了国外的服务器。这种情况下,往往可能由于网络的不稳定,导致网站数据异常。

解决办法:这种情况也是由于地域性的百度蜘蛛导致的,只需要提交给百度处理即可

2.索引量和site的区别

索引量和site的判断依旧,主要是看我们需要对网站进行哪部分的数据分析。如果我们只想判断网站有多少排名,优先使用site然后去查相关的排名。如果我们只想知道有多少页面被百度蜘蛛爬行了,那我们就可以参考索引量了。

3.提高百度索引量的方法

加强网站原创内容

合理的内链搭配

寻找高质量的外链引流

网站静态化

其实百度索引量在SEO当中只是一个入口,我们所有的SEO技术都是通过这个入口,来提高我们的网站在百度心中的地位。

收录

只要是搜索殷勤能够展示的网页,我们统称为收录。但是由于百度占据了中国搜索引擎的半壁江山,所以我们做SEO工作者,更多的是研究如何提高百度的收录。

1.提高收录的方法

对网站内部结构定义清晰,不要随意下载别人的网站页面进行修改。错误的代码,死链,不符合网站定位的Alt标签,这些都会导致网站的收录下降。

更新原创文章,由于百度不断的加强内容的高质量,所以我们要坚持更新原创文章,只有高质量持续性的更新原创文章,才能让收录不断提高,权重和排名也会越来越高。

友情链接,这里千万要记住不要去购买高权重且不相关的友情链接。这种方法被百度视为不正规的牟利渠道,是百度明令禁止的。这种方法不仅会导致收录下降,更严重的直接导致K站。

2.主流搜索引擎提交入口

很多新手站长认为,只要做好了网站,就会慢慢有收录有排名有流量,之后就能挣钱了。其实当一个新站出现的时候,我们首先要做的并不是等收录和更新,而是主动出击,去将自己的网站的首页提交到相应的搜索引擎。而这种方式会让各大搜索引擎收录的更快,下面为大家提供目前市面上三大主流的搜索引擎入口。

3.百度搜索引擎的特点

作为全球最大的中文搜索引擎,我们需要很清楚百度现在的准则,那就是一切以原创为主。百度现在极力打造一个完全原创的互联网中文平台。因为在百度心中,只有原创才是有价值的,只有原创才能留住更多的用户,来打造更高价值的产业链。

排名

网站排名指的是,当用户搜索某个词的时候,搜索引擎会依次将该搜索词权重更高,质量更好的网站展现在搜索引擎的界面。而这些排名靠前的网站,在被点击之后,就会产生相应的信息交流,从而达成客户成交。所以往往网站排名越靠前的网站,利益也相对来说更大。

1.排名规则

一个网站的好坏,权重的高低,直接决定了这个网站的排名。当网站出现诸如关键词堆砌,关键词不明确,多次更改网站关键词等问题的时候,排名是很难上去的。

2.排名方法

作为专业的SEO工作者,曾庆平凭借多年的经验分析出,域名越短,域名越久对网站的优化排名越好。曾经有人拿着一个十二年的老域名去分析网站的数据,被大多数网站SEO工作者比喻为,拿着神器砍野猪。足矣说明,网站域名的好处。

3.排名提高

一个网站想要提高排名需要多个因素来分析,比如:网站的布局,内容的质量,高质量的外链引流,网站空间的稳定性。我们需要从多个角度去分析网站的带来的流量,并针对网站指向的关键词来进行优化。

robots

我们在与人交往的时候,往往会将自己最好的一面展现给对方,避免那些不好的方面给对方留下不好的印象。同样百度为了收录更多有效的页面,SEO也为了展示更多有价值的页面。但是网站的程序是多样化的,不可能每个页面包括数据库都有价值,所以百度给出了一个优先级的txt文件,也就是robots.txt文件。这个robots文件里优先存储的一般都是禁止百度蜘蛛爬行的文件,也就是SEO不希望百度收录该网站的页面。

当百度蜘蛛首次爬行我们网站的时候,会优先爬行根目录下的robots文件,然后根据robots文件里屏蔽的文件夹或者某个文件名,最后跳过这些文件,进行其他目录下页面的爬行以及收录。如果网站下并不存在这个文件,那么百度或许会收录一些不必要的文件,甚至是暴露我们的数据库等,这就会给一些不法分子造成空隙,来通过我们的网站获利。

1.robots.txt所存放的位置

robots.txt文本文件必须存放在站点的根目录下,也就是和首页需要在同级目录下。这样一方面是优先百度查找并进行排除,另一方面是百度蜘蛛没有那个必要去判断robots.txt文件存放在哪个目录下。这样会使得百度蜘蛛爬行了所有网站,然后进行收录等等一切不必要的操作,无疑是加大的了百度蜘蛛的工作量。

注意:百度蜘蛛只能识别小写的robots文件如图1-10所示,而且只能放在站点根目录下。

2.robots.txt常用语句

在一般情况下,我们为了快速建站,都会使用一些网络上的开源程序,而这些开源程序已经研究过百度蜘蛛的模式,会默认在根目录下添加robots.txt文件,并且已经屏蔽了某些文件夹。

以织梦CMS里的robots.txt为例:

User-agent: *?

Disallow: /data/

Disallow: /dede/

Disallow: /images/

Disallow: /include/

Disallow: /plus/

Disallow: /special/

Disallow: /templets/

Disallow: /uploads/

Sitemap: http://www.xxxx.com/sitemap.xml

根据织梦CMS的robots.txt文件我们可以看到,User-agent: *?表示禁止所有SE收录本站。Disallow的意思是禁止抓取,/data/表示数据库,/dede/织梦默认后台登陆地址,/images/图片文件,/include/配置文件,/plus/附加文件,/special/专题目录,/templets/模板静态文件,/uploads/上传文件。最后的Sitemap是网站地图,是告诉百度蜘蛛的运行轨迹。

以上是织梦CMS的robots文件,每个程序都会有对应的robots文件,我们只需要根据不同的开源程序提供的robots文件来进行添加即可。

3.robots在网站中的展现形式

当SEO工作者需要在网站中展现robots文件的时候,可以根据自己的代码知识,或者通过网站程序员的帮助,进行一些必要的代码添加。而常用的代码则是:<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>

META:Html网站中一个最重要的标签,通常可以展现网站的关键词,网站描述等;

NAME=”ROBOTS”:识别所有搜索引擎

CONTENT=”INDEX,FOLLOW”:搜索引擎索引此页,并可以通过网页的链接搜索其他页面。

小结

一个优秀的网站都会存在robots文件,这个文件往往能帮我们规避一些不必要的文件被展现出来。我们做SEO最重要的是展现我们的首页,栏目页,以及最重要的文章页。只有当我们这些页面优化的足够好的时候,我们的网站才算的上是一个好网站。

您可能还会对下面的文章感兴趣: