TA的每日心情 | 难过 昨天 01:25 |
---|
签到天数: 41 天 [LV.5]常住居民I
超级版主
 
- 积分
- 305106
|
如何设置一个SEO标准化结构呢
1、站内目录层次
标准化得站内结构是为了能拥有一个简单的站内结构环境,所以对于目录的层次控制还是有一定的讲究,因为搜索引擎蜘蛛来到后,蜘蛛不一定是每一个目录都会爬行的,所以我们要尽量的把目录减少,而且目录太多给客户的访问页带来不便,因为用户访问后多层次目录是需要多次执行或者点击完成的,所以对于站内目录层次太多来说也给用户的操作带来很大的不便。
2、的正确使用
一个好的站内结构的设置是必不可少的,大家都知道蜘蛛来到我们抓取页面的,有些程序我们可以不用蜘蛛爬行,因为程序蜘蛛爬行后是不会收录的,原因很简单,程序目录里没有价值信息,所以收录几率极小,而且一个的程序被搜索引擎收录了也不是见好事,所以这个时候我们要用控制蜘蛛的爬行位置,本人建议各位在中禁止爬行程序,更多的允许爬行指向目录文件夹,这样蜘蛛可以确保每次收录都是有价值的信息页面。
3、页面代码中不要出现太多非恶意蜘蛛陷阱
非恶意蜘蛛陷阱是每一个都有的,因为有的时候我们就要用一些搜索引擎认为法识别或者危险的东西来完成我们站内设计或者站内结构,所以非恶意蜘蛛陷阱是没有办法控制的,而且大家都感觉搜索引擎对非恶意蜘蛛陷阱的监管机制不是很严所以都放松警惕就没有理会他们,其大家都想错了,在搜索引擎认为一个出现太多危险的或者有嫌疑的程序都是导致降权和被K的原因之一,所以尽量少用非恶意蜘蛛陷阱,有的碰有对非恶意蜘蛛陷阱不是很明白,那我给大家举例说明,比如说是一个搜索引擎蜘蛛法识别的,因为在页面显示是一大串乱码,所以这个时候蜘蛛来到后感觉有危险,所以有可能直接跳出你的,还有JS,大家都知道JS法管理的,因为要想达到一个效果没用JS有的效果是难以现的,所以迫不得已也用JS了,所对于这些非恶意蜘蛛陷阱我们也要相当注意。
4、站内结构清晰分明
一个清晰的站内结构不管是给客户的操作还是蜘蛛的爬行收录都是铺了一条光明大道,让蜘蛛或者用户来到都可以清晰的分辨出那里是哪里,现在有很多的站内结构设置跟迷宫一样,当搜索引擎蜘蛛进入后分不清那里是哪里,站内的页面文件分布的很开,这样以来给蜘蛛的爬行带来很大的难题,这个时候需要我们把的站内结构设置的清晰分明,容易操作容易引导蜘蛛爬行,所以一个清晰的站内结构也很重要。
5、站内目录以拼音字母命
现在又很多SEO朋友感觉自己很聪明,在文件夹取中文,感觉这样搜索引擎可以爬行到给我们带来排,其这个方法是不好用的,也是做用功,而且对于文件路径来说用中文搜索引擎蜘蛛也是法爬行的,就像我们在JS里写上一个连接地址是一个性质的,所以我们做好把站内文件夹都设置成拼音,这样蜘蛛爬行后可以按照拼音的方式匹配关键词,大家不要忘记搜索引擎现在可是有智能分词的功能哦。
6、站内关键词设置不要太过分
有的朋友感觉在做SEO时,在站内页面中出现关键词越多就越容易做排,其这个说法是比较老套的,现在搜索引擎也对SEO有一定的管制限制,所以现在不像以前我们可以在页面狂加关键词就可以做上排的时代了,而且现在对于页面出现太多关键词的页面搜索引擎会视为作弊,有可能你的后被搜索引擎服务器K掉,到时候你的站内和站外收录全部消失,这样就得不偿失了。
7、站内不要大量使用
有的站长觉得自己很聪明,在交换友情链接时总是在后缀加上,禁止传递权重给对方的压面,其对于的使用搜索引擎是有一个原则的,如果说一个页面有太多的那么搜索引擎会感觉该在恶意做排,所以不好意思你的很有可能会被K掉,而且对于站内结构来说出现太多是导致蜘蛛爬行次数少的罪魁祸首,所以在做SEO时候尽量不要用,厚道一些既然交换友情链接就遵循友情链接规则操作吧。
8、站内页面尽量静态化
其页面尽量静态化是大家都知道需要操作的一种,而且对于静态化页面搜索引擎会非常信任,因为静态化的页面是法自动生成限循环或者危险动作的,所以搜索引擎一般对于静态化的考察期和信任期很短,但是如果动态做SEO,由于动态是可以限生成循环的,搜索引擎为了保护蜘蛛,所以对于动态的考察时间延长,并且信任这个需要很长的时间,为了不耽误时间各位大家尽量生成静态,而且也不是说动态做不了SEO,只是考察期比一般的静态页面考察期要延长。
9、站内设置
一个收录的是否好坏不单一看的权重,其更多的是操作,有的朋友会问那么如何能让蜘蛛有个好的站内收录,很简单大家可以自动生成,也就是站点地图,一个全站的站点地图可以有效的帮助蜘蛛看到可以收录的所有页面,所以收录概率会加大,一般来说设置是要生成XML的,当然HTML也是可以的,其他的我们可以不用管,只要生成这两种就可以了,而且我们也要在中写上我们的的地址,这样蜘蛛每次爬行都是会必须看到的。
10、站内服务器的慢
蜘蛛爬行一个时,也好比一个用户来到一样,当然蜘蛛爬行的是代码,对于文字和代码以外的东西搜索引擎是法识别的,但是对于的打开速度慢蜘蛛是非常注重的,如果一个的服务器比较慢,那么给蜘蛛的体验是这个不稳定,而且蜘蛛每天都要完成一天的工作,如果你的长时间不能速打开,蜘蛛可能今天就会放弃你这个站点不进行收录,这样的话你的以后很少会被蜘蛛爬行。 |
|