标签:
IT/科技yahoo |
分类: 网络营销 |
前面我们知道了自己网站的收录情况,如果收录情况不是太好的话,我们就得想办法来提高自己网站的收录率了.一般的有以下一些方法我们会用到:
1 合理设置Robots.txt和robots标签.
Robots.txt是网站的法律文件,搜索引擎在登陆网站后首先会阅读此文件,里面可以限制哪些页面可以访问,哪些不能够访问.一些不想让搜索引擎访问的私有网页或内部使用网页可以设置使其不被蜘蛛程序访问,这样可以节省服务器资源.同样的也要小心设置这个文件,设置错了很多希望被收录的文件又会被蜘蛛程序放弃.
<meta name="robots"
content="noindex,nofollow">标签设置了具体网页是否被收录和爬行.在Robots.txt里面没有被设置的,在网页的标签里面还可以被设置。但是Robots.txt具有优先性。在Robots.txt设置了不被访问的页面,蜘蛛程序根本就不会去访问具体页面。
2
不要有弹出窗口.弹出窗口本来就让人讨厌,更重要的是蜘蛛程序根本就不认识也不能收录.
3
不要下拉菜单.用javascript写出来的下拉菜单固然很漂亮,但是蜘蛛程序是不能读的,那么菜单里面的链接也就不可能被读到了.
4
最好使用静态的URL地址.动态的地址蜘蛛程序识别不了.这个现在最大的问题.几乎所有的商业站点,特别是需要经常维护和有产品展示的地方,必定会用到动态页面.动态URL里面含有那么多的参数,蜘蛛程序是理解不了的.
5
尽量不要设置访问网站的条件.比如一定需要支持COOKie才能阅读,一定要填了表格后才能阅读,一定要下载flash播放器后才能看,一定要支持javascript后才能访问等等之类的.因为我们需要考虑到用户有时候是不支持这些的,虽然大多数用户是支持的.更重要的是蜘蛛程序是读不懂这个的.
如果要一定要用到这些条件的时候,请一定考虑如果用户不支持这个的情况.
6
尽量选择好的网站服务器,速度要快,且不能间断.速度不快,蜘蛛程序也许就没有耐心等下去了.如果服务器给关了,恰好这时候蜘蛛程序来访问,那就麻烦了.所以如果真想做好网站,还是不要用那些免费的东西.
7
不要使用frame标签,这个古老的技术,是蜘蛛程序不能理解的.况且用户的可读性都不好.万幸的是现在大部分网页都没用这个了.
8
做正确的页面.很多时候我们浏览的网页其实是有错误的,只不过IE忽略了这个,他的容忍能力很强(IE下方会显示网页有错误,但仍然正常显示).而蜘蛛程序却没有那么宽容.
9
注意flash内容,蜘蛛程序同样不能读取它.要在flash处加上相应的文字让蜘蛛程序来读.
10
创建站点地图.这个是非常重要的,能让搜索引擎知道你详细链接目录.
具体可参考相应的搜索引擎.
11
交费收录.Yahoo,以及很多购物比较类的搜索引擎都是需要付费的.这些付费的搜索引擎都是可以直接为你带来收入的,所以交些费用也是可以的.
......还有很多,大家知道的请补充.