久草福利_国产一区二区_久久久精品国产_色性av_av在线电影网站_中文日本在线

虚拟主机被搜索引擎爬虫访问耗费大量流量解决方法

日期:2016/8/3 / 人气:

问题场景:客户使用虚拟主机,网站被搜索引擎爬虫访问耗费大量流量和带宽,如何处理

解决方法:可以通过在站点根目录下创建Robots.txt,Robots.txt文件是网站的一个文件,搜索引擎蜘蛛抓取网站首先就是抓取这个文件,根据里面的内容来决定对网站文件访问的范围。它能够�;の颐堑囊恍┪募槐┞对谒阉饕嬷拢佣行У目刂浦┲氲呐廊÷肪�。

1、首先,先了解一下目前搜索引擎和其对应的User-Agent,如下:

搜索引擎         User-Agent
AltaVista        Scooter
baidu            Baiduspider
Infoseek         Infoseek
Hotbot           Slurp
AOL Search       Slurp
Excite           ArchitextSpider
Google           Googlebot
Goto             Slurp
Lycos            Lycos
MSN              Slurp
Netscape         Googlebot
NorthernLight    Gulliver
WebCrawler       ArchitextSpider
Iwon             Slurp
Fast             Fast
DirectHit        Grabber
Yahoo Web Pages  Googlebot
LooksmartWebPages Slurp
2、Robots.txt样例代码:

例1. 禁止所有搜索引擎访问网站的任何部分
User-agent: *
Disallow: /
例2. 允许所有的搜索引擎访问网站的任何部分
User-agent: *
Disallow:
例3. 仅禁止Baiduspider访问您的网站
User-agent: Baiduspider
Disallow: /
例4. 仅允许Baiduspider访问您的网站
User-agent: Baiduspider
Disallow:
例5. 禁止spider访问特定目录
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /data/
注意事项:1)三个目录要分别写。
2)请注意最后要带斜杠。
3)带斜杠与不带斜杠的区别。
例6. 允许访问特定目录中的部分url
实现a目录下只有b.htm允许访问
User-agent: *
Allow: /a/b.htm
Disallow: /a/

 

作者:朋友圈科技


Go To Top 回顶部
主站蜘蛛池模板: 91视频免费观看网站 | 91亚洲国产成人久久精品麻豆 | 国产网站入口 | 99只有精品| 国产麻豆精品在线观看 | 懂色av色香蕉一区二区蜜桃 | 久久久久国产欧美 | 91视频分类 | 亚洲美女自拍视频 | 久久久久成人免费看a含羞草久色 | 亚洲精彩视频 | 亚洲第一天堂久久 | 国产在线视频一区 | 久久天堂网 | 亚洲精品菠萝久久久久久久 | 亚洲精品在线视频观看 | 亚洲一区二区高潮无套美女 | 91视频免费观看网址 | 中文字幕不卡一区 | 九色视频在线播放 | 97热在线观看| 九九热免费在线视频 | 99久久久国产精品免费无卡顿 | 天堂vs亚洲| 一二三区精品视频 | 国产精品久久网站 | 中国一级毛片在线播放 | 亚洲天堂成人在线视频 | 91视频在线免费看 | 一本久道竹内纱里奈中文字幕 | 亚洲视频免费在线播放 | 成年免费视频 | 91成人看片 | 一本久道竹内纱里奈中文字幕 | 人人爱夜夜爽日日做蜜桃 | 在线观看五码 | 亚洲欧美综合精品久久成人网无毒不卡 | 第一色区 | 国产亚洲天堂 | 久久男人天堂 | 色翁荡息又大又硬又粗又视频图片 |