在线精品99_中国九九盗摄偷拍偷看_91免费版在线观看_91.app_91高清视频在线_99热最新网站

Robots基础知识:网站创建robots.txt注意事项

275次阅读
没有评论

共计 955 个字符,预计需要花费 3 分钟才能阅读完成。

一:robots 基础知识

robots 协议(也称爬虫协议、机器人协议等),“全称是网络爬虫扫除规范“(Robots Exclusion Protocol),网站经过 robots 协议告诉搜索引擎哪些页面能够抓取,哪些页面不能够抓取。

Robot.txt 的效果?

能够让蜘蛛更高效的匍匐网站

能够阻挠蜘蛛匍匐动态页面,从而处理重复录入的问题

能够削减蜘蛛匍匐无效页面,节约服务器带宽

能够屏蔽搜索引擎屏蔽一些隐私页面或许临时页面

怎么创立 robots.txt 文件呢?

右击桌面——新建文本文档——重命名为 robots.txt(一切文件有必要小写)——编写规矩——用 FTP 把文件上 (放到根目录下) 传到空间

创立 robots.txt 需求留意的知识点:

1、有必要是 txt 结束的纯文本文件

2、文件名一切字母有必要是小写

3、文件有必要要放在根目录下

4、文件内的冒号有必要是英文半角状态下

Robots 基础知识_创建 robots.txt 注意事项!

二:robots 参数解说

User-agent

首要效果:用于描绘搜索引擎蜘蛛的姓名

举列:

1、描绘一切蜘蛛

User-agent:*

2、描绘百度蜘蛛

User-agent:BaiduSpider

百度:BaiduSpider

谷歌:Googlebot

搜狗:Sogou web spider

好搜:360Spider

MSN:MSNBot

有道:YoudaoBot

宜搜:EasouSpider

User-agent 技巧:

1、当 robots.txt 不为空的时分,有必要至少有一条 User-adent 记载

2、相同的姓名,只能有一条(例如 User-agent:*),可是不同蜘蛛,能够有多条记载(例如:User-agent:Baiduspider 和 User-agent:Googlebot)。

Disallow

首要效果:用于描绘不答应搜索引擎匍匐和抓取的 URL。

Robots 运用技巧:

1、在 robots.txt 中至少要有一条 Disallow

2、Disallow 记载为空,则表明网站一切页面都答应被抓取。

3、运用 Disallow,每个目录有必要独自分隔声明

4、留意 Disallow:/abc/(abc 目录底下的目录不答应抓取,可是目录底下的 html 答应抓取)和 Disallow:/abc(abc 目录底下的目录跟 html 都不答应被抓取)的差异

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-06-05发表,共计955字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)
主站蜘蛛池模板: 国产福利永久在线视频无毒不卡 | 国产成人拍精品视频网 | 久久午夜宅男免费网站 | 香蕉猫咪视频在线播放 | 国产精品激情综合久久 | 日韩欧美一二区 | 亚洲欧美乱综合图片区小说区 | 日本一级特黄毛片免费视频9 | 亚洲精品一区二区在线播放 | 人人妻人人澡人人爽欧美二区 | 蜜桃日本一道无卡不码高清 | 欧美a级情欲片在线观看免费 | 亚洲国产精品无码久久一线 | 美女黄网| 午夜精品一区二区三区免费视频 | 久久亚洲一区二区三区四区 | 久久综合久久美利坚合众国 | 日韩一区精品视频一区二区 | 久久综合视频网站 | 亚洲国产一级a毛片 | 女人扒开腿让男人捅啪啪 | 国产一级爱c片免费播放 | 疯狂做受xxxx高潮不断 | 欧美成电影综合网站色www | 国产欧美日韩图片一区二区 | 国产精品短视频 | 亚洲国产欧美国产第一区二区三区 | 四虎影视必出精品 | 人妻av一区二区三区精品 | a毛片毛费观看 | 久久久久久久久久久国产 | 97se亚洲国产综合在线 | 99在线免费观看 | 欲妇荡岳丰满少妇岳 | 日本久久久久久久久久 | 天天操夜夜逼 | 九九热精 | 美女被免费网站视频九色 | 亚洲人成无码www久久久 | 成人午夜大片免费视频77777 | 自拍 另类 综合 欧美小说 |