女同免费毛片在线播放,免费无码专区毛片高潮喷水,年轻漂亮少妇私密精油按摩保养 ,老师在办公室被躁在线观看,久久婷婷人人澡人爽人人喊

首頁(yè)/ 站長(zhǎng)工具/ {notempty name="current_name"} robots.txt文件生成工具 {notempty name="$current_name"}
robots.txt文件生成工具

robots.txt文件生成工具

在線免費(fèi)robots.txt文件生成工具,可以幫助站長(zhǎng)快速生成標(biāo)準(zhǔn)的robots.txt文件,支持一鍵導(dǎo)出,直接傳到網(wǎng)站根目錄即可。
限制目錄 (每個(gè)目錄必須以/開(kāi)頭)
Sitemap 文件 (留空為無(wú))
檢索間隔 (單位秒)留空為不限
所有搜索引擎
國(guó)內(nèi)搜索引擎
百度爬蟲(chóng)
搜狗爬蟲(chóng)
有道爬蟲(chóng)
SOSO爬蟲(chóng)
頭條爬蟲(chóng)
神馬爬蟲(chóng)
國(guó)外搜索引擎
Google爬蟲(chóng)
Bing爬蟲(chóng)
雅虎爬蟲(chóng)
Ask/Teoma爬蟲(chóng)
Alexa爬蟲(chóng)
MSN爬蟲(chóng)
Scrub The Web爬蟲(chóng)
DMOZ爬蟲(chóng)
GigaBlast爬蟲(chóng)
MJ12 爬蟲(chóng)
Maui 爬蟲(chóng)
BLEX 爬蟲(chóng)
Ahrefs 爬蟲(chóng)
Dot 爬蟲(chóng)
Semrush 爬蟲(chóng)
MegaIndex.ru 爬蟲(chóng)
華為花瓣 爬蟲(chóng)
Zoominfo 爬蟲(chóng)
ExtLinks 爬蟲(chóng)
俄羅斯 爬蟲(chóng)
特殊搜索引擎
Google Image爬蟲(chóng)
Google Mobile爬蟲(chóng)
Yahoo MM爬蟲(chóng)
Yahoo Blogs爬蟲(chóng)
MSN PicSearch爬蟲(chóng)
補(bǔ)充糾錯(cuò)
Robots.txt文件生成工具

在線robots.txt文件生成工具,可以幫助站長(zhǎng)快速生成標(biāo)準(zhǔn)的robots.txt文件,支持一鍵導(dǎo)出,直接傳到網(wǎng)站根目錄即可。

小經(jīng)驗(yàn):強(qiáng)烈建議每個(gè)站根目錄都放置一個(gè)robots.txt的文件,可以直接留空,但一定要放,避免因程序問(wèn)題導(dǎo)致/robots.txt返回其他錯(cuò)誤響應(yīng)內(nèi)容造成不可預(yù)知的結(jié)果,如搜索引擎不收錄等。

Robots協(xié)議(爬蟲(chóng)協(xié)議)是國(guó)際互聯(lián)網(wǎng)界通行的道德規(guī)范,一般是在一個(gè)web站點(diǎn)的根目錄下寫(xiě)的robots.txt文件,用來(lái)告知搜索引擎哪些頁(yè)面能被抓取,哪些頁(yè)面不能被抓取,可以屏蔽一些網(wǎng)站中比較大的文件,如:圖片,音樂(lè),視頻等,節(jié)省服務(wù)器帶寬;可以屏蔽站點(diǎn)的一些死鏈接。方便搜索引擎抓取網(wǎng)站內(nèi)容;設(shè)置網(wǎng)站地圖連接,方便引導(dǎo)蜘蛛爬取頁(yè)面。

robots.txt基本用法

User-agent

User-agent是用來(lái)匹配爬蟲(chóng)的,每個(gè)爬蟲(chóng)都會(huì)有一個(gè)名字,如果你有安裝awstats統(tǒng)計(jì)工具,你就能查看到爬蟲(chóng)的名字,比如百度的爬蟲(chóng)叫BaiDuSpider,Google的爬蟲(chóng)叫Googlebot,*表示所有爬蟲(chóng)。

Disallow

Disallow表示禁止爬蟲(chóng)訪問(wèn)的目錄。Disallow: / 表示攔截整站。

Allow

Allow表示允許爬蟲(chóng)訪問(wèn)的目錄。Allow: / 表示允許整站。

Sitemap

Sitemap用來(lái)指定sitemap的位置。

Crawl-delay

Crawl-delay用來(lái)告訴爬蟲(chóng)兩次訪問(wèn)的間隔,單位是秒。爬蟲(chóng)如果爬得很勤,對(duì)動(dòng)態(tài)網(wǎng)站來(lái)說(shuō),壓力有點(diǎn)大,可能會(huì)導(dǎo)致服務(wù)器負(fù)載增高,用戶訪問(wèn)變慢。

還可以使用通配符

*:匹配任意多個(gè)字符

$:表示URL的結(jié)尾

Robots.txt舉例

不管是Disallow,Allow還是Sitemap,每行只能寫(xiě)一條規(guī)則。

攔截部分文件或目錄

User-agent: *

Disallow: /cgi-bin/

Disallow: /aaa.html

允許爬蟲(chóng)訪問(wèn)所有的目錄,有兩種寫(xiě)法

User-agent: *

Disallow:

User-agent: *

Allow: /

通配符的使用,攔截.gif文件

User-agent: *

Disallow: /*.gif$

攔截帶有?的文件

User-agent: *

Disallow: /*?

Sitemap例子

Sitemap: http://y7159.cn/too/sitemap.xml