九九国产视频_亚洲精品国产三级在线观看_很污很黄能把下面看湿的短文_69色视频日韩在线视频

網站避免蜘蛛爬行隱秘文件之robots.txt爬行語法規則

[重要通告]如您遇疑難雜癥,本站支持知識付費業務,掃右邊二維碼加博主微信,可節省您寶貴時間哦!

網站避免蜘蛛爬行隱秘文件之robots.txt爬行語法規則
================================
網站蜘蛛robots.txt爬行語法規則如下哈:
robots.txt語法其實很簡單,robots.txt是一個最簡單的.txt文件,
用以告訴搜索引擎哪些網頁可以收錄,哪些不允許收錄。
那今天本博客就先為大家介紹robots.txt語法基礎知識,
然后再提供幾個經常要用到的robots.txt語法例子給朋友們參考。
robots.txt語法規則
最簡單的 robots.txt 語法使用兩條規則:
  User-Agent: 后面為搜索機器人的名稱,后面如果是*,則泛指所有的搜索機器人
  Disallow: 限制搜索引擎不能訪問網站中的哪些部分,Disallow后可以寫目錄名,文件擴展名,特定的程序文件結構。
robots.txt語法示例
讓所有機器人訪問所有文件(通配符”*”表示所有的意思)
1、攔截所有的機器人訪問網站
User-agent: *
Disallow: /
2、禁止所有機器人訪問特定目錄:
User-agent: *
Disallow: /public/
Disallow: /images/
Disallow: /temp/
Disallow: /include/
3、禁止特定搜索引擎蜘蛛訪問特定目錄(這里我們以百度蜘蛛為例說明)
User-agent: Baiduspider
Disallow: /test/
上面的robots.txt語法示例的意思是禁止百度蜘蛛爬行根目錄下的test目錄
4、僅禁止Baiduspider抓取.jpg格式圖片的robots.txt語法
User-agent: Baiduspider
Disallow: .jpg$
大家在學習robots.txt語法時,可能會感到納悶的是:有那么多搜索引擎,那我不是要知道所有搜索引擎蜘蛛的名字。并不是這樣的,我們只要知道常見的搜索引擎名字就可以了。下面就帶大家來認識幾大個搜索引擎蜘蛛名稱。
1、Google爬蟲名稱: Googlebot
2、百度(Baidu)爬蟲名稱:Baiduspider
3、雅虎(Yahoo)爬蟲名稱:Yahoo Slurp
4、有道(Yodao)蜘蛛名稱:YodaoBot
5、搜狗(sogou)蜘蛛名稱:sogou spider
6、MSN的蜘蛛名稱(微軟最新搜索引擎Bing蜘蛛名也是這個):Msnbot

問題未解決?付費解決問題加Q或微信 2589053300 (即Q號又微信號)右上方掃一掃可加博主微信

所寫所說,是心之所感,思之所悟,行之所得;文當無敷衍,落筆求簡潔。 以所舍,求所獲;有所依,方所成!

支付寶贊助
微信贊助

免責聲明,若由于商用引起版權糾紛,一切責任均由使用者承擔。

您必須遵守我們的協議,如您下載該資源,行為將被視為對《免責聲明》全部內容的認可->聯系老梁投訴資源
LaoLiang.Net部分資源來自互聯網收集,僅供用于學習和交流,請勿用于商業用途。如有侵權、不妥之處,請聯系站長并出示版權證明以便刪除。 敬請諒解! 侵權刪帖/違法舉報/投稿等事物聯系郵箱:service@laoliang.net
意在交流學習,歡迎贊賞評論,如有謬誤,請聯系指正;轉載請注明出處: » 網站避免蜘蛛爬行隱秘文件之robots.txt爬行語法規則

發表回復

本站承接,網站推廣(SEM,SEO);軟件安裝與調試;服務器或網絡推薦及配置;APP開發與維護;網站開發修改及維護; 各財務軟件安裝調試及注冊服務(金蝶,用友,管家婆,速達,星宇等);同時也有客戶管理系統,人力資源,超市POS,醫藥管理等;

立即查看 了解詳情