北京網(wǎng)站建設(shè)3分鐘帶你快速了解robot文件
責(zé)任編輯:神州華宇 來源:北京網(wǎng)站建設(shè) 點(diǎn)擊:253 發(fā)表時(shí)間:2019-03-08
假設(shè)您以了解一下名詞含義:搜索引擎,spider(搜索引擎蜘蛛),死鏈接,權(quán)重,網(wǎng)站排名
何為Robots協(xié)議?
Robots協(xié)議是國際互聯(lián)網(wǎng)界通行的道德規(guī)范,基于以下原則建立:
1、搜索技術(shù)應(yīng)服務(wù)于人類,同時(shí)尊重信息提供者的意愿,并維護(hù)其隱私權(quán);
2、網(wǎng)站有義務(wù)保護(hù)其使用者的個(gè)人信息和隱私不被侵犯。
何為robot文件?
robots.txt是限制搜索引擎spider(或稱為蜘蛛)收錄或爬取您網(wǎng)站內(nèi)容的一種文件。搜索引擎蜘蛛在網(wǎng)站中第一個(gè)訪問的文件就是robot文件,當(dāng)然,也可以沒有robot文件,不過spider會(huì)訪問您的網(wǎng)站的所有頁面。
robot文件有何作用?
屏蔽您網(wǎng)站的死鏈接,限制spider爬取您的網(wǎng)站內(nèi)容,保護(hù)您網(wǎng)站的隱私內(nèi)容。例如您的后臺目錄,或者存有您個(gè)人信息的頁面或目錄。
如果您網(wǎng)站的重復(fù)頁面或死鏈接過多,搜索引擎蜘蛛會(huì)認(rèn)為您的網(wǎng)站不行,價(jià)值較低,就會(huì)降低您網(wǎng)站的權(quán)重,網(wǎng)站排名就會(huì)下降,如果創(chuàng)建了robot文件并寫入了相應(yīng)的規(guī)則,那么搜索引擎蜘蛛就不會(huì)爬取您限制的頁面,您網(wǎng)站的權(quán)重與排名也就不會(huì)降低了。
如何構(gòu)建robot文件
robot文件也沒什么特殊的地方,就是一文本文件(txt)。新建一個(gè)文本文件,然后重命名為robots并在此文件中編寫相應(yīng)的規(guī)則,最后上傳到網(wǎng)站跟目錄就行了,注意一定要放置到跟目錄且文件名一定要小寫,不然就失效了。
如何編寫robot文件規(guī)則?
或許您沒有太多的時(shí)間來了解并學(xué)會(huì)robot文件規(guī)則,那么您可以生成robot文件規(guī)則,當(dāng)然,您需要一定的英語基礎(chǔ),并了解特定的名詞。假設(shè)您有時(shí)間來學(xué)習(xí)的話,就往下看下面的規(guī)則。
現(xiàn)假設(shè)一個(gè)robot文件里面規(guī)則有:
User-agent: *
Disallow: /admin/
Disallow: /user/
規(guī)則解讀為:所有的搜索引擎蜘蛛都不允許訪問根目錄的admin目錄與user目錄。
現(xiàn)在你可能就明白了,user-agent:后面輸入的是欲限制搜索引擎蜘蛛的名稱,*為全部限制,baiduspider為限制百度搜索引擎蜘蛛不可以訪問。
disallow:后面追加的是欲限制蜘蛛訪問的目錄名稱。
注意,不管你有多少個(gè)disallow,只要有一個(gè)后面為空或者只有一個(gè)/符號的,就是所以目錄都可以訪問。符號一定是英文符號。
何為Robots協(xié)議?
Robots協(xié)議是國際互聯(lián)網(wǎng)界通行的道德規(guī)范,基于以下原則建立:
1、搜索技術(shù)應(yīng)服務(wù)于人類,同時(shí)尊重信息提供者的意愿,并維護(hù)其隱私權(quán);
2、網(wǎng)站有義務(wù)保護(hù)其使用者的個(gè)人信息和隱私不被侵犯。
何為robot文件?
robots.txt是限制搜索引擎spider(或稱為蜘蛛)收錄或爬取您網(wǎng)站內(nèi)容的一種文件。搜索引擎蜘蛛在網(wǎng)站中第一個(gè)訪問的文件就是robot文件,當(dāng)然,也可以沒有robot文件,不過spider會(huì)訪問您的網(wǎng)站的所有頁面。
robot文件有何作用?
屏蔽您網(wǎng)站的死鏈接,限制spider爬取您的網(wǎng)站內(nèi)容,保護(hù)您網(wǎng)站的隱私內(nèi)容。例如您的后臺目錄,或者存有您個(gè)人信息的頁面或目錄。
如果您網(wǎng)站的重復(fù)頁面或死鏈接過多,搜索引擎蜘蛛會(huì)認(rèn)為您的網(wǎng)站不行,價(jià)值較低,就會(huì)降低您網(wǎng)站的權(quán)重,網(wǎng)站排名就會(huì)下降,如果創(chuàng)建了robot文件并寫入了相應(yīng)的規(guī)則,那么搜索引擎蜘蛛就不會(huì)爬取您限制的頁面,您網(wǎng)站的權(quán)重與排名也就不會(huì)降低了。
如何構(gòu)建robot文件
robot文件也沒什么特殊的地方,就是一文本文件(txt)。新建一個(gè)文本文件,然后重命名為robots并在此文件中編寫相應(yīng)的規(guī)則,最后上傳到網(wǎng)站跟目錄就行了,注意一定要放置到跟目錄且文件名一定要小寫,不然就失效了。
如何編寫robot文件規(guī)則?
或許您沒有太多的時(shí)間來了解并學(xué)會(huì)robot文件規(guī)則,那么您可以生成robot文件規(guī)則,當(dāng)然,您需要一定的英語基礎(chǔ),并了解特定的名詞。假設(shè)您有時(shí)間來學(xué)習(xí)的話,就往下看下面的規(guī)則。
現(xiàn)假設(shè)一個(gè)robot文件里面規(guī)則有:
User-agent: *
Disallow: /admin/
Disallow: /user/
規(guī)則解讀為:所有的搜索引擎蜘蛛都不允許訪問根目錄的admin目錄與user目錄。
現(xiàn)在你可能就明白了,user-agent:后面輸入的是欲限制搜索引擎蜘蛛的名稱,*為全部限制,baiduspider為限制百度搜索引擎蜘蛛不可以訪問。
disallow:后面追加的是欲限制蜘蛛訪問的目錄名稱。
注意,不管你有多少個(gè)disallow,只要有一個(gè)后面為空或者只有一個(gè)/符號的,就是所以目錄都可以訪問。符號一定是英文符號。
robot文件只是一種規(guī)則,并不是強(qiáng)制約束搜索引擎蜘蛛,需要搜索引擎蜘蛛配合才有用,有些spider會(huì)不顧您的robot文件,擅自訪問您的限制頁面。不過,就目前而且,大部分spider是遵守的robots.txt規(guī)則的。
最新文章
- 1你要建一個(gè)網(wǎng)站,到底要花多少錢?定制網(wǎng)站和普通網(wǎng)站的價(jià)格差異!
- 2全方位網(wǎng)站建設(shè)與網(wǎng)站制作構(gòu)建數(shù)字時(shí)代的堅(jiān)實(shí)基石
- 3電子商務(wù)網(wǎng)站建設(shè)一站式打造高效便捷的在線交易平臺
- 4品質(zhì)網(wǎng)站制作與設(shè)計(jì)塑造卓越在線體驗(yàn)的基石
- 5企業(yè)網(wǎng)站制作與維護(hù)構(gòu)建數(shù)字時(shí)代的商業(yè)門戶
- 6創(chuàng)意企業(yè)網(wǎng)站建設(shè)與維護(hù)激發(fā)數(shù)字時(shí)代的無限可能
- 7品質(zhì)網(wǎng)站建設(shè)服務(wù)體驗(yàn)塑造卓越在線形象的關(guān)鍵
- 8定制網(wǎng)站制作創(chuàng)新服務(wù)重塑企業(yè)數(shù)字形象的新篇章
- 9高效網(wǎng)站制作品質(zhì)服務(wù)驅(qū)動(dòng)數(shù)字化轉(zhuǎn)型的加速器
人氣排行
- 1北京網(wǎng)站設(shè)計(jì)中的收費(fèi)資費(fèi)標(biāo)準(zhǔn)和大家分享
- 2制作移動(dòng)端網(wǎng)站步驟國內(nèi)外網(wǎng)站設(shè)計(jì)風(fēng)格
- 3北京網(wǎng)站建設(shè)的特點(diǎn)和優(yōu)勢具體表現(xiàn)你知道哪些呢
- 4企業(yè)開發(fā)建設(shè)網(wǎng)站作用空間怎么選擇
- 5網(wǎng)站建設(shè)重視哪些問題建設(shè)營銷型網(wǎng)站
- 6建設(shè)網(wǎng)站做SEO優(yōu)化多久可以見效
- 7同同(北京)科技有限公司與神州華宇聯(lián)手打造WAP品牌官網(wǎng)
- 8神州華宇助力湯姆之家,攜手北京“湯迷”全線開進(jìn)!
- 9網(wǎng)站空間如何選擇企業(yè)做網(wǎng)站的好處