spider(蜘蛛)在訪問一個網(wǎng)站時,會首先會檢查該網(wǎng)站目錄是否有一個文件叫做robots.txt的純文本文件,這個文件用于指定spider(蜘蛛)在你網(wǎng)站是的抓取的范圍.比如派思網(wǎng)絡的robots.txt文件
一、robots txt是干什么用的
robots txt寫法詳解及當心事項
一個網(wǎng)站中有良多個文件,其中包括了后盾過程言件、前臺模板文件、圖片等等。這之中有一些貨色我們是不渴望被百度蜘蛛抓取的,怎么辦呢?搜查過程考 慮到了這一點,蜘蛛在抓取網(wǎng)站版面之前會先拜會網(wǎng)站根目錄下的robots txt文件,萬一此文件存在那么按照robots txt限量的范疇舉行抓 取,萬一不存在,則默感受能夠抓取全體。
二、robots txt在seo中在作用
前一篇文章"度娘疏忽robots txt文件的存在" 中我們能夠看到,百度一個版面抓取的兩個網(wǎng)址,這么會拆開網(wǎng)頁的權重,假定咱們寫好robots txt就能夠遏止這么的情形發(fā)生。robots txt 在seo中在作用即便屏障無須要的版面抓取,為管用版面取得蜘蛛抓取的時機。因為屏障無須要版面抓取從而能夠版面權重,節(jié)儉網(wǎng)絡資源最后我們能夠?qū)⒕W(wǎng)站 輿圖放在里面,方便蜘蛛抓取網(wǎng)頁。
三、哪些文件是能夠用robots txt屏障的
網(wǎng)頁中的模板文件、款式表文件以及后臺的某些文件即便唄搜查引擎抓取了也沒什么作用,反而是浪費網(wǎng)站資源,這類文件能夠屏障萬一網(wǎng)頁中的某些特定版面好像接洽我們、公司內(nèi)部某些無須要公布的照片這些都能夠依據(jù)切實情形舉行屏障。
robots的基本設置: User-agent: *
Disallow: /data/
Disallow: /dede/
Disallow: /images/
Disallow: /include/
Disallow: /plus/
Disallow: /special/
Disallow: /templets/
Disallow: /uploads/
Sitemap: http://jinyejixie.com/sitemap.xml
新聞名稱:robots文件對網(wǎng)站seo優(yōu)化有什么作用?
文章來源:http://jinyejixie.com/news49/254599.html
成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供全網(wǎng)營銷推廣、網(wǎng)站收錄、網(wǎng)站設計公司、網(wǎng)站內(nèi)鏈、網(wǎng)站排名、軟件開發(fā)
廣告
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源:
創(chuàng)新互聯(lián)