成人午夜视频全免费观看高清-秋霞福利视频一区二区三区-国产精品久久久久电影小说-亚洲不卡区三一区三区一区

正確使用Robots寫法進行SEO

2024-04-29    分類: 網(wǎng)站建設

在網(wǎng)上看到過一些文章,以前使用robots時都只是簡單的禁止搜索引擎收錄,其實如果你合理正確的使用robots,對網(wǎng)站SEO是有很大幫助的。
robots.txt基本介紹
robots.txt是一個純文本文件,在這個文件中網(wǎng)站管理者可以聲明該網(wǎng)站中不想被robots訪問的部分,或者指定搜索引擎只收錄指定的內容。robots.txt必須放置在一個站點的根目錄下,而且文件名必須全部小寫。
當一個搜索蜘蛛(有的叫搜索機器人)訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt文件,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,那么搜索機器人就沿著鏈接抓取。
robots.txt寫作語法
首先,我們來看一個robots.txt范例的具體內容如下:
#Robots.txtfilefromhttp://www.gxxx.cn
#Allrobotswillspiderthedomain
User-agent:*
Disallow:
以上文本表達的意思是允許所有的搜索機器人訪問www.gxxx.cn站點下的所有文件。
具體語法分析:其中#后面文字為說明信息;User-agent:后面為搜索蜘蛛的名稱,后面如果是*,則泛指所有的搜索蜘蛛;Disallow:后面為不允許訪問的文件目錄。下面,我將列舉一些robots.txt的具體用法:
robots.txt具體用法
1、允許所有的robot訪問
User-agent:*
Disallow:
或者也可以建一個空文件“/robots.txt”file
2、禁止所有搜索引擎訪問網(wǎng)站的任何部分
User-agent:*
Disallow:/
3、禁止所有搜索引擎訪問網(wǎng)站的幾個部分(下例中的aa、bb、cc目錄)
User-agent:*
Disallow:/aa/
Disallow:/bb/
Disallow:/cc/
4、禁止某個搜索引擎的訪問(下例中的BadBot)
User-agent:BadBot
Disallow:/
5、只允許某個搜索引擎的訪問(下例中的Crawler)
User-agent:Crawler
Disallow:
User-agent:*
Disallow:/

分享名稱:正確使用Robots寫法進行SEO
當前鏈接:http://jinyejixie.com/news11/325811.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供全網(wǎng)營銷推廣、網(wǎng)站導航、企業(yè)建站、品牌網(wǎng)站建設、云服務器、手機網(wǎng)站建設

廣告

聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

微信小程序開發(fā)
成安县| 工布江达县| 长兴县| 尚义县| 竹溪县| 增城市| 南木林县| 加查县| 定安县| 渑池县| 明水县| 双柏县| 邵阳市| 盘锦市| 大荔县| 马鞍山市| 大化| 名山县| 栾城县| 新干县| 赤壁市| 宜君县| 台南市| 鄂尔多斯市| 禄丰县| 酒泉市| 喀什市| 太白县| 浑源县| 南开区| 津南区| 哈巴河县| 阿拉善盟| 萝北县| 黔南| 三江| 城固县| 张北县| 钟山县| 天长市| 扶风县|