成人午夜视频全免费观看高清-秋霞福利视频一区二区三区-国产精品久久久久电影小说-亚洲不卡区三一区三区一区

如何利用robots文件來進行SEO優(yōu)化

2015-08-03    分類: 網站建設

robots文件可限制抓取網頁的搜索引擎蜘蛛對您網站的訪問。這些蜘蛛是自動的,它們在訪問任意網站的網頁之前,都會查看是否存在阻止它們訪問特定網頁的robots.txt文件。簡單的說,就是在百度進來抓取的第一時間,告訴百度指數哪些東西是可以看的,哪些東西是不能看的。只有當您的網站中包含您不想讓搜索引擎編入索引的內容時,才需要使用robots.txt文件。Robots協議用來告知搜索引擎哪些頁面能被抓取,哪些頁面不能被抓??;可以屏蔽一些網站中比較大的文件,如:圖片,音樂,視頻等,節(jié)省服務器帶寬;可以屏蔽站點的一些死鏈接。方便搜索引擎抓取網站內容;設置網站地圖連接,方便引導蜘蛛爬取頁面。下面創(chuàng)新互聯就來和大家說說如何利用robots文件來進行seo優(yōu)化。

robots文件寫法

User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符

Disallow: /admin/ 這里定義是禁止爬尋admin目錄下面的目錄

Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄

Disallow: /ABC/ 這里定義是禁止爬尋ABC目錄下面的目錄

Disallow: /cgi-bin/*.htm 禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL。

Disallow: /*?* 禁止訪問網站中所有包含問號 (?) 的網址

Disallow: /.jpg$ 禁止抓取網頁所有的.jpg格式的圖片

Disallow:/ab/adc.html 禁止爬取ab文件夾下面的adc.html文件。

Allow: /cgi-bin/這里定義是允許爬尋cgi-bin目錄下面的目錄

Allow: /tmp 這里定義是允許爬尋tmp的整個目錄

Allow: .htm$ 僅允許訪問以".htm"為后綴的URL。

Allow: .gif$ 允許抓取網頁和gif格式圖片

Sitemap: 網站地圖 告訴爬蟲這個頁面是網站地圖

robots文件用法

例1. 禁止所有搜索引擎訪問網站的任何部分

User-agent: *

Disallow: /

實例分析:淘寶網的 Robots.txt文件

User-agent: Baidu百度蜘蛛

Disallow: /

User-agent: baidu百度蜘蛛

Disallow: /

當前題目:如何利用robots文件來進行SEO優(yōu)化
鏈接URL:http://jinyejixie.com/news32/25782.html

成都網站建設公司_創(chuàng)新互聯,為您提供關鍵詞優(yōu)化、手機網站建設、網站改版定制網站、網站設計、網站策劃

廣告

聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯

綿陽服務器托管
新兴县| 加查县| 唐河县| 泰兴市| 阳高县| 濮阳市| 景德镇市| 信丰县| 金华市| 洪泽县| 龙泉市| 长春市| 富川| 临武县| 瑞安市| 白银市| 门头沟区| 台北市| 鹤壁市| 苏尼特左旗| 昌平区| 长汀县| 江北区| 石狮市| 西林县| 德阳市| 乌拉特前旗| 玉林市| 日喀则市| 乌兰浩特市| 浦县| 板桥市| 革吉县| 延长县| 五华县| 遂平县| 修水县| 宝山区| 香河县| 景宁| 绥宁县|