2022-12-29 分類: 網站建設
聲明:本網站由成都網站建設網站編輯原創(chuàng),如果您本文感興趣,敬請保留文章內部鏈接,否則,本站將會以侵權進行處理。
1. 一般來說,谷歌和百度的搜索引擎的蜘蛛都是遵循 robots.txt 給出的規(guī)則來在你的網站上爬行,robots協(xié)議規(guī)定搜索引擎進入你網站的入口就是該網站的 robots.txt文件,但有一個前提是該robots.txt文件必須存在。如果你的網站沒有定義robots.txt文件,那么會是一個什么情況呢?
顯然蜘蛛會被重定向至 404 錯誤頁面,很多seoer的經驗,假設你的網站自定義了 404 頁面,那么蜘蛛會把其視作 robots.txt,所以從這里可以看出,沒有robots.txt文件的網站會給蜘蛛索引網站帶來非常大的困擾,從而影響搜索引擎收錄你的網站頁面內容。
2. robots.txt 第二個好處是可以限止不需要的搜索引掣來你的網站爬行,以緩解服務器的寶貴帶寬資源,如郵件服務器、Erp服務器,這類服務對搜索引擎是沒有任何意義的;比如淘保網站就用robots限止了蜘蛛的爬行。
3. 如果我的網站有些文件是非公開的,那么我可以用robots.txt做說明,不讓搜索引掣來爬行,比如我們網站的后臺管理程序,實際上,一些在運行中產生臨時頁面的網站,假設沒有在robots.txt進行說明,搜索引擎都會去索引那些臨時文件。
4. 如果你的網站內容,有很多很多的頁面,,那么配置 robots.txt 是必須的,原因是很多時候蜘蛛洪水般的訪問會給網站造成巨大的壓力,假設你不用robots來控制,有可能會造成你的網站拒絕訪問。
5.一個網站一般主題是相關的,那么不可避免地會產生很多頁面比較相似的內容,對于搜索引掣來說,頁面相似度太高,它可能會給你處罰,那么利用robots.txt限制某些頁面不補收錄就可以很好地幫你解決這個問題。
robots.txt 的風險及應對辦法:
1. 任何事情有好的一面也有不好的一面,robots.txt 在給網站帶來以上好處的同時也會存在一定的風險:第一就是給那些不懷好意思的攻擊者指明了你網站的目錄結構和私密數據所在的位置,雖然現在我們的服務器安全提高了好多,但任何事情我們都要做到防范于未然。
比如說,我的網站中的私密數據通過這個地址www.cdcxhl.cn/private/index.html# 訪問,在 robots.txt 中的設置我是這么設置的:
User-agent: *
Disallow: /private/
robots.txt文件很明顯地指出了你要隱藏的內容在哪里,在瀏覽器中輸入www.cdcxhl.cn/private/# 便可訪問我們的私密內容。
那么我們要怎么解決這個問題呢?
a.對/private/目錄設置訪問權限,比如密碼保護。
b.將目錄下的默認的主頁面更名為如:123-protect.html,與此同進,再設計一個新的index.html 文件,頁面內容可以寫“不好意思,你沒有權限訪問此頁”。
2. 不小心將robots文件設置錯誤,可能會導致你已經被收錄的數據會被搜索引掣給刪除。如:
User-agent: *
Disallow: /
以上兩行代碼的意思就是不讓任何搜索引擎索的蜘蛛來網站收錄,更多建站資訊請關注創(chuàng)新互聯。
網頁題目:Robots的5個好處和Robots的風險及應對辦法
當前鏈接:http://jinyejixie.com/news29/226279.html
成都網站建設公司_創(chuàng)新互聯,為您提供網站設計、虛擬主機、品牌網站制作、品牌網站建設、自適應網站、軟件開發(fā)
聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯
猜你還喜歡下面的內容