2013-12-19 分類: 網(wǎng)站建設(shè)
如果我們在檢查自己網(wǎng)站的時候,發(fā)現(xiàn)網(wǎng)站出現(xiàn)了異常,比如突然權(quán)重掉了,或者是發(fā)現(xiàn)網(wǎng)站被k了,那么會有什么情況導(dǎo)致的呢?我們可以首先從下面幾個情況開始排查。
一、網(wǎng)站日志分析
從日志中,可以發(fā)現(xiàn)很多的問題,分別如下:
1)、大量5xx錯誤,尤其500錯誤,說明服務(wù)器問題,導(dǎo)致無法提供穩(wěn)定的抓取響應(yīng),需要運維介入解決;
2)、大量4xx錯誤,尤其404錯誤最常見,需要干掉站內(nèi)頁面中存在的死鏈接,屏蔽掉SEO爬蟲發(fā)現(xiàn)404頁面的入口;
3)、大量301循環(huán)跳轉(zhuǎn),會導(dǎo)致SE爬蟲陷入抓取死循環(huán);
4)、抓取頻率、抓取量降低,需要注意服務(wù)器響應(yīng)時間和響應(yīng)速度是否有下降作為切入點;
5)、抓取停留時間變少,尤其相對歷史水平大于30%,并同時存在抓取頁面收錄震蕩,需要改善頁面質(zhì)量。
二、關(guān)鍵詞大量疊加
不了解SEO的人們,往往把網(wǎng)站的標題寫得非常長。在title標簽、keywords標簽、description標簽里,往往堆積著大量的關(guān)鍵詞。也有部分好像了解SEO優(yōu)化的人,喜歡在網(wǎng)頁上(一般是頁腳)毫無理由得擺放良多關(guān)鍵詞。這是網(wǎng)站被封非經(jīng)常見的一個因素。
三、robots.txt寫法是否正確
robots.txt文件用來阻止搜索引擎蜘蛛抓取某些目錄或某些文件,雖然這個功能很有用,但是很容易出錯。如果你的robots.txt文件設(shè)置有問題,搜索引擎蜘蛛就沒辦法抓取你的網(wǎng)站了。正常設(shè)置和有錯的設(shè)置可能差別非常微小,要多次檢查,確保無誤。
當然了,除了以上三點之外,外鏈或者是網(wǎng)站被攻擊也是會導(dǎo)致網(wǎng)站被k,這些都是要根據(jù)具體情況來具體分析的。
文章名稱:網(wǎng)站發(fā)現(xiàn)被k可以怎么排查?
瀏覽路徑:http://jinyejixie.com/news/5051.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)建站、域名注冊、網(wǎng)站維護、電子商務(wù)、網(wǎng)站制作、網(wǎng)站設(shè)計
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容