2014-11-17 分類: 網站建設
在搜索引擎輸入搜索指令:site:www.cdxwcx.com 搜索結果顯示是:很抱歉,沒有找到與“site:www.cdxwcx.com” 相關的網頁;或者用站長工具查詢,收錄那一欄顯示“0”,如果是曾經被收錄過的網站出現(xiàn)這樣的情況,我們就叫做這個網站被K了。要只是首頁消失,就稱為網站首頁被K。
到目前沒有一個全能的辦法來解決網站被封的問題。所以我們采用排除法來對付這個問題。查看問題出在哪里,制定相應的對策來解決它,讓搜索引擎重新認識,重新收錄。
一、近期網站修改記錄
SEO的每一個重要方案的上線迭代時間點,都需要進行記錄,作為之后對問題的排查和線索發(fā)現(xiàn)的依據(jù),同時建立方案到效果的量化關系,與K站相關的常見幾種問題:
1)、導致錯誤鏈接的修改
2)、影響站內結構的調整
3)、過度優(yōu)化的內部鏈接調整
4)、TDK頻繁調整
5)、JS等代碼實現(xiàn)的橋頁
6)、低質量內容大量鏡像、采集和重復
二、網站日志分析
從日志中,可以發(fā)現(xiàn)很多的問題,分別如下:
1)、大量5xx錯誤,尤其500錯誤,說明服務器問題,導致無法提供穩(wěn)定的抓取響應,需要運維介入解決;
2)、大量4xx錯誤,尤其404錯誤最常見,需要干掉站內頁面中存在的死鏈接,屏蔽掉SE爬蟲發(fā)現(xiàn)404頁面的入口;
3)、大量301循環(huán)跳轉,會導致SE爬蟲陷入抓取死循環(huán);
4)、抓取頻率、抓取量降低,需要注意服務器響應時間和響應速度是否有下降作為切入點;
5)、抓取停留時間變少,尤其相對歷史水平大于30%,并同時存在抓取頁面收錄震蕩,需要改善頁面質量。
三、robots.txt寫法是否正確
robots.txt文件用來阻止搜索引擎蜘蛛抓取某些目錄或某些文件,雖然這個功能很有用,但是很容易出錯。如果你的robots.txt文件設置有問題,搜索引擎蜘蛛就沒辦法抓取你的網站了。正常設置和有錯的設置可能差別非常微小,要多次檢查,確保無誤。
四、關鍵詞大量疊加
不了解SEO的人們,往往把網站的標題寫得非常長。在title標簽、keywords標簽、description標簽里,往往堆積著大量的關鍵詞。也有部分好像了解SEO優(yōu)化的人,喜歡在網頁上(一般是頁腳)毫無理由得擺放良多關鍵詞。這是網站被封非經常見的一個因素。
五、群發(fā)、群建外鏈
我們知道群發(fā)外鏈被發(fā)現(xiàn)的根據(jù)是,同一時間網站突然增加了大量的外鏈,這些外鏈所在的網頁內容基本一致,包括錨文本鏈接和文章內容。群建,除了與群發(fā)一樣的判定尺度外,還有一點是,往往IP段一樣。博客群建假如過多,則可能被當做群發(fā),由于有和群發(fā)類似的特征,防患于未然。一旦被K,沒有解決辦法。
六、外部因素
還有一些外部因素,很容易會被忽略的,如:
1)、被巨量刷某類關鍵詞流量,有違禁詞、動態(tài)頁等多種,并同時伴有外鏈存在,通常禁止掉此類頁面抓取即可 。
2)、被外部鏈接攻擊,通常新站會遭遇,尤其存在動態(tài)頁;
3)、中小站點被鏡像;
4)、被掛馬、注入違法等頁面信息,要定期檢查網站安全性;
網站被降權是每一個站長不愿意看見的,只要在做網站就一定會遇到降權的事情,不管怎樣網站是要做的,流量是需要靠百度的。總結自己以前做站的手法和多數(shù)同行交流,使自己的SEO手法得到提高。不要花大量時間去研究這個垃圾站天天采集,天天群發(fā)外鏈他怎么能靠前,而我的站正常做站為什么不靠前。我是否也要開始做垃圾站? 相信一點你的客戶是賣你產品的人,而不是搜索引擎。研究怎樣靠網站討好你的訪客比去研究垃圾站如何排名靠前靠譜的多。
當前題目:網站首頁被k的六個原因,你可能只知道五個
新聞來源:http://jinyejixie.com/news48/13298.html
成都網站建設公司_創(chuàng)新互聯(lián),為您提供網頁設計公司、電子商務、網站維護、定制網站、網站收錄、App設計
聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內容