2016-08-27 分類: 做網站
在seo工作中,我們偶爾會遭遇,網站沒有任何原因,排名便開始下降,甚至消失,面對這個問題,很多站長會第一時間認為,它可能是百度算法在調整。而根據以往的SEO實戰(zhàn)案例,我們發(fā)現:導致網站排名下降的原因,并非是多么復雜的算法,也許就是日常工作中的一個小細節(jié)。那么,SEO排名下降,該如何審查網站?創(chuàng)新互聯為大家分享幾點。
做網站基礎性審查?" width="400" height="300" title="SEO排名下降后怎么做網站基礎性審查?" />
1、標題關鍵詞堆徹
對于標題關鍵詞堆徹的問題,為什么舊事重提,這是近期,站長普遍反應,網站排名消失的主要原因,特別是一些站長認為:早前,我的標題一直是這樣的,怎么現在突然出問題。
實際上,搜索算法是不斷在改變的,早在清風算法,就已經強調,禁止在標題堆徹關鍵詞。
而百度針對B2B網站,近期又進行了一波整改。
2、死鏈接檢測
對于站長而言,相信很多人并沒有養(yǎng)成每日審查網站日志的習慣,特別是對于一些中型以上的網站,定期審查百度蜘蛛訪問404狀態(tài)碼,顯得格外重要。
如果網站內部產生大量的死鏈接,那么它會阻斷蜘蛛有效的爬行與統(tǒng)計頁面之間的關系,如果長時間出現這個問題,勢必影響排名。
3、重復URL檢測
如果你經常會使用site:domain這個命令,你偶爾會發(fā)現,相同的文章可能會重復收錄多個URL,它往往是由于網站結構設計沒有標準化的問題,因此,你需要:
① 利用301重定向這部分鏈接。
② 修正網站結構設計,比如:選域的選定,確保URL唯一性。
4、Robots.txt錯誤設置
通常而言,Robots.txt這個文件是被放在網站根目錄,用于百度蜘蛛更好的了解網站哪些頁面是允許抓取與禁止抓取。
但有的時候對于新站長而言,通常他并不是十分清楚這個文件具體規(guī)則的寫法,從而很容易產生錯誤,屏蔽重要的頁面。
為此,當你生成robots.txt文件以后,你需要在百度資源平臺,驗證robots協(xié)議,確保相關目錄與URL是可以被抓取的。
5、頁面加載速度不穩(wěn)定
如果你的服務器頁面加載速度有問題,并且經常性的訪問不到,那么很可能被搜索引擎降低抓取頻率,長時間如此的話,很容易導致相關排名,大幅度下降。
為此,你可能需要做網站打開速度優(yōu)化:
① 減少特定的JS調用,應用到所有頁面。
② 確保網站的特殊字體,在相關服務器可以順利加載,比如:iis下的svg/woff/woff2字體。
③ 提高網站物理加載速度,嘗試開啟服務器緩存,配置MIP,CDN云加速。
④ 定期更新安全防護軟件,提高網站安全級別,盡量減少DDOS的攻擊。
本文題目:SEO排名下降后怎么做網站基礎性審查?
標題路徑:http://redsoil1982.com.cn/news/22968.html
網站建設、網絡推廣公司-創(chuàng)新互聯,是專注品牌與效果的網站制作,網絡營銷seo公司;服務項目有做網站等
聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯
猜你還喜歡下面的內容