處理死連結的時候最好找到死連結自身所處的位置,然後在頁面中手動刪除,這樣比較容易,但是一旦網站上線時間較長,域名使用很久的情況下,雖然也可以使用站長工具查出死連結存在的數量,但是刪除就不是很容易了,會相當困難,所以在建設網站的時候一定要做好防範,杜絕一切死連結的存在,一旦發現,立即刪除。
2.使用robots遮蔽可能的網頁
使用robots遮蔽可能的網頁以及連結,編輯方法也很簡單,只需要在語言中加入Disallow:死連結絕對網址這個語句就可以了,告訴蜘蛛這個網頁無效,禁止抓去網站連結。然後把自己編輯好的語句上傳到網站目錄就可以了。 PS:但是這裡面還存在一個問題,那就是如果網站自身經過改版造成大量死連結的存在,那麼這種方法還有效用嗎?經過親身實踐,發現如果網站改版後,內容以及網站結構層次上必然會有一個較大的變更,這時候單純的使用robots語句對網站頁面進行簡單遮蔽的話效果並不是很明顯,這時候需要利用301重定向,將各種網路請求直接轉換到其他頁面。
3.401錯誤頁面提醒
如果網站上線時間較長,頁面收錄量是十萬級的,使用301重定向方法就顯得有些費時間,如果站長想減輕點負擔,404錯誤頁面或許是一個不錯的選擇,可以透過404錯誤頁面將使用者指引到想要訪問的網站,跳轉時間在8秒左右最宜,然後在頁面中加入大家想要的網址提示,不過最好是使用者自己點選,這樣會降低自動跳轉帶來的使用者反感度。但是404錯誤頁面只是將在無法訪問的情況下出現的提示,個人還是建議大家使用301重定向,將使用者請求直接轉換。
處理死連結的時候最好找到死連結自身所處的位置,然後在頁面中手動刪除,這樣比較容易,但是一旦網站上線時間較長,域名使用很久的情況下,雖然也可以使用站長工具查出死連結存在的數量,但是刪除就不是很容易了,會相當困難,所以在建設網站的時候一定要做好防範,杜絕一切死連結的存在,一旦發現,立即刪除。
2.使用robots遮蔽可能的網頁
使用robots遮蔽可能的網頁以及連結,編輯方法也很簡單,只需要在語言中加入Disallow:死連結絕對網址這個語句就可以了,告訴蜘蛛這個網頁無效,禁止抓去網站連結。然後把自己編輯好的語句上傳到網站目錄就可以了。 PS:但是這裡面還存在一個問題,那就是如果網站自身經過改版造成大量死連結的存在,那麼這種方法還有效用嗎?經過親身實踐,發現如果網站改版後,內容以及網站結構層次上必然會有一個較大的變更,這時候單純的使用robots語句對網站頁面進行簡單遮蔽的話效果並不是很明顯,這時候需要利用301重定向,將各種網路請求直接轉換到其他頁面。
3.401錯誤頁面提醒
如果網站上線時間較長,頁面收錄量是十萬級的,使用301重定向方法就顯得有些費時間,如果站長想減輕點負擔,404錯誤頁面或許是一個不錯的選擇,可以透過404錯誤頁面將使用者指引到想要訪問的網站,跳轉時間在8秒左右最宜,然後在頁面中加入大家想要的網址提示,不過最好是使用者自己點選,這樣會降低自動跳轉帶來的使用者反感度。但是404錯誤頁面只是將在無法訪問的情況下出現的提示,個人還是建議大家使用301重定向,將使用者請求直接轉換。