2023-05-15
大量死鏈對搜索引擎來講,有什么影響?
1、很多站都避免不了存在死鏈接,但死鏈率過高,會影響搜索引擎對網站的評分。
編輯失誤或者程序員大意讓頁面產生了不存在的頁面。
2、網站短暫無法訪問
3、外部鏈接錯誤
用戶或者站長在站外發布了錯誤URL,蜘蛛爬取后產生錯誤頁面;別的網站復制或采集了你們含有錯誤鏈接的頁面;有些垃圾網站自動生成的靜態搜索結果頁。
4、爬蟲提取了不完整的URL
個別爬蟲在提取頁面URL的時候,只提取部分URL或者把正常的URL后面的文字或字符也提取進去了。
5、網站改版
網站改版過程中老頁面直接刪除并沒有301跳轉到對應頁面,或者實行301跳轉后依然部分老頁面無法訪問。
6、管理員刪除頁面
網站管理員刪除被黑、廣告、過時、被灌水頁面導致很多死鏈接。
7、過時或交易完畢頁面
下架商品、過期信息
出現了了上述情況,我們該如何去解決
1、修復錯誤頁面
抓取異常中的很多錯誤頁面是因為程序員大意或者我們程序問題導致的,本應該是正常頁面,因為失誤導致無法訪問,對于此類頁面,第一時間進行修復。
2、提交死鏈接
但必定很多錯誤頁面是本不應該存在的,那么我們要想辦法獲取此類頁面URL,獲取方式主要有三種:
3、在robots中屏蔽抓取
若大量的錯誤URL存在一定的規律,可以在robots文件中寫一個規則禁止蜘蛛抓取此類鏈接,但前提一定要照顧好正常頁面,避免屏蔽規則誤傷正常頁面,比如你的網站全部是靜態URL,那么如果錯誤鏈接中含有?的話,規則寫成Disallow:/*?*,如果錯誤鏈接中有/id...html 的話,規則寫成Disallow:/*...* 。1、在百度站長工具中提交死鏈前,一定要確保提交的死鏈數據不存在活鏈接。一旦存在活鏈,會顯示提交失敗導致無法刪除。
2、由于很多網站程序問題,很多打不開的頁面返回碼并非404,這是一個大問題,比如明明是打不開的頁面返回碼是301、200、500,如果是200的話,會導致網站中出現不同URL獲取相同內容。
3、把所有的錯誤頁面找到后,一定要尋找此類頁面URL相同特征,并且和正常頁面的特征有區分,寫對應規則到robots文件中,禁止蜘蛛抓取,就算你已經在站長工具中提交了死鏈,也建議robots封禁抓取。
4、robots只能解決蜘蛛不再抓取此類頁面,但解決不了已經收錄頁面的快照刪除問題,若你的網站被黑,刪除了被黑頁面,除了robots封禁被黑頁面外,還應該將這些頁面提交死鏈。提交死鏈是刪除被黑頁面快照的最快辦法。
上一篇:五大技巧打造高質量的網站內容
2019-11-22
2019-11-23
2019-11-23
2019-11-23
2019-11-23
2019-11-23
2019-11-26
2019-11-26
2019-11-26
2019-11-26
2019-11-26
2019-11-26
2019-11-26
2019-11-26
2019-11-26
2019-12-23
2024-03-29