時間:2011-11-10 點擊: 次 來源:網絡 作者:佚名 - 小 + 大
SEO們經常頭疼的一個問題,沒有收錄、索引就無從談排名。尤其對達到一定規模的網站來說,使網站充 分收錄是個頗令人費神的SEO技術,當頁面達到比如說幾十萬,無論網站架構怎么設計、多么優化,100%收錄都是不可能的,只能盡量提高收錄率。 但有時候怎么阻止搜索引擎收錄也可能成為一個問題,最近越來越成為問題。需要阻止收錄的情況如保密信息、復制內容、廣告鏈接等。過去常用的阻止收錄方法包括密碼保護、把內容放在表格后面、使用JS/Ajax、使用Flash等。今天看到Google網管博客一篇文章,這些方法都不保險。 使用Flash Google幾年前就開始嘗試抓取Flash內容了,簡單文字性內容已經能抓取。Flash里面的鏈接也能被跟蹤。 表格 Google蜘蛛也能填表,也能抓取POST請求頁面。這個早就能從日志中看到。 JS/Ajax 使用JS鏈接一直以來被當作不搜索引擎友好的方法,因此可以阻止蜘蛛爬行,但兩三年前我就看到JS鏈接不能阻止Google蜘蛛抓取,不僅JS中出現的URL會被爬,簡單的JS還能被執行找到更多URL。 前幾天有人發現很多網站使用的Facebook評論插件里的評論被爬、被收錄,插件本身是個AJAX。這是個好消息。我的一個實驗電子商務網站產品 評論功能就因為這個費了不少心思,用Facebook comments插件好處大大的,具體什么好處以后有時間再說,唯一的問題就是評論是AJAX實現的,不能被抓取,而產品評論被收錄是目的之一(產生原創 內容)。我當時想了半天也沒有解決方法,只好先傻傻地既放上Facebook comments插件又打開購物車本身的評論功能。現在好了,Facebook comments里的評論能被收錄,就不用兩套評論功能了。 Robots文件 目前唯一確保內容不被收錄的方法是robots文件禁止。但也有個壞處,會流失權重,雖然內容是不能收錄了,但頁面成了只接受鏈接權重、不流出權重的無底洞。 Nofollow Nofollow并不能保證不被收錄。就算自己網站所有指向頁面的鏈接都加了NF,也不能保證別人網站不給這個頁面弄個鏈接,搜索引擎還是能發現這個頁面。 怎樣使頁面不被收錄是個值得思考的問題,沒意識到嚴重性的童鞋可以想想自己網站上有多少復制內容、低質量內容、各種無搜索價值(但用戶覺得方便、有用所以又不能拿掉)的分類、過濾URL。 |