-
1 # 嗨動之星
-
2 # 機器人迷
大家好,我是機器人租賃,個人網站如果想讓搜尋引擎收錄,主要有一下兩點, 其一:網站標題、網站描述以及網站關鍵詞這三個是首頁最重要的地方,如果這三個地方沒有佈局完好,那麼對於搜尋引擎來說你的網站很難有價值能進入排名! 其二:一個網站能不能深受搜尋引擎的喜愛還有一個重要的影響因素就是網站內容,往往一篇優越的文章都可以影響一個乃至一個網際網路都非常之久,所以優質原創文章是不可缺失的一部分。 大家好,感覺分析怎樣,歡迎大家評論!
-
3 # IT架構師友凡
網站被收錄是非常簡單的事情,你要能持續提供優質的內容。
所謂優質內容,指你網站有的別人網站沒有,別人網站有的你也有。
研究同行網站,看下百度、360、搜狗等排名前十的網站排名和關鍵詞,將這些網站的排名詞全部收集整理,看哪些競爭比較小優先做排名。冷門詞先做。
冷門詞排名積累多了,你的網站權重就會越高。網站權重越高,網頁被收錄相對快,只有網頁被收錄了才會有排名。
做網站是個長期工程,跟滾雪球原理一樣,萬事開頭難。建議從實踐中發現規律,再去不斷最佳化實操過程,多參考優質網站。
-
4 # 草原上的小五砸
首先自己找到各大搜索引擎的收錄入口錄入你網站域名等相關資訊做手動收錄,稽核時間有幾天的有一個月左右的。其次常更新網站內容,常更新才會被推送,最好把網站備案了,利於收錄,因為個別搜尋引擎需要填入備案號才可以收錄成功。
-
5 # 繁花影視
專業的都有人回答了,我就說一些基礎的。
首先是網站建設儘量做扁平化的網站,不要做頁面過深的,不容易被抓取。網站圖片不要太多、太大,儘量使用WEB格式,尤其是首頁,儘量不要都是圖片形式。
然後是TDK也就是網站三要素,關鍵詞,標題,創意描述。關鍵詞不要太多,3-5個核心的就可以了,標題和創意不要用關鍵詞疊加,可以參照一下優秀同行的案例。
外鏈很多人說外鏈不管用了,其實不然,只是不要濫發外鏈,做無用工,交換一些質量好的友鏈對網站的提升還是蠻大的。
熊掌號開通熊賬號,關聯網站,提交收錄,效果很好。另外,網站內部可以增加自動抓取收錄程式碼。
回覆列表
robot.txt檔案
大部分的網站收錄問題都是因為被robot.txt檔案攔截導致的。
robots.txt是一個純文字檔案,在這個檔案中網站管理者可以宣告該網站中不想被robots訪問的部分,或者指定搜尋引擎只收錄指定的內容。
當一個搜尋機器人(有的叫搜尋蜘蛛)訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜尋機器人就會按照該檔案中的內容來確定訪問的範圍;如果該檔案不存在,那麼搜尋機器人就沿著連結抓取。
格式:
1.User-agent:
用於指定搜尋引擎的名稱,如谷歌為User-agent: Googlebot,*代表所有搜尋引擎
2.Disallow:
表示禁止蜘蛛訪問的檔案
User-agent: *
Disallow:
表明:允許所有搜尋引擎訪問網站下的所有內容。
User-agent: *
Disallow: /
表明:禁止所有搜尋引擎對網站下所有網頁的訪問。
User-agent: *
Disallow: /cgi-bin/
表明:禁止所有搜尋引擎進入網站的cgi-bin目錄及其下所有子目錄。需要注意的是對每一個目錄必須分開宣告。
User-agent: Roverdog
Disallow: /
表明:禁止Roverdog訪問網站上的任何檔案。
User-agent: Googlebot
Disallow: cheese.htm
表明:禁止Google的Googlebot訪問其網站下的cheese.htm檔案。
3.註釋
以”#”開頭的行,均被視為註解內容,註釋需要單獨成一行
Disallow: bob #comment是錯誤的
4.Allow行
Allow行還未普遍使用,對於網站地圖,直接寫為Sitemap: http://www.xxx.com/sitemap.xml
編輯模式:
在UNIX模式下編輯你的robots.txt檔案並以ASCII碼格式上傳。顯然並非所有的FTP客戶端軟體都能夠天衣無縫地將檔案格式轉換為UNIX命令列終端,所以在編輯robots.txt檔案時,一定要確保你的文字編輯器是在UNIX模式下。
或者使用工具如愛站工具生成robots,直接貼上複製到網站後臺。
檢測robots是否生效:
在百度站長後臺檢測robots
二 robots和nofollow的區別是什麼
robots只用於站內連結。禁止蜘蛛抓取進行收錄;
nofollow的連結蜘蛛依然可以收錄,但是不會傳遞權重,一般用於站外連結或者是公司電話,地址的頁面有助於網址權重的集中。
三 網站誤封robots後的處理
1.解封robots,然後到百度站長後臺檢測並更新Robots。
3.在百度站長後臺抓取頻次,申請抓取頻次上調。
4.百度反饋中心,反饋是因為誤操作導致了這種情況的發生。
5.百度站長後臺連結提交處,設定資料主動推送(實時)。
6.更新sitemap網站地圖,重新提交百度,每天手工提交一次。
四.新站robots的設定
對於已經上線但是還沒有設定好的新站在robots中用
User-agent:*
Disallow:/
來禁止蜘蛛進行訪問
meta標籤
meta robots 標籤是頁面head部分meta標籤的一種,用於指令搜尋引擎禁止索引(收錄)本頁內容。
meta robots 標籤的寫法:
<meta name=”robots”content=”noindex,nofollow”>
標籤的意義:禁止所有搜尋引擎索引本頁面,禁止跟蹤本頁面上的連結。
Noindex:搜尋引擎不索引此網頁(可以抓取,但不出現在搜尋結果中)。
Nofollow: 搜尋引擎不繼續透過此網頁的連結索引搜尋其它的網頁。
<meta name>=”robots”content=”noindex” >
標籤的意義:禁止索引本頁面,但允許蜘蛛跟蹤頁面上的連結,也可以傳遞權重。
使用了noindex meta robots標籤的頁面會被抓取,但不會被索引,也就是說頁面URL不會出現在搜尋結果中,這一點與robots檔案不同。
meta robots 標籤的作用:
1、不想讓網站被收錄使用meta robots 標籤,禁止搜尋引擎索引本頁,同時禁止跟蹤頁面上的連結。
2、禁止索引本頁面,但是允許蜘蛛跟蹤頁面連結,也可以傳遞權重。
meta robots標籤很多搜尋引擎是不支援的,只有少數搜尋引擎能夠識別並按給定的值抓取。因此還是推薦用robots.txt檔案來限制抓取.
有違規記錄的域名
有些站長會選擇購買有一定註冊年份的域名,但是需要注意這些域名是否曾經被搜尋引擎懲罰過,如果這樣,網站也是非常難收錄的。
建議對於這種情況,站長可以檢視一下網站日誌,如果蜘蛛未爬取,只需要去站長後天提交即可。如果蜘蛛有爬取記錄,但是沒有收錄,就可能是域名的問題。當然也不排除網站自身存在一定的問題。例如映象網站等。
如何讓網站收錄