整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          網站建設要從哪幾方面來優化呢?

          不論你的網站是用建立的,還是,還是,要注意你的網站都要做優化

          我們在講到針對一個網站的優化,特別是站內優化的時候,其實主要包含

          2大方面:

          - 一是針對頁面的SEO (on-page )

          - 另外一個是網站結構優化,也叫做技術性SEO

          由于搜索結果的競爭越來越激烈,對SEO在技術上的優化也提出了更高的要求。

          一個表現良好的網站,必須要是可抓取、快速、安全的網站。

          技術性SEO包含的內容很多,涵蓋網站的結構設計、URL、網絡地圖等內容,而且是一個技術性很強的方面。

          今天我主要說一說網站技術SEO的六個基本方面,做好這六大方面,網站的性能會更加優化和健康。

          很多人可能看到這一章節會覺得很枯燥,但是其實是很重要的。

          為什么呢?

          因為一個網站,如果你花了很多時間在獲取流量上,比如廣告,比如紅人,但是基本的文章的audit(審視)都沒有過關的話,那么無形之中會大大增加你網站的營銷費用。

          試想一下一個2秒打開速度的網站,和一個十秒才打開的網站,那效果能一樣嗎?

          所以從一個網站的優化角度來講,特別是技術性優化的角度來探討,我們要從以下幾點進行優化:

          01

          確保網站可抓取

          對于搜索引擎優化,做好優質內容是必須的。但是只有優質內容還不夠,如果搜索引擎抓取不到這個頁面,那你辛辛苦苦編寫的內容不是白費了嗎?

          確保網站可抓取,首先要檢查.txt文件,這個文件是任何網絡爬行軟件到達站點時的第一個調用點。

          .txt文件會明確應該被抓取的和不應該被抓取的部分,表現為允許(allow)、禁止()某些用戶代理的行為。

          通過將/.txt添加到根域末尾,可以公開使用.txt文件。我們看一下網站的示例:

          可以看到,網站不允許以/ wp-admin(網站后端)開頭的URL被抓取。通過指明哪些地方禁止這些URL,可以節省帶寬、服務器資源和爬網預算。

          與此同時,搜索引擎爬蟲抓取網站的重要部分時,不應該受到禁止。

          因為.txt是爬蟲在抓取網站時看到的第一個文件,所以最好是將.txt指向站點地圖。可以在舊版的 中編輯和測試.txt文件。

          在.txt的測試工具中,下面的網址欄輸入任何網址,就可以檢查這個網址能否被抓取,.txt文件中有沒有錯誤和警告。

          因為舊版的 功能要比新版本的功能多一些,在技術SEO方面舊版本會更好用一些。

          比方說,舊版本可以查看站長工具上的抓取統計信息區域(Craw Stats),對于了解網站的抓取方式會更加的方便。

          這個報告有3個圖表網站建設,顯示了最近3個月的數據。

          每天抓取的網頁數量、每天下載的千字節數、下載網頁所花費的時間(以毫秒為單位),能夠顯示網站的抓取速度及和搜索引擎爬蟲的關系。

          浙江省建設信息港網站_網站建設_廣東省石油化工建設集團公司網站

          搜索引擎爬蟲定期訪問某網站,并且這是一個快速而且容易被抓取的網站的話,這個網站就會有很高的抓取速度。

          這些圖表數據如果能保持一致是最好的,任何重大波動都會出問題,可能是HTML損壞,內容陳舊或.txt文件阻止了太多URL。

          如果加載一個頁面需要很長時間,表示爬蟲爬取時間太長,建立索引速度較慢。

          還可以在新版的 查看覆蓋率報告中的抓取錯誤。

          這些地方都是有爬取問題的頁面,點擊可以顯示這些頁面。檢查這些頁面是什么原因導致的爬取問題,最好不是很重要的頁面,盡快解決這些問題。

          如果你在Craw Stats或覆蓋率報告中,發現重大的抓取錯誤或波動,可以對日志文件進行分析查看。

          從服務器日志訪問原始數據可能會比較麻煩,因為分析是高級設置,但它有助于準確理解哪些頁面可以被抓取、哪些不能抓取。

          哪些頁面會被優先處理,哪些區域出現了預算浪費的情況,還有爬蟲在爬取網站的過程中收到哪些服務器響應。

          02

          檢查站點可編入索引

          檢查爬蟲是否可以抓取網站之后,還要搞清楚網站上的網頁有沒有編入索引。

          有很多方法可以檢查這一問題網站建設,前面用到的 覆蓋報告,就可以用來查看每個頁面的狀態。

          從這個報告中我們看到四個數據:

          還可以使用URL檢查工具分析特定的URL。

          如果某主頁的流量有所下降,就該檢查這個新加入的網站是不是已經編入索引,或者對這個網址進行問題排查。

          還有一個好方法可用來檢查網站能否索引,就是使用爬取工具,推薦 Frog。

          Frog是最強大、使用最普遍的爬取軟件之一。它有付費版本和免費版本,可以根據網站的大小進行選擇。

          免費版本的功能有限,抓取的數量限于500個URL。而付費版本的年費是149英鎊,有很多的功能和可用API,沒有抓取限制。

          運行爬取軟件之后,就可以看到和索引相關的兩列結果。

          :可索引性,顯示URL能否被編入索引,是“可索引”還是“不可索引”。

          :可索引性狀態,顯示URL不可索引的原因是什么,是不是被編為了另一個URL,或是帶有無索引標簽。

          這個工具是批量審核網站一種很好的方式,可以了解哪些網頁正在被編入索引,哪些網頁不可被編入索引,這些都會顯示在結果中。

          對列進行排序并查找異常的情況,使用 ,能有效識別出可索引的重要頁面。

          最后,還可以使用這個網站檢查你的頁面有多少是已經索引的: 。

          在搜索欄中輸入site:并按Enter鍵,就可以看到網站上已被編入索引的每個網頁。

          示例:

          這里我們看到有大約95,000個已經索引的URL,通過這個功能我們知道現在存儲了多少網頁。

          如果你的網頁數量和被谷歌索引的數量差很多。

          那么你應該思考:


          主站蜘蛛池模板: 亚洲欧美日韩中文字幕一区二区三区| 中文无码精品一区二区三区| 一区二区视频在线| 国产爆乳无码一区二区麻豆| 亚洲日本久久一区二区va| 久久一区不卡中文字幕| 精品视频一区二区三区| 中文乱码精品一区二区三区| 成人无号精品一区二区三区| 国产精品一区视频| 亚洲av色香蕉一区二区三区蜜桃| 无码毛片视频一区二区本码| 成人无码AV一区二区| 精品少妇一区二区三区在线| 精品人体无码一区二区三区| 福利一区二区三区视频午夜观看| 日本一区二区三区久久| 日韩一区二区在线播放| 国产AV午夜精品一区二区入口| 日韩AV在线不卡一区二区三区| 精品无码成人片一区二区98| 国产福利视频一区二区| 一区二区精品视频| 八戒久久精品一区二区三区 | 免费人人潮人人爽一区二区| 精品女同一区二区三区免费站| 在线观看午夜亚洲一区| 国产一区二区精品久久凹凸| 青娱乐国产官网极品一区| 色综合久久一区二区三区| 麻豆精品人妻一区二区三区蜜桃| 久久人做人爽一区二区三区| 亚洲一区二区三区首页| 亚洲福利一区二区三区| 亚洲欧美国产国产综合一区| 无码视频免费一区二三区| 国产一区二区三区小向美奈子| 一区二区在线视频观看| 国产亚洲3p无码一区二区| 日韩精品人妻一区二区三区四区 | 亚洲一区二区女搞男|