整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          前端架構師基于京東門戶編寫的7篇html、css實戰,代碼免費分享!

          情提示:以下代碼是我們邀請的前端架構師基于京東門戶編寫的html、css代碼,現在免費分享給大家,獲取的方式為:

          關注此頭條號“互聯網IT信息”——>私信發送 “京東html” ,即可得到源代碼的獲取方式。

          幾小編分別利用Python正則表達式和BeautifulSoup爬取了京東網商品信息,今天小編利用Xpath來為大家演示一下如何實現京東商品信息的精準匹配~~

          HTML文件其實就是由一組尖括號構成的標簽組織起來的,每一對尖括號形式一個標簽,標簽之間存在上下關系,形成標簽樹;XPath 使用路徑表達式在 XML 文檔中選取節點。節點是通過沿著路徑或者 step 來選取的。

          京東網狗糧商品

          首先進入京東網,輸入自己想要查詢的商品,向服務器發送網頁請求。在這里小編仍以關鍵詞“狗糧”作為搜索對象,之后得到后面這一串網址: https://search.jd.com/Search?keyword=%E7%8B%97%E7%B2%AE&enc=utf-8,其中參數的意思就是我們輸入的keyword,在本例中該參數代表“狗糧”,具體詳情可以參考Python大神用正則表達式教你搞定京東商品信息。所以,只要輸入keyword這個參數之后,將其進行編碼,就可以獲取到目標URL。之后請求網頁,得到響應,爾后利用bs4選擇器進行下一步的數據采集。

          商品信息在京東官網上的部分網頁源碼如下圖所示:

          狗糧信息在京東官網上的網頁源碼

          仔細觀察源碼,可以發現我們所需的目標信息是存在<li data-sku="/*/*/*/*/*" class="gl-item">標簽下的,那么接下來我們就像剝洋蔥一樣,一層一層的去獲取我們想要的信息。

          通常URL編碼的方式是把需要編碼的字符轉化為%xx的形式,一般來說URL的編碼是基于UTF-8的,當然也有的于瀏覽器平臺有關。在Python的urllib庫中提供了quote方法,可以實現對URL的字符串進行編碼,從而可以進入到對應的網頁中去。

          在線復制Xpath表達式

          很多小伙伴都覺得Xpath表達式很難寫,其實掌握了基本的用法也就不難了。在線復制Xpath表達式如上圖所示,可以很方便的復制Xpath表達式。但是通過該方法得到的Xpath表達式放在程序中一般不能用,而且長的沒法看。所以Xpath表達式一般還是要自己親自上手。

          直接上代碼,利用Xpath去提取目標信息,如商品的名字、鏈接、圖片和價格,具體的代碼如下圖所示:

          爬蟲代碼

          在這里,小編告訴大家一個Xpath表達式匹配技巧。之前看過好幾篇文章,大佬們都推薦Xpath表達式使用嵌套匹配的方式。在本例中,首先定義items,如下所示:

          items = selector.xpath('//li[@class="gl-item"]')

          之后通過range函數,逐個從網頁中進行匹配目標信息,而不是直接通過復制Xpath表達式的方式一步到位。希望小伙伴們以后都可以少入這個坑~~

          最后得到的效果圖如下所示:

          最終效果圖

          新鮮的狗糧再一次出爐咯~

          小伙伴們,有沒有發現利用Xpath來獲取目標信息比正則表達式要簡單一些呢?

          想學習更多Python網絡爬蟲與數據挖掘知識,可前往專業網站:http://pdcfighting.com/

          用的模塊是requests,importlib

          經常使用python來讀取網頁的內容,那么會使用到的模塊是 requests,importlib。

          使用了requests.get方法

          來通過讀取網址來獲取網頁源碼 。

          兩個返回值是status_code和content

          requests.get的兩個返回值是status_code和content。前者是返回狀態碼,后者是返回源碼內容。

          decode("utf-8")

          代碼中使用了decode("utf-8")來解析源碼。

          簡單代碼如下:

          #!/usr/bin/python

          # -*- coding:utf-8 -*-

          from __future__ import print_function

          import requests

          import sys

          #reload(sys)

          #sys.setdefaultencoding("utf-8")

          import importlib

          importlib.reload(sys)

          resp=requests.get('http://www.jd.com')

          print(resp.status_code)

          print(resp.content.decode("utf-8"))


          主站蜘蛛池模板: 国产成人精品一区二区三区无码| 国产午夜精品片一区二区三区| 国产精品免费一区二区三区四区| 冲田杏梨AV一区二区三区| 国产剧情国产精品一区| 视频精品一区二区三区| 精品无人区一区二区三区在线| 国精品无码一区二区三区在线蜜臀| 国模大胆一区二区三区| 中文字幕AV一区二区三区| 91精品一区二区| 麻豆天美国产一区在线播放| 九九久久99综合一区二区| 国产一区二区四区在线观看| 一区在线观看视频| 激情综合丝袜美女一区二区| 国产MD视频一区二区三区| 在线精品一区二区三区电影| 日韩成人无码一区二区三区| 国产乱码一区二区三区| 亚洲中文字幕久久久一区| 伊人色综合一区二区三区影院视频| 亚洲成在人天堂一区二区| 日本伊人精品一区二区三区 | 国产视频一区二区在线观看| 亚洲一本一道一区二区三区| 亚洲精品色播一区二区| 成人无号精品一区二区三区| 日本精品一区二区三本中文| 国产乱码精品一区三上| 视频一区二区三区在线观看| 日本丰满少妇一区二区三区| 中文字幕一区二区在线播放| 久久精品国产免费一区| 一区二区三区日韩精品| 无码一区二区三区爆白浆| 国模视频一区二区| 亚洲国产一区明星换脸| 制服丝袜一区二区三区| 精品一区高潮喷吹在线播放| 日韩视频在线一区|