整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          python3快速爬取房源信息,并存入mysql數據

          python3快速爬取房源信息,并存入mysql數據庫,超詳細

          做一個有趣的項目,首先整理一下思路,如何快速爬取關鍵信息。并且實現自動翻頁功能。
          想了想用最常規的requests加上re正則表達式,BeautifulSoup用于批量爬取

          import requests
          import re
          from bs4 import BeautifulSoup
          import pymysql

          然后引入鏈接,注意這里有反爬蟲機制,第一頁必須為https://tianjin.anjuke.com/sale/,后面頁必須為’https://tianjin.anjuke.com/sale/p%d/#filtersort’%page,不然會被機制檢測到為爬蟲,無法實現爬取。這里實現了翻頁功能。

          while page < 11:
          
           # brower.get("https://tianjin.anjuke.com/sale/p%d/#filtersort"%page)
           # time.sleep(1)
           print ("這是第"+str(page) +"頁")
           # proxy=requests.get(pool_url).text
           # proxies={
           #     'http': 'http://' + proxy
           #         }
           if page==1:
            url='https://tianjin.anjuke.com/sale/'
            headers={
                    'referer': 'https://tianjin.anjuke.com/sale/',
                    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36',
          
                    }
           else:
            url='https://tianjin.anjuke.com/sale/p%d/#filtersort'%page
            headers={
                    'referer': 'https://tianjin.anjuke.com/sale/p%d/#filtersort'%page,
                    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36',
          
                    }
           # html=requests.get(url,allow_redirects=False,headers=headers,proxies=proxies)
           html=requests.get(url, headers=headers)
          

          第二步自然是分析網頁以及如何實現自動翻頁,首先找到圖片


          正則表達式走起!

          #圖片地址
           myjpg=r'<img src="(.*?)" width="180" height="135" />'
          
           jpg=re.findall(myjpg,html.text)

          照片信息已經完成爬取,接下來依葫蘆畫瓢,把其它信息頁也迅速爬取!

          #描述
           mytail=r'<a data-from="" data-company=""  title="(.*?)" href'
           tail=re.findall(mytail,html.text)
          # 獲取總價
           totalprice=r'<span class="price-det"><strong>(.*?)</strong>'
           mytotal=re.findall(totalprice,html.text)
          #單價
           simpleprice=r'<span class="unit-price">(.*?)</span> '
           simple=re.findall(simpleprice,html.text)

          接下來實現用beauitfulsoup實現關鍵字標簽取值!解析器我這里用lxml,速度比較快,當然也可以用html.parser

          soup=BeautifulSoup(html.content,'lxml')


          看圖,這里用了很多換行符,并且span標簽沒有命名,所以請上我們的嘉賓bs4


          這里使用了循環,因為是一次性爬取,一個300條信息,由于一頁圖片只有60張,所以將其5個一組進行劃分,re.sub目的為了將其中的非字符信息替換為空以便存入數據庫

          #獲取房子信息
           itemdetail=soup.select(".details-item span")
          # print(len(itemdetail))
           you=[]
           my=[]
           for i in itemdetail:
              # print(i.get_text())
          
              you.append(i.get_text())
           k=0
           while k < 60:
              my.append([you[5 * k], you[5 * k + 1], you[5 * k + 2], you[5 * k + 3],re.sub(r'\s', "", you[5 * k + 4])])
              k=k + 1
           # print(my)
           # print(len(my))
          

          接下來存入數據庫!

          db=pymysql.connect("localhost", "root", "" ,"anjuke")
           conn=db.cursor()
           print(len(jpg))
           for i in range(0,len(tail)):
              jpgs=jpg[i]
              scripts=tail[i]
              localroom=my[i][0]
              localarea=my[i][1]
              localhigh=my[i][2]
              localtimes=my[i][3]
              local=my[i][4]
              total=mytotal[i]
              oneprice=simple[i]
              sql="insert into shanghai_admin value('%s','%s','%s','%s','%s','%s','%s','%s','%s')" % \
                    (jpgs,scripts,local,total,oneprice,localroom,localarea,localhigh,localtimes)
              conn.execute(sql)
              db.commit()
           db.close()
          

          大功告成!來看看效果!


          以下為完整代碼:

          這個程序會出現資料庫有的 3 個朋友,然后加上一個朋友 Howard,加了之后再將整個資料庫在控制臺打印出來,這樣就會有 4 個了,多了一個,就是在這里加的。

          程序與之前的差異在于加了函數,在這里有 SQL、INSERT、INTO、friends、VALUES,兩個問號相對應的是 f_name、f_phone,這是資料庫的名字和電話,這種寫法就可以調用函數。

          . 問題描述


          主站蜘蛛池模板: 精品一区二区三区免费毛片| 天天视频一区二区三区| 一区二区三区AV高清免费波多| 国产短视频精品一区二区三区| 久久er99热精品一区二区| 亚洲一区二区三区免费在线观看 | 国产精品电影一区| 国产日本一区二区三区| 在线精品一区二区三区电影| 国产免费伦精品一区二区三区| 波多野结衣AV无码久久一区| 亚洲蜜芽在线精品一区| 日韩精品无码人妻一区二区三区 | 国产精品成人一区无码| 国产一区麻豆剧传媒果冻精品| 免费无码毛片一区二区APP| 国产美女视频一区| 中文字幕日韩一区二区三区不卡| 精品国产一区二区三区免费看 | 无码人妻一区二区三区兔费| 无码毛片一区二区三区视频免费播放 | 亚洲爆乳精品无码一区二区三区| 亚洲AV无码国产精品永久一区| 国产美女口爆吞精一区二区| 精品乱码一区二区三区四区| 国产乱码伦精品一区二区三区麻豆| 无码人妻AV免费一区二区三区 | 一区二区三区日本电影| 97久久精品无码一区二区 | 一区二区三区在线|欧| 精品国产一区二区麻豆| 色欲综合一区二区三区| 一区二区三区免费在线观看| 97人妻无码一区二区精品免费 | 综合一区自拍亚洲综合图区| 亚洲av无码一区二区三区乱子伦| 国产成人精品无码一区二区老年人| 78成人精品电影在线播放日韩精品电影一区亚洲| 国产一区二区三区在线观看影院| 国产日本一区二区三区| 老熟女五十路乱子交尾中出一区|