整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          2024頭條高考季##q1#「天氣預報」大雨如約而至

          2024頭條高考季##q1#「天氣預報」大雨如約而至

          2024頭條高考季##q1#【天氣預報】大雨如約而至,山東河南迎暴雨!

          標簽:#天氣預報#大雨#山東#河南#暴雨#

          ## 描述

          快來看!即將到來的6月20日至22日,山東和河南兩地將迎來一場規模龐大的降雨,大雨如約而至!降雨區將逐漸轉移,給這兩個地區帶來暴雨的洗禮。準備好迎接這場天氣盛宴了嗎?

          ## 正文

          各位親愛的頭條號用戶們,又到了我們每天都期待的天氣預報時間!今天要為大家帶來一個令人期待又略帶憂慮的消息——山東和河南將在6月20日至22日迎來一場砰砰直響的大雨!你準備好了嗎?

          我們先來看看具體情況。根據氣象局的數據顯示,目前降雨區正在逐漸向東北方向轉移,而山東和河南正好處于其路徑上。這意味著大雨將不可避免地襲擊這兩個地區,讓我們的生活又多了一份驚喜。

          對于山東來說,這次降雨可謂是及時雨!近期山東地區持續高溫干旱,各地農作物和水源都異常干涸,面臨著嚴重的缺水問題。然而,這場大雨的到來將極大地緩解山東當前的干旱困境,給我們送來生機與希望。大雨滋潤著土地,讓農作物茁壯成長,也給我們的心靈帶來寬慰。

          而河南地區則要小心應對這場突如其來的暴雨了!事實上,河南在近期已經經歷了幾場大雨,僅僅得以稍事休整。然而,此次暴雨的到來會給河南帶來更大的挑戰。我們需要注意防范,做好防汛工作,確保人民的生命財產安全。同時,我們也要關心那些可能受到洪水侵襲的地方,給予他們力所能及的幫助和支持。

          總而言之,這場大雨如約而至,降雨區轉移,山東河南迎暴雨!盡管給我們帶來了某種程度的不便,但也為我們的生活注入了新的活力。讓我們迎接這場自然的洗禮,相信明天的陽光依然燦爛,我們的未來依然美好!

          以上就是這次天氣預報的內容,希望大家能夠提前做好準備,隨時應對可能引發的不便。讓我們共同迎接這場大雨的到來,共同度過這段特殊的時光!

          記得關注我們的頭條號,我們將持續為大家帶來最新、最準確的天氣預報信息!

          取數據并寫入xls文件

          import csv
          import random
          
          import requests
          from lxml import etree
          
          # 城市列表如下:
          # http://hebei.weather.com.cn/m2/j/hebei/public/city.min.js
          # 目前支持北京、天津、重慶三個城市7天天氣預報
          # 支持河南天氣更新
          # 18點后獲取天氣預報將get_text()方法中的0改為1
          headers=[
              "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36",
              "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/35.0.1916.153 "
              "Safari/537.36",
              "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:30.0) Gecko/20100101 Firefox/30.0",
              "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_2) AppleWebKit/537.75.14 (KHTML, like Gecko) Version/7.0.3 "
              "Safari/537.75.14",
              "Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.2; Win64; x64; Trident/6.0)",
              'Mozilla/5.0 (Windows; U; Windows NT 5.1; it; rv:1.8.1.11) Gecko/20071127 Firefox/2.0.0.11',
              'Opera/9.25 (Windows NT 5.1; U; en)',
              'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)',
              'Mozilla/5.0 (compatible; Konqueror/3.5; Linux) KHTML/3.5.5 (like Gecko) (Kubuntu)',
              'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.8.0.12) Gecko/20070731 Ubuntu/dapper-security Firefox/1.5.0.12',
              'Lynx/2.8.5rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/1.2.9',
              "Mozilla/5.0 (X11; Linux i686) AppleWebKit/535.7 (KHTML, like Gecko) Ubuntu/11.04 Chromium/16.0.912.77 "
              "Chrome/16.0.912.77 Safari/535.7",
              "Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:10.0) Gecko/20100101 Firefox/10.0 "]
          
          
          def get_province():
              url='http://www.weather.com.cn/province/'
              r=requests.get(url, headers={'User-Agent': headers[random.randint(1, 11)]})
              # encode解碼,將ISO-8859-1解碼成unicode
              html=r.text.encode("ISO-8859-1")
              # decode編碼,將unicode編碼成utf-8
              html=html.decode("utf-8")
              html1=etree.HTML(html)
              data=html1.xpath('/html/body/div[2]/div[2]/ul/li/a')
              list_province=[]
              for i in data:
                  item={'省轄市': i.text, '鏈接': i.get('href')}
                  list_province.append(item)
              return list_province
          
          
          def get_city_link(ul, ulink, list_weather):
              ul=ul
              ulink=ulink
              if ul in list_weather:
                  url=ulink
                  r=requests.get(url, headers={'User-Agent': headers[random.randint(1, 11)]})
                  # encode解碼,將ISO-8859-1解碼成unicode
                  html=r.text.encode("ISO-8859-1")
                  # decode編碼,將unicode編碼成utf-8
                  html=html.decode("utf-8")
                  html1=etree.HTML(html)
                  return html1
              else:
                  pass
          
          
          def get_special(ulink):
              url=ulink
              r=requests.get(url, headers={'User-Agent': headers[random.randint(1, 11)]})
              # encode解碼,將ISO-8859-1解碼成unicode
              html=r.text.encode("ISO-8859-1")
              # decode編碼,將unicode編碼成utf-8
              html=html.decode("utf-8")
              html1=etree.HTML(html)
              return html1
          
          
          def get_city(list_):
              # 上海天氣10月23日網頁改版
              list_all=['北京', '天津', '重慶']
              list_null=['山西', '湖北', '青海']
              # 安徽  http://www.weather.com.cn/anhui/index.shtml
              # 完整url
              # /html/body/div[1]/div[3]/div/span/a[1]
              # 廣東
              # /html/body/div[2]/ul/li[6]/a
              # 廣西
              # /html/body/div[1]/div[1]/div[2]/div/span/a[4]
              # 黑龍江
              # /html/body/div[3]/div/a[4]
              list_special_city=['臺灣', '香港', '澳門', '河北']
              list_http=['河南', '山東', '陜西', '江蘇', '湖南', '福建', '海南', '云南', '四川', '西藏', '江西', '新疆', '甘肅', '寧夏', '內蒙古', '吉林',
                           '遼寧']
              list_city=[]
              for i in list_:
                  ul=i['省轄市']
                  ulink=i['鏈接']
                  if ul in list_all:
                      html=get_city_link(ul, ulink, list_all)
                      data=html.xpath('/html[1]/body[1]/div[1]/div[2]/div[1]/span[1]/a')
                      for i in data:
                          item={'市,區': i.text, '鏈接': i.get('href')}
                          list_city.append(item)
                  if ul in list_http:
                      html1=get_city_link(ul, ulink, list_http)
                      data1=html1.xpath('/html/body/div[1]/div[2]/div/span/a')
                      for i in data1:
                          item={'市,區': i.text, '鏈接': (ulink + i.get('href'))}
                          list_city.append(item)
                  if ul in list_null:
                      html2=get_city_link(ul, ulink, list_null)
                      data2=html2.xpath('/html/body/div[2]/div[2]/div/span/a')
                      for i in data2:
                          item={'市,區': i.text, '鏈接': (ulink + i.get('href'))}
                          list_city.append(item)
                  if ul in list_special_city:
                      pass
                  if ul=='安徽':
                      html=get_special(' http://www.weather.com.cn/anhui/index.shtml')
                      data=html.xpath('/html/body/div[1]/div[3]/div/span/a')
                      for i in data:
                          item={'市,區': i.text, '鏈接': i.get('href')}
                          list_city.append(item)
                  if ul=='廣東':
                      html=get_special(ulink)
                      data=html.xpath(' /html/body/div[2]/ul/li[6]/a')
                      for i in data:
                          item={'市,區': i.text, '鏈接': (ulink + i.get('href'))}
                          list_city.append(item)
                  if ul=='廣西':
                      html=get_special(ulink)
                      data=html.xpath('/html/body/div[1]/div[1]/div[2]/div/span/a')
                      for i in data:
                          item={'市,區': i.text, '鏈接': (ulink + i.get('href'))}
                          list_city.append(item)
                  if ul=='黑龍江':
                      html=get_special(ulink)
                      data=html.xpath('/html/body/div[3]/div/a')
                      for i in data:
                          item={'市,區': i.text, '鏈接': (ulink + i.get('href'))}
                          list_city.append(item)
              return list_city
          
          
          # 北京、天津、重慶
          def get_weather():
              # 風向僅供參考
              All_url=get_city(get_province())
              list_weather=[]
              for i in All_url:
                  url=i['鏈接']
                  name=i['市,區']
                  r=requests.get(url, headers={'User-Agent': headers[random.randint(1, 11)]})
                  # encode解碼,將ISO-8859-1解碼成unicode
                  html=r.text.encode("ISO-8859-1")
                  # decode編碼,將unicode編碼成utf-8
                  html=html.decode("utf-8")
                  html1=etree.HTML(html)
                  data_time=html1.xpath('//div[@class="con today clearfix"]//ul[@class="t clearfix"]//li//h1')
                  data_weather=html1.xpath('//div[@class="con today clearfix"]//ul[@class="t clearfix"]//li//p[@class="wea"]')
                  data_temperature=html1.xpath(
                      '//div[@class="con today clearfix"]//ul[@class="t clearfix"]//li//p[@class="tem"]//i')
                  data_wind_level=html1.xpath(
                      '//div[@class="con today clearfix"]//ul[@class="t clearfix"]//li//p[@class="win"]//i')
                  data_wind=html1.xpath(
                      '//div[@class="con today clearfix"]//ul[@class="t clearfix"]//li//p[@class="win"]//em//span')
                  for i in range(0, len(data_time)):
                      Item={'城市': name,
                              '時間': data_time[i].text,
                              '天氣': data_weather[i].text,
                              '溫度': data_temperature[i].text,
                              '風力': data_wind_level[i].text,
                              '風向': data_wind[i].get('title')}
                      list_weather.append(Item)
              csv_File=open("D:\\beijing_tianjin_chongqing_weather.csv", 'w', newline='')
              try:
                  writer=csv.writer(csv_File)
                  writer.writerow(('城市', '時間', '天氣', '實時溫度', '風力', '風向'))
                  for i in list_weather:
                      writer.writerow((i['城市'], i['時間'], i['天氣'], i['溫度'], i['風力'], i['風向']))
              finally:
                  csv_File.close()
              print('北京,重慶,天津天氣獲取成功')
          
          
          def get_henan():
              All_url=get_city(get_province())
              list_henan=['鄭州', '安陽', '濮陽', '鶴壁', '焦作', '濟源', '新鄉', '三門峽', '洛陽', '平頂山', '許昌', '漯河', '開封', '周口', '商丘', '南陽',
                            '信陽', '駐馬店']
              list_weather1=[]
              for i in All_url:
                  url=i['鏈接']
                  name=i['市,區']
                  if name in list_henan:
                      url=url
                      r=requests.get(url, headers={
                          'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, '
                                        'like Gecko) Chrome/78.0.3904.70 Safari/537.36'})
                      # encode解碼,將ISO-8859-1解碼成unicode
                      html=r.text.encode("ISO-8859-1")
                      # decode編碼,將unicode編碼成utf-8
                      html=html.decode("utf-8")
                      html1=etree.HTML(html)
                      url_true=html1.xpath('//div[@class="gsbox"]//div[@class="forecastBox"]//dl//dt//a[1]')
                      Item={
                          '城市': name,
                          '鏈接': url_true[0].get('href')
                      }
                      list_weather1.append(Item)
              return list_weather1
          
          
          def get_text():
              list_weather1=[]
              list_weather=get_henan()
              for i in list_weather:
                  url=i['鏈接']
                  name=i['城市']
                  r=requests.get(url,
                                   headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, '
                                                          'like Gecko) Chrome/78.0.3904.70 Safari/537.36'})
                  # encode解碼,將ISO-8859-1解碼成unicode
                  html=r.text.encode("ISO-8859-1")
                  # decode編碼,將unicode編碼成utf-8
                  html=html.decode("utf-8")
                  html1=etree.HTML(html)
                  data_time=html1.xpath('//div[@class="left fl"]//ul//li//h1')
                  data_high_temperature=html1.xpath('//div[@class="left fl"]//ul//li//p[@class="tem"]//span')
                  data_low_temperature=html1.xpath('//div[@class="left fl"]//ul//p[@class="tem"]//i')
                  data_wind=html1.xpath('//div[@class="left fl"]//ul//li//p[@class="win"]//em//span')  # 獲取title標簽
                  data_wind_level=html1.xpath('//div[@class="left fl"]//ul//li//p[@class="win"]//i')
                  data_weather=html1.xpath('//div[@class="left fl"]//ul//li//p[@class="wea"]')  # 獲取title標簽
                  for i in range(0, len(data_time)):
                      Item={'城市': name,
                              '時間': data_time[i].text,
                              '天氣': data_weather[i].get('title'),
                              '高溫': data_high_temperature[i - 1].text,
                              '低溫': data_low_temperature[i].text,
                              '風向': data_wind[i].get('title'),
                              '風力': data_wind_level[i].text
                              }
                      list_weather1.append(Item)
              csv_File=open("D:\\henan_weather.csv", 'w', newline='')
              try:
                  writer=csv.writer(csv_File)
                  writer.writerow(('城市', '時間', '天氣', '高溫', '低溫', '風力', '風向'))
                  for i in list_weather1:
                      writer.writerow((i['城市'], i['時間'], i['天氣'], i['高溫'], i['低溫'], i['風力'], i['風向']))
              finally:
                  csv_File.close()
              print('河南天氣獲取成功')
          
          
          if __name__=='__main__':
              get_text()
              get_weather()
          
          

          寫入數據庫

          10.可設置導航加深邊框顏色和粗細大小。

          ·1


          主站蜘蛛池模板: 亚洲免费一区二区| 女同一区二区在线观看| 国产精品伦一区二区三级视频| 无码精品人妻一区二区三区漫画 | 99久久无码一区人妻a黑| 国产免费一区二区三区VR| 久久久精品人妻一区亚美研究所 | 亚洲一区综合在线播放| 精品国产一区二区三区久久蜜臀 | 精品一区二区三区中文| 午夜性色一区二区三区免费不卡视频| 久久影院亚洲一区| 国产精品一区二区三区免费| 国产av一区二区精品久久凹凸| 麻豆精品人妻一区二区三区蜜桃 | 精品日产一区二区三区手机| 国产一区二区三区在线免费| 成人在线观看一区| 日韩人妻无码免费视频一区二区三区| 88国产精品视频一区二区三区| 亚洲av一综合av一区| 中文人妻无码一区二区三区| 国产午夜精品一区二区三区嫩草 | 国产在线一区二区三区av| 国产情侣一区二区| 久久久无码精品人妻一区| 海角国精产品一区一区三区糖心 | 久久精品午夜一区二区福利| 肉色超薄丝袜脚交一区二区| 日韩人妻精品一区二区三区视频| 一区二区三区国产精品| 亚洲国产视频一区| 亚洲av无一区二区三区| 国产精品区一区二区三| 一区二区三区四区无限乱码 | 精品国产一区二区三区麻豆| 国产福利一区二区三区在线视频| 亚洲综合一区二区| 午夜一区二区免费视频| 亚洲AV无码一区二三区| 久久久精品一区二区三区|