Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537 Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537 日本一级全黄大片,日韩精品一区二区三区中文3d,三级视频网站在线观看播放

          整合營(yíng)銷(xiāo)服務(wù)商

          電腦端+手機(jī)端+微信端=數(shù)據(jù)同步管理

          免費(fèi)咨詢熱線:

          python網(wǎng)絡(luò)爬蟲(chóng)-爬取淘寶聯(lián)盟

          python網(wǎng)絡(luò)爬蟲(chóng)-爬取淘寶聯(lián)盟

          聯(lián)網(wǎng)是由一個(gè)個(gè)站點(diǎn)和網(wǎng)絡(luò)設(shè)備組成的大網(wǎng),我們通過(guò)瀏覽器訪問(wèn)站點(diǎn),站點(diǎn)把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經(jīng)過(guò)瀏覽器解析、渲染,將豐富多彩的網(wǎng)頁(yè)呈現(xiàn)我們眼前。

          網(wǎng)絡(luò)爬蟲(chóng),也叫網(wǎng)絡(luò)蜘蛛(Web Spider),如果把互聯(lián)網(wǎng)比喻成一個(gè)蜘蛛網(wǎng),Spider就是一只在網(wǎng)上爬來(lái)爬去的蜘蛛。網(wǎng)絡(luò)爬蟲(chóng)就是根據(jù)網(wǎng)頁(yè)的地址來(lái)尋找網(wǎng)頁(yè)的,也就是全球統(tǒng)一資源定位符URL,用來(lái)定義互聯(lián)網(wǎng)上一個(gè)唯一的資源 例如:一張圖片、一個(gè)文件、一段視頻都可以用url唯一確定。

          爬蟲(chóng)的基本流程:

          1. 發(fā)送請(qǐng)求
          2. 獲得相應(yīng)內(nèi)容
          3. 解析內(nèi)容
          4. 保存數(shù)據(jù)

          爬蟲(chóng)所需的工具:

          1. 請(qǐng)求庫(kù):requests,selenium(可以驅(qū)動(dòng)瀏覽器解析渲染CSS和JS,但有性能劣勢(shì)(有用沒(méi)用的網(wǎng)頁(yè)都會(huì)加載))

          2. 解析庫(kù):正則,xpath,beautifulsoup,pyquery

          3. 存儲(chǔ)庫(kù):文件,MySQL,Mongodb,Redis

          下面實(shí)現(xiàn)一個(gè)爬蟲(chóng),爬取符合條件的淘寶聯(lián)盟網(wǎng)站的商品。

          1. URL分析

          我們首先打開(kāi)淘寶聯(lián)盟網(wǎng)址,在搜索欄隨便輸入一件 商品,比如“鞋子”

          2. 按F12可以查看訪問(wèn)當(dāng)前網(wǎng)頁(yè)發(fā)送的所有請(qǐng)求

          現(xiàn)在發(fā)現(xiàn)沒(méi)東西,因?yàn)橛械木W(wǎng)站是動(dòng)態(tài)加載的,當(dāng)我們下拉滾動(dòng)條時(shí),看到有如下請(qǐng)求:

          然后點(diǎn)擊下一頁(yè),在 下面的請(qǐng)求:

          通過(guò)分析這就是我們所要請(qǐng)求的URL。

          3. 請(qǐng)求頭

          User-agent:請(qǐng)求頭中如果沒(méi)有user-agent客戶端配置,服務(wù)端可能將你當(dāng)做一個(gè)非法用戶host;

          cookies:cookie用來(lái)保存登錄信息

          注意: 一般做爬蟲(chóng)都會(huì)加上請(qǐng)求頭

          請(qǐng)求頭需要注意的參數(shù):

          (1)Referrer:訪問(wèn)源至哪里來(lái)(一些大型網(wǎng)站,會(huì)通過(guò)Referrer 做防盜鏈策略;所有爬蟲(chóng)也要注意模擬)

          (2)User-Agent:訪問(wèn)的瀏覽器(要加上否則會(huì)被當(dāng)成爬蟲(chóng)程序)

          (3)cookie:請(qǐng)求頭注意攜帶

          4、請(qǐng)求體

              如果是get方式,請(qǐng)求體沒(méi)有內(nèi)容 (get請(qǐng)求的請(qǐng)求體放在 url后面參數(shù)中,直接能看到)
              如果是post方式,請(qǐng)求體是format data
           
              ps:
              1、登錄窗口,文件上傳等,信息都會(huì)被附加到請(qǐng)求體內(nèi)
              2、登錄,輸入錯(cuò)誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁(yè)面通常會(huì)跳轉(zhuǎn),無(wú)法捕捉到post

          5、響應(yīng)狀態(tài)碼

            200:代表成功

            301:代表跳轉(zhuǎn)

            404:文件不存在

            403:無(wú)權(quán)限訪問(wèn)

            502:服務(wù)器錯(cuò)誤

          2. 請(qǐng)求并獲取響應(yīng)

          我們通過(guò)不同的方式來(lái)分別請(qǐng)求并獲取響應(yīng),具體實(shí)現(xiàn)如下:

          1.url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict 采用 urllib2 實(shí)現(xiàn)

          #url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict  采用 urllib2 實(shí)現(xiàn)
          def getJSONText(url):
              try:
                  page=urllib2.urlopen(url)
                  data=page.read()
                  #print (data)
                  #print (type(data))
                  #dict_data=json.loads(data)
                  dict_data=demjson.decode(data)
                  #print dict_data
                  #print type(dict_data)
                  return dict_data
              except:
                  return ""

          2.#url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict 采用 添加請(qǐng)求頭、設(shè)置代理的方式 實(shí)現(xiàn)

          #url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict  采用 添加請(qǐng)求頭、設(shè)置代理的方式 實(shí)現(xiàn)
          def getJSONText2(url):
              try:
                  proxies={
                      "http": "http://221.10.159.234:1337",
                      "https": "https://60.255.186.169:8888",
                  }
                  headers={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}
                  data=requests.get(url, headers=headers,proxies=proxies).text
                  print (data)
                  print (type(data))
                  # dict_data=json.loads(data)
                  dict_data=demjson.decode(data)
                  print dict_data
                  print type(dict_data)
                  return dict_data
              except:
                  return "" 

          3.采用selenium實(shí)現(xiàn)

          #url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict  采用selenium實(shí)現(xiàn)
          def get_browser_text(url):
              #browser=webdriver.Chrome(executable_path="C:\\Program Files (x86)\\Google\\Chrome\\Application\\chromedriver.exe")
              browser=webdriver.Firefox(executable_path="C:\\Program Files (x86)\\Mozilla Firefox\\geckodriver.exe")
              try:
                  browser.get(url)
                  print(browser.page_source)
                  browserdata=browser.page_source
                  browser.close()
                  # res=r'<a .*?>(.*?)</a>'
                  res=r'<pre .*?>(.*?)</pre>'
                  json_data=re.findall(res, browserdata, re.S | re.M)
                  print json_data
                  for value in json_data:
                      print value
           
                  dict_data=demjson.decode(json_data)
                  print 'dict_data:'
                  print dict_data
                  # print type(dict_data)
                  return dict_data
              except:
                  return ""

          4.

          # 獲取單個(gè)商品的HTML代碼并用正則匹配出描述、服務(wù)、物流3項(xiàng)參數(shù)  采用urllib2
          def getHTMLText(url):
              try:
                  data=urllib2.urlopen(url).read()
                  res=r'<dd class="tb-rate-(.*?)"'
                  data_list=re.findall(res, data, re.S | re.M)
                  print type(data_list)
                  print data_list[0]
                  #for value in mm:
                  #   print value
                  return data_list
              except:
                  return  ""

          3. 爬蟲(chóng)完整代碼如下:

          #coding=utf-8
          __author__='yansong'
          # 2018.07.12
          # 抓取淘寶聯(lián)盟 比率>10 ,描述、服務(wù)、物流3項(xiàng)參數(shù)高于或持平于同行業(yè)的商品圖片。
           
           
          import json
          import demjson
          import urllib2
          import os
          import time
          import requests
          import re
          from selenium import webdriver
          from selenium.webdriver.common.by import By
          from selenium.webdriver.common.keys import Keys
          from selenium.webdriver.support import expected_conditions as EC
          from selenium.webdriver.support.wait import WebDriverWait
          import sys
          reload(sys)
          sys.setdefaultencoding('utf8')
           
          path_name=u'T恤寬松日系男款'  #圖片保存的文件夾名稱(chēng)
          Myname=u'T恤寬松日系男款'   #搜索關(guān)鍵字
           
          # 創(chuàng)建文件夾
          path=os.getcwd()   				     # 獲取此腳本所在目錄
          new_path=os.path.join(path,path_name)
          if not os.path.isdir(new_path):
          	os.mkdir(new_path)
           
          #url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict  采用selenium實(shí)現(xiàn)
          def get_browser_text(url):
              #browser=webdriver.Chrome(executable_path="C:\\Program Files (x86)\\Google\\Chrome\\Application\\chromedriver.exe")
              browser=webdriver.Firefox(executable_path="C:\\Program Files (x86)\\Mozilla Firefox\\geckodriver.exe")
              try:
                  browser.get(url)
                  print(browser.page_source)
                  browserdata=browser.page_source
                  browser.close()
                  # res=r'<a .*?>(.*?)</a>'
                  res=r'<pre .*?>(.*?)</pre>'
                  json_data=re.findall(res, browserdata, re.S | re.M)
                  print json_data
                  for value in json_data:
                      print value
           
                  dict_data=demjson.decode(json_data)
                  print 'dict_data:'
                  print dict_data
                  # print type(dict_data)
                  return dict_data
              except:
                  return ""
           
           
          #url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict  采用 urllib2 實(shí)現(xiàn)
          def getJSONText(url):
              try:
                  page=urllib2.urlopen(url)
                  data=page.read()
                  #print (data)
                  #print (type(data))
                  #dict_data=json.loads(data)
                  dict_data=demjson.decode(data)
                  #print dict_data
                  #print type(dict_data)
                  return dict_data
              except:
                  return ""
           
           
          # 獲取單個(gè)商品的HTML代碼并用正則匹配出描述、服務(wù)、物流3項(xiàng)參數(shù)  采用urllib2
          def getHTMLText(url):
              try:
                  data=urllib2.urlopen(url).read()
                  res=r'<dd class="tb-rate-(.*?)"'
                  data_list=re.findall(res, data, re.S | re.M)
                  print type(data_list)
                  print data_list[0]
                  #for value in mm:
                  #   print value
                  return data_list
              except:
                  return  ""
           
           
          #url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict  采用 添加請(qǐng)求頭、設(shè)置代理的方式 實(shí)現(xiàn)
          def getJSONText2(url):
              try:
                  proxies={
                      "http": "http://221.10.159.234:1337",
                      "https": "https://60.255.186.169:8888",
                  }
                  headers={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}
                  data=requests.get(url, headers=headers,proxies=proxies).text
                  print (data)
                  print (type(data))
                  # dict_data=json.loads(data)
                  dict_data=demjson.decode(data)
                  print dict_data
                  print type(dict_data)
                  return dict_data
              except:
                  return ""
           
           
          def getJSONText3(url):
              try:
                  driver=webdriver.Chrome(executable_path="C:\\Program Files (x86)\\Google\\Chrome\\Application\\chromedriver.exe")
                  driver.get(url)  # 訪問(wèn)淘寶寶貝頁(yè)面,獲取cookie
                  # driver.get(taobao_comment_url)  # 直接訪問(wèn)寶貝評(píng)論會(huì)被反爬蟲(chóng)檢測(cè)到。上一步獲得cookie后可得到評(píng)論數(shù)據(jù)
                  print(driver.find_element_by_xpath('/html/body').text)
                  data=driver.find_element_by_xpath('/html/body').text
                  #data=requests.get(url, headers=headers,proxies=proxies).text
                  print (data)
                  print (type(data))
                  # dict_data=json.loads(data)
                  dict_data=demjson.decode(data)
                  print dict_data
                  print type(dict_data)
                  return dict_data
              except:
                  return ""
           
           
          def mytaobao_spider():
              # 每一頁(yè)的url  循環(huán)抓取60頁(yè)
              for page in range(0, 60):
           
                  url=(
                  'http://pub.alimama.com/items/search.json?q=%s&_t=1531556288035&toPage=%d&perPageSize=50&auctionTag=&shopTag=yxjh&t=1531556427336&_tb_token_=7e73deef30e18&pvid=10_117.136.70.61_599_1531556285246' % (
                  Myname, page))
                  # url=('http://pub.alimama.com/items/channel/qqhd.json?q=%s&channel=qqhd&_t=1531121449018&toPage=%d&perPageSize=50&shopTag=&t=1531125125414&_tb_token_=eeee6ee3be688&pvid=19_118.112.188.32_688_1531125125232'%(Myname,page))
                  # url=('http://pub.alimama.com/items/search.json?q=%E9%9E%8B%E5%AD%90&_t=1531368912715&auctionTag=&perPageSize=50&shopTag=yxjh&t=1531368913289&_tb_token_=e370663ebef17&pvid=10_118.112.188.32_9532_1531368912863')
                  print url
                  time.sleep(2)  # 延時(shí)2秒,添加延時(shí)操作是因?yàn)樘詫氂蟹磁老x(chóng)機(jī)制,過(guò)于頻繁的訪問(wèn)IP可能會(huì)被限制
                  url_data=getJSONText(url)
                  # 一頁(yè)中每件商品的標(biāo)簽信息
                  for i in range(0, 50):
                      time.sleep(1)
                      try:
                          # print type(url_data['data']['pageList'][i]['pictUrl'])
                          pictUrl=url_data['data']['pageList'][i]['pictUrl']  # 圖片url
                          sellerId=url_data['data']['pageList'][i]['sellerId']  # 商品id
                          auctionUrl=url_data['data']['pageList'][i]['auctionUrl']  # 淘寶鏈接
                          auctionId=url_data['data']['pageList'][i][
                              'auctionId']  # 淘寶鏈接='http://item.taobao.com/item.htm?id=%d'%(auctionId)
                          tkRate=url_data['data']['pageList'][i]['tkRate']  # 比率
                          zkPrice=url_data['data']['pageList'][i]['zkPrice']  # 價(jià)格
           
                          # 需要抓取比率大于10.00的商品信息
                          if tkRate > 10.00:
                              # time.sleep(1)
                              # print '詳細(xì)信息:'
                              # print type(tkRate)
                              # print type(zkPrice)
                              # print '比率:%f' % (tkRate)
                              # print '價(jià)格:%f' % (zkPrice)
                              # print sellerId
                              # print auctionId
                              # print pictUrl
                              # print auctionUrl  # 淘寶鏈接
                              # print type(sellerId)
                              print auctionUrl
           
                              # 每件商品的子url (描述相符、發(fā)貨速度、服務(wù)態(tài)度 等信息)
                              # sub_url=('http://pub.alimama.com/pubauc/searchPromotionInfo.json?oriMemberId=%d&blockId=&t=1531369204612&_tb_token_=e370663ebef17&pvid=10_118.112.188.32_760_1531368931581' % (sellerId))
                              sub_url=auctionUrl  # 每件商品的淘寶url
                              sub_url_data=getHTMLText(sub_url)  # 獲取店鋪的 描述、服務(wù)、物流 信息
                              print type(sub_url_data)
                              print len(sub_url_data)
           
                              # 如果返回的是空字符串, 則說(shuō)明沒(méi)有取到我們想要的字段,是因?yàn)樘詫氂胁煌捻?yè)面,對(duì)于這種頁(yè)面我們需要進(jìn)一步分析下面的url
                              if (len(sub_url_data)==0):
                                  info_url=('https://world.taobao.com/item/%d.htm' % (auctionId))
                                  info_data=urllib2.urlopen(info_url).read()
                                  res_info=r'<li class="([^s].*?)<img'
                                  tmp_url_data=re.findall(res_info, info_data, re.S | re.M)
                                  print "tmp_url_data:"
                                  for value1 in tmp_url_data:
                                      print value1
           
                                  sub_url_data=[]
                                  score_list=[x[0:4] for x in tmp_url_data]  # 截取前面5位
                                  print 'new_list:'
                                  for score in score_list:
                                      print score
                                      if score=='down':
                                          score='lower'  # d第一種頁(yè)面與第二種頁(yè)面返回的店鋪評(píng)定信息不同,需轉(zhuǎn)換成統(tǒng)一的方便后面處理,將 down 轉(zhuǎn)換為 lower
                                      sub_url_data.append(score)
           
                                  print '替換后的list元素:'
                                  for level_data in sub_url_data:
                                      print level_data
                              # 如果3項(xiàng)評(píng)定參數(shù)都不是‘lower’ 就將圖片和相關(guān)信息抓取出來(lái)   任意一項(xiàng)參數(shù)為‘lower’都不符合要求
                              if ((not (sub_url_data[0]=='lower')) and (not (sub_url_data[1]=='lower')) and (
                              not (sub_url_data[2]=='lower'))):
                                  # for value in sub_url_data:
                                  #   print value
           
                                  mypictUrl='http:' + pictUrl  # 圖片url
                                  picture_content=urllib2.urlopen(mypictUrl).read()
                                  picture_name=auctionUrl + '.jpg'  # 拼接圖片名稱(chēng)
                                  print picture_name
                                  time.sleep(1)
           
                                  # 需要寫(xiě)入文件的信息
                                  spider_info='url:' + url + '\n' + '  sub_url:' + sub_url + '\n' + '  淘寶鏈接:' + auctionUrl + '\n' + '  mypictUrl:' + mypictUrl + '\n\n'
                                  try:
                                      # 寫(xiě)圖片
                                      index_num=picture_name.index('id=')
                                      with open(path_name + '/' + picture_name[index_num:], 'wb') as code:
                                          code.write(picture_content)
                                      # 寫(xiě)URL信息
                                      with open(path_name + '/' + 'spider.txt', 'a') as spider_code:
                                          spider_code.write(spider_info)
                                  except (IOError, ZeroDivisionError), e:
                                      print e
                                      print "Error: 沒(méi)有找到圖片文件或讀取文件失敗"
                                  else:
                                      print "圖片寫(xiě)入成功"
           
                                  time.sleep(1)
           
                      except (IndexError, KeyError, TypeError), e:
                          print e
                          print "每件商品信息讀取失敗"
                      else:
                          pass
                          # print "每件商品的標(biāo)簽信息讀取成功"
           
           
          if __name__=='__main__':
              mytaobao_spider()

          4. 運(yùn)行效果

          抓取的圖片在指定的目錄下:

          同時(shí)寫(xiě)了一個(gè)spider.txt文件,里面是詳細(xì)的URL信息:

          單個(gè)商品的淘寶鏈接如:http://item.taobao.com/item.htm?id=566676904510

          淘寶鏈接構(gòu)成: http://item.taobao.com/item.htm?+id=566676904510 抓取的圖片名稱(chēng)是以商品的id來(lái)命名的,我們根據(jù)圖片就可以快速找到該商品,該爬蟲(chóng)抓取的都是 比率>10 ,描述、服務(wù)、物流3項(xiàng)參數(shù)高于或持平于同行業(yè)的商品,也可以根據(jù)自己需要,抓取價(jià)格、銷(xiāo)售量等符合自己要求的商品。

          樣在微信上發(fā)淘寶商品鏈接?相信很多淘寶賣(mài)家都有過(guò)這樣的疑問(wèn),不過(guò)這個(gè)貌似都是2014年的話題了拖到現(xiàn)在好像沒(méi)什么特別的討論價(jià)值,但是淘寶商品如何有效精準(zhǔn)的推廣到微信是一直賣(mài)家們比較關(guān)注的問(wèn)題。其實(shí)就淘寶商品推廣到微信有很多優(yōu)質(zhì)的淘寶賣(mài)家在這方面很有心得,他們經(jīng)常會(huì)在一些比較知名的行業(yè)論壇分享,到目前為止有很多的中小賣(mài)家紛紛效仿把淘寶流量分到微信上。淘寶鏈接分享到微信,目前比較常規(guī)的方法就是淘寶商品的分享按鈕,可以直接復(fù)制口令到微信,很方便。這里小編在這里再分享一個(gè)可以把淘寶圖文鏈接分享到微信的方法技巧:

          第一步:打開(kāi)百度網(wǎng)頁(yè)搜索:"甩手工具箱"并下載,登錄工具箱;

          第二步:打開(kāi)工具首頁(yè),找到“推廣商品到微信”功能;

          第三步:進(jìn)入甩手工具箱常規(guī)的抓取頁(yè)面,有三種抓取方式供選擇;

          第四步:以第一種抓取方式為例:點(diǎn)擊進(jìn)入第一個(gè)店鋪,進(jìn)入店鋪首頁(yè),抓取整頁(yè)or整店商品;

          第五步:選擇性抓取所需生成二維碼的商品,選擇下一步;

          第六步:批量生成商品二維碼,通過(guò)掃描二維碼即可實(shí)現(xiàn)淘寶商品圖文鏈接快速分享到微信朋友圈。

          通過(guò)上面六個(gè)步驟的操作即可完成”推廣商品到微信”的全過(guò)程,簡(jiǎn)單總結(jié)就三個(gè)步驟:搜索-抓取-生成,可以用作商品二維碼,也可以實(shí)時(shí)分享到微信朋友圈。

          很多賣(mài)家朋友通常是把店鋪流量通過(guò)返現(xiàn)或者打折等方式導(dǎo)流到微信圈子中,然后通過(guò)日常的維護(hù),在合適的時(shí)間再導(dǎo)流回淘寶。也有的朋友,通過(guò)自己培養(yǎng)精準(zhǔn)的微信朋友圈子,在微信上發(fā)淘寶商品鏈接導(dǎo)流到淘寶店鋪。所以在解決完"怎樣在微信上發(fā)淘寶商品鏈接"問(wèn)題之后,需要把重心放在微信圈子的維護(hù)的工作上。

          更多內(nèi)容關(guān)注微信:450647316

          寫(xiě)在最前面※

          【關(guān)于商品審核時(shí)間】

          工作日

          10:30之前提交審核的,11:00之前審?fù)?/p>

          15:00之前提交審核的,15:30之前審?fù)?/p>

          20:00之前提交審核的,20:30之前審?fù)?/p>

          周末/公共假期

          20:00之前提交審核的,20:30之前審?fù)?/p>

          如果審核遇到問(wèn)題,請(qǐng)將審核未通過(guò)的商品編號(hào)發(fā)到群里(如:6535408016756310200,可在商品管理中查看),我們會(huì)集中為大家處理。

          商品前端展示與后臺(tái)錄入內(nèi)容對(duì)照示例:

          一、創(chuàng)建商品

          點(diǎn)擊“商品”—“創(chuàng)建商品”

          二、設(shè)置產(chǎn)品參數(shù)

          支付方式:在線支付。目前小店僅支持這一種支付方式

          商品URL:(此項(xiàng)選填)可填入淘寶/天貓(其他平臺(tái)暫不支持)商品鏈接后,點(diǎn)擊獲取寶貝詳情,自動(dòng)獲取已有寶貝已有淘寶/天貓商品信息

          -效果如圖【抓取后的信息請(qǐng)認(rèn)真核對(duì),如有順序顛倒、圖片未能正常抓取 請(qǐng)手動(dòng)補(bǔ)充調(diào)整】

          產(chǎn)品標(biāo)題:準(zhǔn)確簡(jiǎn)潔的描述商品,如:不銹鋼真空保溫杯,長(zhǎng)效保溫,支持驗(yàn)貨

          ※如果是虛擬商品,請(qǐng)?jiān)跇?biāo)題寫(xiě)清楚【線上發(fā)貨,無(wú)物流信息】

          賣(mài)點(diǎn):四個(gè)漢字(前端不展示)

          商家推薦語(yǔ):用一句話描述并推薦一下商品的優(yōu)點(diǎn),如:大分量雨前龍井茶 (前端不展示)

          商品類(lèi)目:請(qǐng)根據(jù)商品屬性選擇,可參考:類(lèi)目對(duì)應(yīng)表:https://shimo.im/sheet/AbmrMa54LOgps9qT。不同類(lèi)目涉及的商品規(guī)格信息不同。

          商品規(guī)格:請(qǐng)按實(shí)際情況填寫(xiě)

          價(jià)格:需不高于市場(chǎng)同類(lèi)商品價(jià)格,并且在后續(xù)設(shè)置的訂單套餐價(jià)格范圍內(nèi)

          原價(jià):不填

          傭金比例:0

          運(yùn)費(fèi)設(shè)置:運(yùn)費(fèi)默認(rèn)為包郵,如果您設(shè)置運(yùn)費(fèi)的需求,請(qǐng)新建運(yùn)費(fèi)模板并選擇。

          ※如何新建運(yùn)費(fèi)模板?

          1.選擇【運(yùn)費(fèi)設(shè)置】右邊的【新建運(yùn)費(fèi)模板】

          或者進(jìn)入【物流】-【運(yùn)費(fèi)模板】新建運(yùn)費(fèi)模板

          2.設(shè)置模板名稱(chēng)、寶貝地址

          模板名稱(chēng):請(qǐng)根據(jù)需求隨意設(shè)置

          寶貝地址:寶貝地址為商家發(fā)貨地址,請(qǐng)選擇商品上線后的實(shí)際發(fā)貨地

          3.選擇計(jì)價(jià)方式

          按件數(shù)計(jì)價(jià):選擇按件數(shù)計(jì)價(jià),填寫(xiě)默認(rèn)運(yùn)費(fèi),如 1件10元,沒(méi)增加1件,增加運(yùn)費(fèi)2元。

          按重量計(jì)價(jià):選擇按件數(shù)計(jì)價(jià),填寫(xiě)默認(rèn)運(yùn)費(fèi),如 1kg10元,每增加1kg,增加運(yùn)費(fèi)2元。

          4.設(shè)置指定地區(qū)運(yùn)費(fèi)

          如果有些地區(qū)不采用默認(rèn)運(yùn)費(fèi),需要單獨(dú)設(shè)置。請(qǐng)點(diǎn)擊【為指定地區(qū)設(shè)置運(yùn)費(fèi)】,設(shè)置特定地區(qū)的運(yùn)費(fèi)規(guī)則。計(jì)價(jià)方式 與之前選擇的計(jì)價(jià)方式一致。

          注意:此項(xiàng)不是必須設(shè)置,如統(tǒng)一運(yùn)費(fèi)規(guī)則,不需要設(shè)置此項(xiàng)。

          5.點(diǎn)擊【提交】完成新增運(yùn)費(fèi)模板

          三、設(shè)置產(chǎn)品主圖

          主圖要求如下:

          1.必須上傳5張圖片

          2.圖片必須為正方形(長(zhǎng)寬比1:1)簡(jiǎn)易圖片裁剪教程:https://jingyan.baidu.com/article/cd4c29793d0a39756f6e6077.html

          3.只支持png,jpg,jpeg三種格式的圖片

          四、產(chǎn)品詳情

          1.建議將詳情內(nèi)容做成寬度為600的圖片后上傳,每張圖片大小最好控制在1M左右。只支持png,jpg,jpeg三種格式的圖片。如需上傳動(dòng)圖,請(qǐng)先將圖片擴(kuò)展名改為.jpg。

          (修改方式:http://dwz.cn/7XOHP2)【請(qǐng)注意 一定要上傳圖片!文本形式的產(chǎn)品詳情嚴(yán)重影響轉(zhuǎn)化率,提交審核后會(huì)被駁回哦!】

          2.詳情頁(yè)圖片中要說(shuō)明商品規(guī)格重量、特點(diǎn)、優(yōu)勢(shì)、使用方法、保質(zhì)期等,從多角度盡量展示商品的全部細(xì)節(jié)。文字說(shuō)明建議做成圖片,便于閱讀。

          3.如無(wú)詳情,可將主圖圖片輔以文字說(shuō)明制作成詳情圖片,合理排序后上傳。

          五、訂單套餐

          ↑這是個(gè)GIF↑

          1.首先點(diǎn)擊“創(chuàng)建商品規(guī)格”

          -規(guī)格名稱(chēng):可根據(jù)產(chǎn)品名稱(chēng)填寫(xiě)

          -子規(guī)格名稱(chēng):可根據(jù)商品的規(guī)格類(lèi)型填寫(xiě),如:顏色、套餐組合、圖案、瓶、盒等

          -子規(guī)格選項(xiàng):可填寫(xiě)商品的具體規(guī)格內(nèi)容,如:商品重量、商品數(shù)量、商品尺寸等

          【子規(guī)格的數(shù)量。選項(xiàng)可根據(jù)實(shí)際情況增加減少】

          設(shè)置完成后點(diǎn)擊確定

          2.選擇已經(jīng)保存的規(guī)格名稱(chēng),設(shè)置庫(kù)存價(jià)格商品編碼

          商品編碼不展示給用戶,可自行設(shè)置

          單價(jià)可以大于或者小于售價(jià),但是必須有一個(gè)套餐價(jià)格與售價(jià)保持一致

          庫(kù)存數(shù)量可設(shè)置較大數(shù)值,防止商品賣(mài)光庫(kù)存不足

          六、商品管理

          正在售賣(mài)商品:已經(jīng)提交審核正在線上售賣(mài)商品可以在這里查看

          提交申請(qǐng)商品:已提交審核但仍在審核中的商品可以在這里查看

          下架商品:已被下架商品可以在這里查看

          封禁商品:違規(guī)被封禁處理的商品可以在這里查看

          保存為提交商品:完成商品創(chuàng)建,點(diǎn)擊了【保存】的商品可以在這里查看,如需給保存商品提交審核 請(qǐng)點(diǎn)擊【修改商品】

          回收站:已刪除商品可以在這里查看

          七、商品資質(zhì)

          商品所需相關(guān)資質(zhì),請(qǐng)查看:【特殊類(lèi)目商家資質(zhì)要求】 對(duì)照上傳。

          了解禁止投放商品請(qǐng)查看:【頭條小店禁售商品管理規(guī)范】


          主站蜘蛛池模板: 波多野结衣电影区一区二区三区 | 久久人妻av一区二区软件| 人妻少妇精品视频三区二区一区| 在线电影一区二区三区| 国产无套精品一区二区| 亚洲一区精品视频在线| 伊人久久大香线蕉av一区| 国产av福利一区二区三巨 | 国产乱码精品一区二区三区| 国产精品免费一区二区三区| 日韩高清一区二区三区不卡| 精品福利一区二区三区免费视频| 亚洲码一区二区三区| 波多野结衣的AV一区二区三区| 一区二区三区免费在线观看| 精品国产一区二区麻豆| 亚洲av成人一区二区三区| 亚洲一区二区三区电影| 色欲综合一区二区三区| 无码精品人妻一区二区三区免费看| 国产AV午夜精品一区二区入口 | 男人的天堂av亚洲一区2区| 精品一区高潮喷吹在线播放| 精品一区二区三区中文字幕| 三上悠亚亚洲一区高清| 亚洲日韩精品一区二区三区无码| 日产精品久久久一区二区| 人妻体体内射精一区二区| 日韩精品一区二区三区大桥未久 | 无码精品久久一区二区三区| 国产丝袜一区二区三区在线观看| 国产一区二区在线观看视频| 精品国产高清自在线一区二区三区 | 97精品国产福利一区二区三区| 成人精品一区二区三区中文字幕| 中文字幕aⅴ人妻一区二区| 精品福利一区二区三| 人妻夜夜爽天天爽爽一区| 亚洲国产一区二区三区在线观看| 中日韩一区二区三区| 免费无码毛片一区二区APP|