Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537 Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537
聯(lián)網(wǎng)是由一個(gè)個(gè)站點(diǎn)和網(wǎng)絡(luò)設(shè)備組成的大網(wǎng),我們通過(guò)瀏覽器訪問(wèn)站點(diǎn),站點(diǎn)把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經(jīng)過(guò)瀏覽器解析、渲染,將豐富多彩的網(wǎng)頁(yè)呈現(xiàn)我們眼前。
網(wǎng)絡(luò)爬蟲(chóng),也叫網(wǎng)絡(luò)蜘蛛(Web Spider),如果把互聯(lián)網(wǎng)比喻成一個(gè)蜘蛛網(wǎng),Spider就是一只在網(wǎng)上爬來(lái)爬去的蜘蛛。網(wǎng)絡(luò)爬蟲(chóng)就是根據(jù)網(wǎng)頁(yè)的地址來(lái)尋找網(wǎng)頁(yè)的,也就是全球統(tǒng)一資源定位符URL,用來(lái)定義互聯(lián)網(wǎng)上一個(gè)唯一的資源 例如:一張圖片、一個(gè)文件、一段視頻都可以用url唯一確定。
1. 請(qǐng)求庫(kù):requests,selenium(可以驅(qū)動(dòng)瀏覽器解析渲染CSS和JS,但有性能劣勢(shì)(有用沒(méi)用的網(wǎng)頁(yè)都會(huì)加載))
2. 解析庫(kù):正則,xpath,beautifulsoup,pyquery
3. 存儲(chǔ)庫(kù):文件,MySQL,Mongodb,Redis
1. URL分析
我們首先打開(kāi)淘寶聯(lián)盟網(wǎng)址,在搜索欄隨便輸入一件 商品,比如“鞋子”
2. 按F12可以查看訪問(wèn)當(dāng)前網(wǎng)頁(yè)發(fā)送的所有請(qǐng)求
現(xiàn)在發(fā)現(xiàn)沒(méi)東西,因?yàn)橛械木W(wǎng)站是動(dòng)態(tài)加載的,當(dāng)我們下拉滾動(dòng)條時(shí),看到有如下請(qǐng)求:
然后點(diǎn)擊下一頁(yè),在 下面的請(qǐng)求:
通過(guò)分析這就是我們所要請(qǐng)求的URL。
3. 請(qǐng)求頭
User-agent:請(qǐng)求頭中如果沒(méi)有user-agent客戶端配置,服務(wù)端可能將你當(dāng)做一個(gè)非法用戶host;
cookies:cookie用來(lái)保存登錄信息
注意: 一般做爬蟲(chóng)都會(huì)加上請(qǐng)求頭
請(qǐng)求頭需要注意的參數(shù):
(1)Referrer:訪問(wèn)源至哪里來(lái)(一些大型網(wǎng)站,會(huì)通過(guò)Referrer 做防盜鏈策略;所有爬蟲(chóng)也要注意模擬)
(2)User-Agent:訪問(wèn)的瀏覽器(要加上否則會(huì)被當(dāng)成爬蟲(chóng)程序)
(3)cookie:請(qǐng)求頭注意攜帶
4、請(qǐng)求體
如果是get方式,請(qǐng)求體沒(méi)有內(nèi)容 (get請(qǐng)求的請(qǐng)求體放在 url后面參數(shù)中,直接能看到)
如果是post方式,請(qǐng)求體是format data
ps:
1、登錄窗口,文件上傳等,信息都會(huì)被附加到請(qǐng)求體內(nèi)
2、登錄,輸入錯(cuò)誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁(yè)面通常會(huì)跳轉(zhuǎn),無(wú)法捕捉到post
5、響應(yīng)狀態(tài)碼
200:代表成功
301:代表跳轉(zhuǎn)
404:文件不存在
403:無(wú)權(quán)限訪問(wèn)
502:服務(wù)器錯(cuò)誤
我們通過(guò)不同的方式來(lái)分別請(qǐng)求并獲取響應(yīng),具體實(shí)現(xiàn)如下:
1.url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict 采用 urllib2 實(shí)現(xiàn)
#url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict 采用 urllib2 實(shí)現(xiàn)
def getJSONText(url):
try:
page=urllib2.urlopen(url)
data=page.read()
#print (data)
#print (type(data))
#dict_data=json.loads(data)
dict_data=demjson.decode(data)
#print dict_data
#print type(dict_data)
return dict_data
except:
return ""
2.#url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict 采用 添加請(qǐng)求頭、設(shè)置代理的方式 實(shí)現(xiàn)
#url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict 采用 添加請(qǐng)求頭、設(shè)置代理的方式 實(shí)現(xiàn)
def getJSONText2(url):
try:
proxies={
"http": "http://221.10.159.234:1337",
"https": "https://60.255.186.169:8888",
}
headers={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}
data=requests.get(url, headers=headers,proxies=proxies).text
print (data)
print (type(data))
# dict_data=json.loads(data)
dict_data=demjson.decode(data)
print dict_data
print type(dict_data)
return dict_data
except:
return ""
3.采用selenium實(shí)現(xiàn)
#url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict 采用selenium實(shí)現(xiàn)
def get_browser_text(url):
#browser=webdriver.Chrome(executable_path="C:\\Program Files (x86)\\Google\\Chrome\\Application\\chromedriver.exe")
browser=webdriver.Firefox(executable_path="C:\\Program Files (x86)\\Mozilla Firefox\\geckodriver.exe")
try:
browser.get(url)
print(browser.page_source)
browserdata=browser.page_source
browser.close()
# res=r'<a .*?>(.*?)</a>'
res=r'<pre .*?>(.*?)</pre>'
json_data=re.findall(res, browserdata, re.S | re.M)
print json_data
for value in json_data:
print value
dict_data=demjson.decode(json_data)
print 'dict_data:'
print dict_data
# print type(dict_data)
return dict_data
except:
return ""
4.
# 獲取單個(gè)商品的HTML代碼并用正則匹配出描述、服務(wù)、物流3項(xiàng)參數(shù) 采用urllib2
def getHTMLText(url):
try:
data=urllib2.urlopen(url).read()
res=r'<dd class="tb-rate-(.*?)"'
data_list=re.findall(res, data, re.S | re.M)
print type(data_list)
print data_list[0]
#for value in mm:
# print value
return data_list
except:
return ""
#coding=utf-8
__author__='yansong'
# 2018.07.12
# 抓取淘寶聯(lián)盟 比率>10 ,描述、服務(wù)、物流3項(xiàng)參數(shù)高于或持平于同行業(yè)的商品圖片。
import json
import demjson
import urllib2
import os
import time
import requests
import re
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
import sys
reload(sys)
sys.setdefaultencoding('utf8')
path_name=u'T恤寬松日系男款' #圖片保存的文件夾名稱(chēng)
Myname=u'T恤寬松日系男款' #搜索關(guān)鍵字
# 創(chuàng)建文件夾
path=os.getcwd() # 獲取此腳本所在目錄
new_path=os.path.join(path,path_name)
if not os.path.isdir(new_path):
os.mkdir(new_path)
#url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict 采用selenium實(shí)現(xiàn)
def get_browser_text(url):
#browser=webdriver.Chrome(executable_path="C:\\Program Files (x86)\\Google\\Chrome\\Application\\chromedriver.exe")
browser=webdriver.Firefox(executable_path="C:\\Program Files (x86)\\Mozilla Firefox\\geckodriver.exe")
try:
browser.get(url)
print(browser.page_source)
browserdata=browser.page_source
browser.close()
# res=r'<a .*?>(.*?)</a>'
res=r'<pre .*?>(.*?)</pre>'
json_data=re.findall(res, browserdata, re.S | re.M)
print json_data
for value in json_data:
print value
dict_data=demjson.decode(json_data)
print 'dict_data:'
print dict_data
# print type(dict_data)
return dict_data
except:
return ""
#url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict 采用 urllib2 實(shí)現(xiàn)
def getJSONText(url):
try:
page=urllib2.urlopen(url)
data=page.read()
#print (data)
#print (type(data))
#dict_data=json.loads(data)
dict_data=demjson.decode(data)
#print dict_data
#print type(dict_data)
return dict_data
except:
return ""
# 獲取單個(gè)商品的HTML代碼并用正則匹配出描述、服務(wù)、物流3項(xiàng)參數(shù) 采用urllib2
def getHTMLText(url):
try:
data=urllib2.urlopen(url).read()
res=r'<dd class="tb-rate-(.*?)"'
data_list=re.findall(res, data, re.S | re.M)
print type(data_list)
print data_list[0]
#for value in mm:
# print value
return data_list
except:
return ""
#url請(qǐng)求,獲取響應(yīng)的json數(shù)據(jù),并將json數(shù)據(jù)轉(zhuǎn)換成dict 采用 添加請(qǐng)求頭、設(shè)置代理的方式 實(shí)現(xiàn)
def getJSONText2(url):
try:
proxies={
"http": "http://221.10.159.234:1337",
"https": "https://60.255.186.169:8888",
}
headers={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}
data=requests.get(url, headers=headers,proxies=proxies).text
print (data)
print (type(data))
# dict_data=json.loads(data)
dict_data=demjson.decode(data)
print dict_data
print type(dict_data)
return dict_data
except:
return ""
def getJSONText3(url):
try:
driver=webdriver.Chrome(executable_path="C:\\Program Files (x86)\\Google\\Chrome\\Application\\chromedriver.exe")
driver.get(url) # 訪問(wèn)淘寶寶貝頁(yè)面,獲取cookie
# driver.get(taobao_comment_url) # 直接訪問(wèn)寶貝評(píng)論會(huì)被反爬蟲(chóng)檢測(cè)到。上一步獲得cookie后可得到評(píng)論數(shù)據(jù)
print(driver.find_element_by_xpath('/html/body').text)
data=driver.find_element_by_xpath('/html/body').text
#data=requests.get(url, headers=headers,proxies=proxies).text
print (data)
print (type(data))
# dict_data=json.loads(data)
dict_data=demjson.decode(data)
print dict_data
print type(dict_data)
return dict_data
except:
return ""
def mytaobao_spider():
# 每一頁(yè)的url 循環(huán)抓取60頁(yè)
for page in range(0, 60):
url=(
'http://pub.alimama.com/items/search.json?q=%s&_t=1531556288035&toPage=%d&perPageSize=50&auctionTag=&shopTag=yxjh&t=1531556427336&_tb_token_=7e73deef30e18&pvid=10_117.136.70.61_599_1531556285246' % (
Myname, page))
# url=('http://pub.alimama.com/items/channel/qqhd.json?q=%s&channel=qqhd&_t=1531121449018&toPage=%d&perPageSize=50&shopTag=&t=1531125125414&_tb_token_=eeee6ee3be688&pvid=19_118.112.188.32_688_1531125125232'%(Myname,page))
# url=('http://pub.alimama.com/items/search.json?q=%E9%9E%8B%E5%AD%90&_t=1531368912715&auctionTag=&perPageSize=50&shopTag=yxjh&t=1531368913289&_tb_token_=e370663ebef17&pvid=10_118.112.188.32_9532_1531368912863')
print url
time.sleep(2) # 延時(shí)2秒,添加延時(shí)操作是因?yàn)樘詫氂蟹磁老x(chóng)機(jī)制,過(guò)于頻繁的訪問(wèn)IP可能會(huì)被限制
url_data=getJSONText(url)
# 一頁(yè)中每件商品的標(biāo)簽信息
for i in range(0, 50):
time.sleep(1)
try:
# print type(url_data['data']['pageList'][i]['pictUrl'])
pictUrl=url_data['data']['pageList'][i]['pictUrl'] # 圖片url
sellerId=url_data['data']['pageList'][i]['sellerId'] # 商品id
auctionUrl=url_data['data']['pageList'][i]['auctionUrl'] # 淘寶鏈接
auctionId=url_data['data']['pageList'][i][
'auctionId'] # 淘寶鏈接='http://item.taobao.com/item.htm?id=%d'%(auctionId)
tkRate=url_data['data']['pageList'][i]['tkRate'] # 比率
zkPrice=url_data['data']['pageList'][i]['zkPrice'] # 價(jià)格
# 需要抓取比率大于10.00的商品信息
if tkRate > 10.00:
# time.sleep(1)
# print '詳細(xì)信息:'
# print type(tkRate)
# print type(zkPrice)
# print '比率:%f' % (tkRate)
# print '價(jià)格:%f' % (zkPrice)
# print sellerId
# print auctionId
# print pictUrl
# print auctionUrl # 淘寶鏈接
# print type(sellerId)
print auctionUrl
# 每件商品的子url (描述相符、發(fā)貨速度、服務(wù)態(tài)度 等信息)
# sub_url=('http://pub.alimama.com/pubauc/searchPromotionInfo.json?oriMemberId=%d&blockId=&t=1531369204612&_tb_token_=e370663ebef17&pvid=10_118.112.188.32_760_1531368931581' % (sellerId))
sub_url=auctionUrl # 每件商品的淘寶url
sub_url_data=getHTMLText(sub_url) # 獲取店鋪的 描述、服務(wù)、物流 信息
print type(sub_url_data)
print len(sub_url_data)
# 如果返回的是空字符串, 則說(shuō)明沒(méi)有取到我們想要的字段,是因?yàn)樘詫氂胁煌捻?yè)面,對(duì)于這種頁(yè)面我們需要進(jìn)一步分析下面的url
if (len(sub_url_data)==0):
info_url=('https://world.taobao.com/item/%d.htm' % (auctionId))
info_data=urllib2.urlopen(info_url).read()
res_info=r'<li class="([^s].*?)<img'
tmp_url_data=re.findall(res_info, info_data, re.S | re.M)
print "tmp_url_data:"
for value1 in tmp_url_data:
print value1
sub_url_data=[]
score_list=[x[0:4] for x in tmp_url_data] # 截取前面5位
print 'new_list:'
for score in score_list:
print score
if score=='down':
score='lower' # d第一種頁(yè)面與第二種頁(yè)面返回的店鋪評(píng)定信息不同,需轉(zhuǎn)換成統(tǒng)一的方便后面處理,將 down 轉(zhuǎn)換為 lower
sub_url_data.append(score)
print '替換后的list元素:'
for level_data in sub_url_data:
print level_data
# 如果3項(xiàng)評(píng)定參數(shù)都不是‘lower’ 就將圖片和相關(guān)信息抓取出來(lái) 任意一項(xiàng)參數(shù)為‘lower’都不符合要求
if ((not (sub_url_data[0]=='lower')) and (not (sub_url_data[1]=='lower')) and (
not (sub_url_data[2]=='lower'))):
# for value in sub_url_data:
# print value
mypictUrl='http:' + pictUrl # 圖片url
picture_content=urllib2.urlopen(mypictUrl).read()
picture_name=auctionUrl + '.jpg' # 拼接圖片名稱(chēng)
print picture_name
time.sleep(1)
# 需要寫(xiě)入文件的信息
spider_info='url:' + url + '\n' + ' sub_url:' + sub_url + '\n' + ' 淘寶鏈接:' + auctionUrl + '\n' + ' mypictUrl:' + mypictUrl + '\n\n'
try:
# 寫(xiě)圖片
index_num=picture_name.index('id=')
with open(path_name + '/' + picture_name[index_num:], 'wb') as code:
code.write(picture_content)
# 寫(xiě)URL信息
with open(path_name + '/' + 'spider.txt', 'a') as spider_code:
spider_code.write(spider_info)
except (IOError, ZeroDivisionError), e:
print e
print "Error: 沒(méi)有找到圖片文件或讀取文件失敗"
else:
print "圖片寫(xiě)入成功"
time.sleep(1)
except (IndexError, KeyError, TypeError), e:
print e
print "每件商品信息讀取失敗"
else:
pass
# print "每件商品的標(biāo)簽信息讀取成功"
if __name__=='__main__':
mytaobao_spider()
抓取的圖片在指定的目錄下:
同時(shí)寫(xiě)了一個(gè)spider.txt文件,里面是詳細(xì)的URL信息:
單個(gè)商品的淘寶鏈接如:http://item.taobao.com/item.htm?id=566676904510
淘寶鏈接構(gòu)成: http://item.taobao.com/item.htm?+id=566676904510 抓取的圖片名稱(chēng)是以商品的id來(lái)命名的,我們根據(jù)圖片就可以快速找到該商品,該爬蟲(chóng)抓取的都是 比率>10 ,描述、服務(wù)、物流3項(xiàng)參數(shù)高于或持平于同行業(yè)的商品,也可以根據(jù)自己需要,抓取價(jià)格、銷(xiāo)售量等符合自己要求的商品。
樣在微信上發(fā)淘寶商品鏈接?相信很多淘寶賣(mài)家都有過(guò)這樣的疑問(wèn),不過(guò)這個(gè)貌似都是2014年的話題了拖到現(xiàn)在好像沒(méi)什么特別的討論價(jià)值,但是淘寶商品如何有效精準(zhǔn)的推廣到微信是一直賣(mài)家們比較關(guān)注的問(wèn)題。其實(shí)就淘寶商品推廣到微信有很多優(yōu)質(zhì)的淘寶賣(mài)家在這方面很有心得,他們經(jīng)常會(huì)在一些比較知名的行業(yè)論壇分享,到目前為止有很多的中小賣(mài)家紛紛效仿把淘寶流量分到微信上。淘寶鏈接分享到微信,目前比較常規(guī)的方法就是淘寶商品的分享按鈕,可以直接復(fù)制口令到微信,很方便。這里小編在這里再分享一個(gè)可以把淘寶圖文鏈接分享到微信的方法技巧:
第一步:打開(kāi)百度網(wǎng)頁(yè)搜索:"甩手工具箱"并下載,登錄工具箱;
第二步:打開(kāi)工具首頁(yè),找到“推廣商品到微信”功能;
第三步:進(jìn)入甩手工具箱常規(guī)的抓取頁(yè)面,有三種抓取方式供選擇;
第四步:以第一種抓取方式為例:點(diǎn)擊進(jìn)入第一個(gè)店鋪,進(jìn)入店鋪首頁(yè),抓取整頁(yè)or整店商品;
第五步:選擇性抓取所需生成二維碼的商品,選擇下一步;
第六步:批量生成商品二維碼,通過(guò)掃描二維碼即可實(shí)現(xiàn)淘寶商品圖文鏈接快速分享到微信朋友圈。
通過(guò)上面六個(gè)步驟的操作即可完成”推廣商品到微信”的全過(guò)程,簡(jiǎn)單總結(jié)就三個(gè)步驟:搜索-抓取-生成,可以用作商品二維碼,也可以實(shí)時(shí)分享到微信朋友圈。
很多賣(mài)家朋友通常是把店鋪流量通過(guò)返現(xiàn)或者打折等方式導(dǎo)流到微信圈子中,然后通過(guò)日常的維護(hù),在合適的時(shí)間再導(dǎo)流回淘寶。也有的朋友,通過(guò)自己培養(yǎng)精準(zhǔn)的微信朋友圈子,在微信上發(fā)淘寶商品鏈接導(dǎo)流到淘寶店鋪。所以在解決完"怎樣在微信上發(fā)淘寶商品鏈接"問(wèn)題之后,需要把重心放在微信圈子的維護(hù)的工作上。
更多內(nèi)容關(guān)注微信:450647316
寫(xiě)在最前面※
【關(guān)于商品審核時(shí)間】
工作日
10:30之前提交審核的,11:00之前審?fù)?/p>
15:00之前提交審核的,15:30之前審?fù)?/p>
20:00之前提交審核的,20:30之前審?fù)?/p>
周末/公共假期
20:00之前提交審核的,20:30之前審?fù)?/p>
如果審核遇到問(wèn)題,請(qǐng)將審核未通過(guò)的商品編號(hào)發(fā)到群里(如:6535408016756310200,可在商品管理中查看),我們會(huì)集中為大家處理。
商品前端展示與后臺(tái)錄入內(nèi)容對(duì)照示例:
點(diǎn)擊“商品”—“創(chuàng)建商品”
支付方式:在線支付。目前小店僅支持這一種支付方式
商品URL:(此項(xiàng)選填)可填入淘寶/天貓(其他平臺(tái)暫不支持)商品鏈接后,點(diǎn)擊獲取寶貝詳情,自動(dòng)獲取已有寶貝已有淘寶/天貓商品信息
-效果如圖【抓取后的信息請(qǐng)認(rèn)真核對(duì),如有順序顛倒、圖片未能正常抓取 請(qǐng)手動(dòng)補(bǔ)充調(diào)整】
產(chǎn)品標(biāo)題:準(zhǔn)確簡(jiǎn)潔的描述商品,如:不銹鋼真空保溫杯,長(zhǎng)效保溫,支持驗(yàn)貨
※如果是虛擬商品,請(qǐng)?jiān)跇?biāo)題寫(xiě)清楚【線上發(fā)貨,無(wú)物流信息】
賣(mài)點(diǎn):四個(gè)漢字(前端不展示)
商家推薦語(yǔ):用一句話描述并推薦一下商品的優(yōu)點(diǎn),如:大分量雨前龍井茶 (前端不展示)
商品類(lèi)目:請(qǐng)根據(jù)商品屬性選擇,可參考:類(lèi)目對(duì)應(yīng)表:https://shimo.im/sheet/AbmrMa54LOgps9qT。不同類(lèi)目涉及的商品規(guī)格信息不同。
商品規(guī)格:請(qǐng)按實(shí)際情況填寫(xiě)
價(jià)格:需不高于市場(chǎng)同類(lèi)商品價(jià)格,并且在后續(xù)設(shè)置的訂單套餐價(jià)格范圍內(nèi)
原價(jià):不填
傭金比例:0
運(yùn)費(fèi)設(shè)置:運(yùn)費(fèi)默認(rèn)為包郵,如果您設(shè)置運(yùn)費(fèi)的需求,請(qǐng)新建運(yùn)費(fèi)模板并選擇。
※如何新建運(yùn)費(fèi)模板?
1.選擇【運(yùn)費(fèi)設(shè)置】右邊的【新建運(yùn)費(fèi)模板】
或者進(jìn)入【物流】-【運(yùn)費(fèi)模板】新建運(yùn)費(fèi)模板
2.設(shè)置模板名稱(chēng)、寶貝地址
模板名稱(chēng):請(qǐng)根據(jù)需求隨意設(shè)置
寶貝地址:寶貝地址為商家發(fā)貨地址,請(qǐng)選擇商品上線后的實(shí)際發(fā)貨地
3.選擇計(jì)價(jià)方式
按件數(shù)計(jì)價(jià):選擇按件數(shù)計(jì)價(jià),填寫(xiě)默認(rèn)運(yùn)費(fèi),如 1件10元,沒(méi)增加1件,增加運(yùn)費(fèi)2元。
按重量計(jì)價(jià):選擇按件數(shù)計(jì)價(jià),填寫(xiě)默認(rèn)運(yùn)費(fèi),如 1kg10元,每增加1kg,增加運(yùn)費(fèi)2元。
4.設(shè)置指定地區(qū)運(yùn)費(fèi)
如果有些地區(qū)不采用默認(rèn)運(yùn)費(fèi),需要單獨(dú)設(shè)置。請(qǐng)點(diǎn)擊【為指定地區(qū)設(shè)置運(yùn)費(fèi)】,設(shè)置特定地區(qū)的運(yùn)費(fèi)規(guī)則。計(jì)價(jià)方式 與之前選擇的計(jì)價(jià)方式一致。
注意:此項(xiàng)不是必須設(shè)置,如統(tǒng)一運(yùn)費(fèi)規(guī)則,不需要設(shè)置此項(xiàng)。
5.點(diǎn)擊【提交】完成新增運(yùn)費(fèi)模板
主圖要求如下:
1.必須上傳5張圖片
2.圖片必須為正方形(長(zhǎng)寬比1:1)簡(jiǎn)易圖片裁剪教程:https://jingyan.baidu.com/article/cd4c29793d0a39756f6e6077.html
3.只支持png,jpg,jpeg三種格式的圖片
1.建議將詳情內(nèi)容做成寬度為600的圖片后上傳,每張圖片大小最好控制在1M左右。只支持png,jpg,jpeg三種格式的圖片。如需上傳動(dòng)圖,請(qǐng)先將圖片擴(kuò)展名改為.jpg。
(修改方式:http://dwz.cn/7XOHP2)【請(qǐng)注意 一定要上傳圖片!文本形式的產(chǎn)品詳情嚴(yán)重影響轉(zhuǎn)化率,提交審核后會(huì)被駁回哦!】
2.詳情頁(yè)圖片中要說(shuō)明商品規(guī)格重量、特點(diǎn)、優(yōu)勢(shì)、使用方法、保質(zhì)期等,從多角度盡量展示商品的全部細(xì)節(jié)。文字說(shuō)明建議做成圖片,便于閱讀。
3.如無(wú)詳情,可將主圖圖片輔以文字說(shuō)明制作成詳情圖片,合理排序后上傳。
↑這是個(gè)GIF↑
1.首先點(diǎn)擊“創(chuàng)建商品規(guī)格”
-規(guī)格名稱(chēng):可根據(jù)產(chǎn)品名稱(chēng)填寫(xiě)
-子規(guī)格名稱(chēng):可根據(jù)商品的規(guī)格類(lèi)型填寫(xiě),如:顏色、套餐組合、圖案、瓶、盒等
-子規(guī)格選項(xiàng):可填寫(xiě)商品的具體規(guī)格內(nèi)容,如:商品重量、商品數(shù)量、商品尺寸等
【子規(guī)格的數(shù)量。選項(xiàng)可根據(jù)實(shí)際情況增加減少】
設(shè)置完成后點(diǎn)擊確定
2.選擇已經(jīng)保存的規(guī)格名稱(chēng),設(shè)置庫(kù)存價(jià)格商品編碼
商品編碼不展示給用戶,可自行設(shè)置
單價(jià)可以大于或者小于售價(jià),但是必須有一個(gè)套餐價(jià)格與售價(jià)保持一致
庫(kù)存數(shù)量可設(shè)置較大數(shù)值,防止商品賣(mài)光庫(kù)存不足
正在售賣(mài)商品:已經(jīng)提交審核正在線上售賣(mài)商品可以在這里查看
提交申請(qǐng)商品:已提交審核但仍在審核中的商品可以在這里查看
下架商品:已被下架商品可以在這里查看
封禁商品:違規(guī)被封禁處理的商品可以在這里查看
保存為提交商品:完成商品創(chuàng)建,點(diǎn)擊了【保存】的商品可以在這里查看,如需給保存商品提交審核 請(qǐng)點(diǎn)擊【修改商品】
回收站:已刪除商品可以在這里查看
商品所需相關(guān)資質(zhì),請(qǐng)查看:【特殊類(lèi)目商家資質(zhì)要求】 對(duì)照上傳。
了解禁止投放商品請(qǐng)查看:【頭條小店禁售商品管理規(guī)范】
*請(qǐng)認(rèn)真填寫(xiě)需求信息,我們會(huì)在24小時(shí)內(nèi)與您取得聯(lián)系。