在当今信息发达的时代,网上购物已经成为当今不可或缺的一部分,网上购物已经完全融入了人们的生活。每个网上购物平台每天都会产生巨大的用户行为数据。本次,我们希望通过对淘宝用户行为的数据分析来解决以下业务问题:
1.分析用户从浏览到购买的转换和损失2.分析研究时间段内用户的日常活动,了解用户行为的时间模式3.找出最受欢迎的产品4.找出有价值的用户这四个问题的分析思路和指标如下:
(2)模型使用以下两种模型来分析上述问题:
1.AARRR漏斗模型AARRR模型是指Acquisition、Activation、Retention、Revenue、Referral,即用户获取、用户激活、用户保留、用户收入和用户沟通。这是产品操作中常见的模型。结合产品本身的特点和产品的生命周期位置,关注不同的数据指标,最终制定不同的操作策略。从下图中AARRR在模型图中,很明显,整个用户的生命周期呈逐渐下降趋势。
AARRR模型各环节需要注意的指标如下:
2.RFM模型RFM模型是衡量当前用户价值和潜在客户价值的重要工具和手段。RFM是Rencency(最新消费),Frequency(消费频率),Monetary(消费金额),三个指标的首字母组合。
R值:最近一次消费(Recency)
理论上,上一次消费是指上一次消费的时间R价值越小的客户是价值越高的客户,也就是说,他们最有可能对商店的服务做出反应。目前,网上购物很方便。客户有更多的购买选择和更低的购买成本。消除区域限制,客户很容易流失。因此,为了提高回购率和保留率,他们需要始终保持警惕R值。
F值:消费频率(Frequency)
消费频率是客户在有限期内购买的次数。我们可以说,最常购买的客户也是最满意的客户。如果你相信品牌和商店的忠诚度,最常购买的消费者会有最高的忠诚度。增加客户购买次数意味着从竞争对手那里窃取市场份额,从他人那里赚取营业额。
M值:消费金额(Monetary)
所有数据库报告的支柱也可以验证帕雷托法则(Pareto’s Law)——公司80%的收入来自20%的客户。理论上,M值和F值是一样的,都有时间范围,是指一段时间内的消费金额。
理解数据数据来源:
User Behavior Data from Taobao for Recommendation-数据集-阿里云天池本数据集包括2017年11月25日至2017年12月3日2017年12月3日之间的所有行为(包括点击、购买、额外购买和收集)。数据集的每一行都表示用户行为,用户ID、商品ID、商品类目ID、由行为类型和时间戳组成,并用逗号分开。由于计算机性能的限制,所有行为数据超过1亿条,只导入前500万条数据进行分析。每个字段的含义和相应的数据量如下:
三、数据清理(1)选择子集用python导入前500万条数据,原数据未列出,导入时加上相应的列名。
import numpy as npimport pandas as pdimport ** tplotlib.pyplot as plt% ** tplotlib inlinefilename='H:/UserBehavior.csv'df=pd.read_csv(filename,header=None,nrows=5000000,dtype='object', names=['用户ID','商品ID','商品类目ID','行为类型','时间'])df.head()要保留所有数据,需要使用5个字段。
(2)重命名列名将合适的列名添加到导入数据中,无需重命名列名。
(3)删除重复值#删除重复数据print('删除重复数据前的大小:',df.shape)df.drop_duplicates()print('删除重复数据后的大小:',df.shape)删除重复数据前的大小: (5000000,5)删除重复数据后的大小: (5000000,5)说明没有重复值。
(4)缺失数据处理首先检查每列缺失值的数量:
#检查是否有缺失值df.isnull().sum()用户ID 0商品ID 0商品类目ID 0000000000000000000000000000时 0dtype: int **发现没有缺失值。
(5)数据类型转换首先查看每列数据类型:
#查看数据类型df.dtypes用户ID object商品ID object商品类目ID object行为类型 行为类型object时间时间时间 时间 时间 时间 时间 时间 时间 时间 时间 时间 时间 时间 时间 时间 时间 时间objectdtype: object导入数据时,将每列设置为'object'类型。只有时间列需要转换,先用to_datetime函数将时间转化为可辨认的时间形式,转换后的时间比北京时间慢8个小时,加上8个小时:
#转换后的时间比北京慢8小时,加上8小时import datetime df['时间']=pd.to_datetime(df['时间'],unit='s') datetime.timedelta(hours=8)df.head()转换后的时间是年-月-日 :分:秒格式分为三列:日期列-年-月-日;时间点列-时间(如:20点到21点之间的时间显示为20点);周列-月-日 星期。
#时间分列#如:2017-11-25def to_date(x): tstr=x.strftime('%Y-%m-%d %H') return tstr.split(' ')[0]#获取时间点,如:01def to_time(x): tstr=x.strftime('%Y-%m-%d %H') return tstr.split(' ')[1] #获取带周简化日期,如:11-25周六def getWeek(x): tstr=x.strftime('%Y-%m-%d') dDay=tstr.split('-',1)[1] weekDict={0:'周一',1:'周二',2:'周三',3:'周四',4:'周五',5:'周六',6:'周日'} dWeek=x.weekday() return dDay weekDict[dWeek]df['日期']=df['时间']. ** p(to_date)df['星期']=df['时间']. ** p(getWeek)df['时间点']=df['时间']. ** p(to_time)#删除原始时间列df=df.drop(columns='时间')df.head()(6)数据排序#按日期和时间点排序df=df.sort_values(by=['日期','时间点'],ascending=True)#排序后,重命名行索引df=df.reset_index(drop=True)df.head()(7)异常值处理我们研究了2017年11月25日至2017年12月3日的行为数据,但从上述排名结果可以看出,一些超出此时间范围的数据被删除:
#删除异常值print('删除异常值前的尺寸:',df.shape)querySer=(df.loc[:,'日期']>'2017-11-24') & (df.loc[:,'日期']<'2017-12-04')behaviorDf=df.loc[querySer,:]print('删除异常值后的大小:',behaviorDf.shape)删除异常值前的尺寸: (5000000,7)删除异常值后的大小: (4997368,7)#删除异常值后,重命名行名behaviorDf=behaviorDf.reset_index(drop=True)behaviorDf.head()四、数据分析本次分析主要解决以下业务问题:
1.分析用户从浏览到购买的转换和损失
2.分析研究时间段内用户的日常活动,了解用户行为的时间模式
3.找出最受欢迎的产品
4.找出有价值的用户
(1)转化和损失分析首先分析每种行为类型的数量:
#统计每种行为类型behNum=behaviorDf['行为类型'].value_counts()behNum.sort_values()buy 100131fav 145125cart 279512pv 4472600Name: 行为类型,dtype: int ** behNum.sort_values().plot(kind='barh')< ** tplotlib.axes._subplots.AxesSubplot at 0x2841a3cbb38>四种用户行为:点击、收集、额外购买和购买,其中点击占用户总行为数89.50而其他三种行为所占比例都很低,尤其是购买只占2%。
购买转化率=buy/pv=100131/4472600=2.24%
转化率很低,可能是因为用户在平台上浏览的商品大多不是用户需要的。计算同一用户点击的商品的最终购买情况,并多次点击同一用户的同一商品。
buyQuery=behaviorDf.loc[:,'行为类型']=='buy'buyDf=behaviorDf.loc[buyQuery,:]pvQuery=behaviorDf.loc[:,'行为类型']=='pv'pvDf=behaviorDf.loc[pvQuery,:]#重新点击行为总数(同一用户多次点击同一商品只计算一次)pvDf[['用户ID','商品ID']].drop_duplicates().shape[0]3545310#用户点击商品并购买成功数量(去重)buy2pv=pd.merge(buyDf.drop_duplicates(['用户ID','商品ID']), pvDf.drop_duplicates(['用户ID','商品ID']), on=['用户ID','商品ID'])buy2pv.shape[0] ** 818(3545310- ** 818)/3545310=98.17数据显示,用户点击的商品有%98.17%没有成功购买。用户在平台上浏览的大品大多不是用户需要的。用户花了很多时间浏览和寻找合适的产品。电子商务平台可以根据用户肖像推送用户可能需要的商品,优化平台的筛选功能,使用户更容易找到合适的产品,提高转化率。
统计研究期间的访客数:
#访客数UVUV=len(behaviorDf['用户ID'].unique())UV48984平均访问量=PV/UV=4472600/48984=91
统计每种行为的独立用户数:
#有过pv的用户pvUnique=pvDf['用户ID'].unique()#有过cart的用户cartQuery=behaviorDf.loc[:,'行为类型']=='cart'cartDf=behaviorDf.loc[cartQuery,:]cartUnique=cartDf['用户ID'].unique()#有过fav的用户favQuery=behaviorDf.loc[:,'行为类型']=='fav'favDf=behaviorDf.loc[favQuery,:]favUnique=favDf['用户ID'].unique()#有过buy的用户buyUnique=buyDf['用户ID'].unique()#每个行为的独立用户数uniqueUser=pd.Series([len(buyUnique),len(favUnique),len(cartUnique),len(pvUnique)], index=['buy','fav','cart','pv'])uniqueUserbuy 33286fav 19489cart 36906pv 48782dtype: int ** uniqueUser.plot(kind='barh')< ** tplotlib.axes._subplots.AxesSubplot at 0x2840000a6d8>研究时间内,有过消费(即发生了购买行为)的用户数为33286,结合访问数,可以算出流失率,流失率=(48984-33286)/48984=32%
对于流失率,电商平台要结合行业数据,以及以往数据,分析流失率是否是正常范围。
还有一类用户,他们只点击了,并没有过收藏、加购和购买的行为,我们要分析此类用户的占比,将此类用户比率称为研究时间内的跳失率。上面32%的“流失用户”中,有的可能在不久的将来还会成为购买用户,因为有的加购或收藏了商品;但是“跳失用户”只进行了点击,再成为活跃用户的可能性很小。
#只浏览,没有收藏、加购和购买的用户数lose=0for x in pvUnique: if (x not in cartUnique)&(x not in favUnique)&(x not in buyUnique): lose+=1lose2871跳失率=2871/48984=5.86%
计算出来的跳失率为5.86%,数据看上去不是很大,但电商平台还是要结合行业数据,以及以往数据,分析是否是正常范围。平台应该在用户激活(Activation)环节促使用户最短时间内找到产品的“啊哈”时刻,提高转化率,降低跳失率和流失率。
(2)用户行为的时间模式分析对每天的用户行为数进行分析:
#每天的购买行为数buyN=buyDf.groupby('星期')['用户ID'].count()buyN.name='buy'#每天的加购行为数cartN=cartDf.groupby('星期')['用户ID'].count()cartN.name='cart'#每天的收藏行为数favN=favDf.groupby('星期')['用户ID'].count()favN.name='fav'#每天的点击行为数pvN=pvDf.groupby('星期')['用户ID'].count()pvN.name='pv'#每天的每种行为数存放在数据框里dayNum=pd.concat([buyN,cartN,favN,pvN],axis=1)dayNumdayNum.sort_index(ascending=False).plot(kind='barh',stacked=True)< ** tplotlib.axes._subplots.AxesSubplot at 0x28400a23828>从每天每种行为数量的堆积柱状图可以看出: 用户行为的基本规律是周末的数量高于工作日,周二相对而言行为数量较少。这跟大部分人的工作休息时间相符,可能周末休息,有更多的时间用于网购。但12月2日和12月3日这个周末的行为数比上个周末多很多,核实是否平台在这个周末有做了促销活动。
按时间点对行为数量汇总并绘图:
#按时间点统计timeNum=behaviorDf['时间点'].value_counts()timeNum.sort_index()00 16705101 7602702 4169203 2929904 2507905 3133006 6717107 12471008 17298609 21191710 24350811 23747412 23946213 26285914 25772815 26738816 25745417 23372018 24094919 30115720 36535621 41870922 41162323 312719Name: 时间点, dtype: int ** timeNum.sort_index().plot(kind='bar')< ** tplotlib.axes._subplots.AxesSubplot at 0x2842c662860>从0点到23点的用户行为数可发现:从19点开始用户行为数稳步上升,21、22点是一天的最高峰,23点开始有所下滑,1点至7点之间用户行为数都很少,7点后缓慢上升,到中午13点左右有一个小高峰,然后17、18点是个低谷。这跟人们的睡眠、通勤、吃饭等时间点比较吻合,所以平台上新或者开展活动时间最好根据用户行为习惯,选择20点至23点之间的流量高峰期。
(3)商品和类目分析关于“受欢迎”的产品,有的人理解是点击量高,有的人理解是销量高,但有的点击量高的产品可能是因为被页面或广告等吸引而来,或者只是感兴趣,但用户并不一定会购买;而销量高的产品有可能是用户真正需要的,搜索和点击购买的目标也比较明确。对于一个商品或一类商品,衡量其市场情况,应该同时分析点击量和购买量。关于这个问题的探讨,先分别按“商品类目ID”和“商品ID”统计点击量和购买量,通过散点图看相关性。
先看“商品类目ID”的点击量和购买量整体情况:
#按“类目”统计点击量和购买量,更改Series名字,合并并绘制散点图pvCatTop=pvDf['商品类目ID'].value_counts().sort_values(ascending=False)pvCatTop.name='pvCat'buyCatTop=buyDf['商品类目ID'].value_counts().sort_values(ascending=False)buyCatTop.name='buyCat'catNumDf=pd.concat([pvCatTop,buyCatTop],axis=1,sort=False).fillna(0)catNumDf.plot(kind='scatter',x='pvCat',y='buyCat')< ** tplotlib.axes._subplots.AxesSubplot at 0x2842c6ead68>从点击量和购买量的散点图可以看出,大部分商品类目都是点击量和购买量都比较低,整体是正相关,有少量类目的点击量或购买量很大,或点击量和购买量都比较大。
再看“商品ID”的点击量和购买量整体情况:
#按“商品”统计点击量和购买量,更改Series名字,合并并绘制散点图pvTop=pvDf['商品ID'].value_counts().sort_values(ascending=False)pvTop.name='pvItem'buyTop=buyDf['商品ID'].value_counts().sort_values(ascending=False)buyTop.name='buyItem'itemNumDf=pd.concat([pvTop,buyTop],axis=1,sort=False).fillna(0)itemNumDf.plot(kind='scatter',x='pvItem',y='buyItem')< ** tplotlib.axes._subplots.AxesSubplot at 0x2842cb3c6a0>同商品类目的情况类似,大部分商品是点击量和购买量都比较低,有一定的相关性,但同时发现点击量大但购买量小的商品较多,即偏右下、偏右中的点,有一个左上角突出的点,表示有一个商品点击量不大但购买量很大。
下面按商品和商品类别分析前十的点击量和购买量:
#pv前十(点击前十)的类目pvCatTop10=pvCatTop[:10]print('点击前十的商品类目 点击量 购买量')for x in pvCatTop10.index: q=buyDf.loc[:,'商品类目ID']==x n=buyDf.loc[q,:].shape[0] print(x,pvCatTop10[x],n)点击前十的商品类目 点击量 购买量4756105 243731 14454145813 161196 16862355072 158186 6063607361 148226 ** 2982926 141710 12342520377 100081 4824801426 943 ** 13 ** 1320293 87319 8242465336 77777 7183002561 71748 868#buy前十(销量前十)的类目buyCatTop10=buyCatTop[:10]print('购买前十的商品类目ID 点击量 购买量')for x in buyCatTop10.index: q=pvDf.loc[:,'商品类目ID']==x n=pvDf.loc[q,:].shape[0] print(x,n,buyCatTop10[x])购买前十的商品类目ID 点击量 购买量14 ** 116 36800 18472735466 58130 17974145813 161196 16862885 ** 2 48529 15824756105 243731 14454801426 943 ** 13 ** 982926 141710 12342 ** 0118 36593 8983002561 71748 8684357323 34022 844#将点击量前十类目和购买量前十类目连接ttop=pd.concat([pvCatTop10,buyCatTop10],axis=1,sort=False)ttop上面是点击量前十类目和购买量前十类目,分别对应的点击量和购买量,并将两个结果连接,发现有的类目点击量和购买量都是前十,有的只是一方面突出,所以我将这些类目分成三大类,并计算出每个类目从点击到购买的转化率,如下:
A类:包括5个类目,这5个类目的点击量和购买量都是前十,说明是很受用户欢迎的类目,这无疑是重点类目,但发现其实这些类目的转化率也不是很高,电商平台应该重点推送A类中的商品,因为这类商品有市场,并且可以多做活动,吸引更多的潜在客户变成购买客户。
B类:包括5个类目,这5个类目的共同点是购买量和转化率都比较高,但是点击量不突出。这类商品也许是特定群体非常需要的,他们可能搜索和点击的目标比较明确。电商平台可以收集用户信息,分析用户画像,结合商品特点,核实是否如此。如果是某类特征明显的用户群体购买更多,可以集中向该类用户多推送。如果没有明显的群体需求,建议对这类商品多做推广,因为原有的购买量和转化率就比较高,若是能够提高点击量,可能购买量也会再上一个台阶。
C类:也包括5个类目,这5个类目虽然点击量很高,但购买量和转化率偏低,对这类商品,应该先从商品本身分析,是否是用户真正需要的。为什么大部分用户点击,但购买较少,是因为价格太高?还是其他原因?调查清楚原因之后再对症下药。
再看具体商品的点击量和购买量前十情况:
发现点击量前十和购买量前十基本上是不同的商品,只有“商品ID”为3031354的一个商品点击量和购买量都是前十。其他点击量前十的商品大部分购买量都是个位数,转化率低于1%,平台应该重点关注这些商品,消耗了巨大的流量但没有转化,这是一个很严重的问题。购买量前十的商品,大部分转化率都比较高,这些商品可以适当放在醒目位置,吸引更多用户点击。
(4)用户价值分析根据RFM模型对用户分层,找出核心价值用户,由于本数据集中并不涉及金额,所以本次分析仅采用R(最近一次购买)和F(购买频率)进行分析。
计算F值:
有购买行为的用户中,统计每个用户的购买次数:
#每个用户购买次数,决定F值userBuyNum=buyDf['用户ID'].value_counts().sort_values(ascending=False)userBuyNum.head()234304 84107932 72122504 69128379 65190873 61Name: 用户ID, dtype: int ** #用户购买次数的描述统计信息userBuyNum.describe()count 33286.000000mean 3.008202std 2.974372min 1.00000025% 1.00000050% 2.00000075% 4.000000 ** x 84.000000Name: 用户ID, dtype: float **虽然用户购买的最大次数为84,但有50%的用户购买次数在2次或以下,75%的用户购买次数在4次或以下,所以考虑按下列分组设置F值:
#按购买次数设置F值def fSco(x): if 40<x<=84: return 'a' elif 4<x<=40: return 'b' elif 2<x<=4: return 'c' elif x==2: return 'd' else: return 'e' Fscore=userBuyNum. ** p(fSco)Fscore.head()234304 a107932 a122504 a128379 a190873 aName: 用户ID, dtype: object计算R值:
按下列分组设置R值:
#每个用户最近一次购买的时间,决定R值Rsco=[]for u in userBuyNum.index: q=buyDf.loc[:,'用户ID']==u uDf=buyDf.loc[q,:] d=uDf['日期'].iloc[-1] if d=='2017-12-03': r='A' elif d in ('2017-12-02','2017-12-01'): r='B' elif d in ('2017-11-30','2017-11-29'): r='C' elif d in ('2017-11-28','2017-11-27'): r='D' else: r='E' Rsco.append(r) Rscore=pd.Series(Rsco,index=userBuyNum.index)Rscore.head()234304 A107932 A122504 A128379 A190873 Adtype: object将R值和F值连接成一个DataFrame,然后创建一个新列“RF”,表示通过RFM模型计算出的用户价值综合评估值:
#RFM模型综合评估值Rscore.name='Rscore'Fscore.name='Fscore'scoreDf=pd.concat([Rscore,Fscore],axis=1,sort=False)scoreDf['RF']=scoreDf['Rscore']+scoreDf['Fscore']scoreDf.head()#按RF值统计scoreDf['RF'].value_counts().sort_index()Aa 10Ab 2686Ac 2518Ad 1858Ae 1609Bb 2194Bc 2926Bd 2435Be 2875Ca 1Cb 840Cc 1585Cd 1687Ce 2460Da 1Db 263Dc 798Dd 1186De 2363Eb 63Ec 267Ed 574Ee 2087Name: RF, dtype: int ** #10个重要价值客户的id(RF值为Aa)qAa=scoreDf.loc[:,'RF']=='Aa'scoreDf.loc[qAa,:].indexIndex(['234304', '107932', '122504', '128379', '190873', '242650', '165222', '140047', '263777', '1003983'], dtype='object')将每个RF值的用户数整理如下:
如下10个用户为重要价值客户——用户ID为:234304,107932,122504,128379,242650,190873,165222,140047,263777,1003983。这10个用户最近消费时间近且购买次数很多,是VIP客户。
用户ID为1008380和158803的客户,RF值为“Ca或Da”,是重要保持客户,最近消费时间较远,但消费频次很高,说明这是个一段时间没来的忠实客户,需要主动和他保持联系。
RF值为“Ab,Ac,Ad,Ae”的是重要发展客户,最近消费时间近,但消费频次不高(越靠近e频次越低),忠诚度不高,很有潜力的用户,要重点发展。
RF值为“Ee”的是最易流失客户,只购买过一次,并且消费时间最远,应该主动联系,不然这些客户可能就真的流失了。
五、总结建议根据上述业务问题的分析结果,按照AARRR模型的五个环节,依次总结和提出建议。
第一环节:用户获取(Acquisition)关键点是语言市场匹配、渠道产品匹配。
用户行为的基本规律是周末的数量高于工作日,周二相对而言行为数量较少。每天19点至23点之间是用户流量高峰期,平台开展活动获取客户应首选这个时间段进行。近几年“网络红人”的带货能力很强,电商平台可以吸引更多的人气网络红人晚上时间段在平台直播推广,同时直播间做促销,发放优惠券,邀请朋友拼团享受优惠等,以获取更多用户。
第二环节:用户激活(Activation)关键要摸清楚产品的“啊哈”时刻。
点击,收藏,加购和购买四种行为中,点击占总行为数的89%,而其他三种行为占比都很低,分别为6%,3%和2%。购买转化率为2.24%,转化率很低。点击之后的行为骤降,可能用户在平台上浏览的商品大多都不是用户需要的,花了大量时间来浏览、寻找合适的产品。用户流失率达32%,用户跳失率约6%。建议优化电商平台的筛选功能,增加关键词的准确率,让用户可以更容易找到合适产品;收集更多用户信息,分析用户画像,再结合用户行为向目标用户推荐其可能需要的商品。
通过分析商品和商品类目的点击量和购买量可知,大部分都保持在一个比较低或平衡的范围,有少部分商品或类目的行为数突出,但这些行为数很高的商品及类目是有明显差异的特点的,具体情况见前面的分析。所以对不同特点的商品及类目,平台应该采取不同的措施,以最大化激活用户。
第三环节:用户留存(Retention)关键要让用户养成使用习惯。
通过RFM模型分析的不同类型的用户(如重要价值客户,重要保持客户,重要发展客户,最易流失客户等),应该采取不同的激励方案,目标是:尽可能地使用户沿着R值、F值、M值的一个或多个维度向更高层次转化。
平台还可以发放一些限时优惠券,吸引用户及时使用;还可以根据使用频率和购买次数给用户积分,达到某个数值可以兑换礼品或其他福利,让用户习惯使用电商平台。
第四环节:用户收益(Revenue)关键要提高成交转化率、复购率、客单价等。
电商平台的最大优势是产品种类丰富,用户可选择的范围非常广,能够吸引到不同类型的客户群体,让更多用户养成网购习惯之后,要关注每个群组贡献的收益,根据⽤户一段时间内的消费额等指标来划分群组。平台可以在⽤户第⼀次购物一定时间后通过客服向他们提供折扣或者特殊优惠,然后再过一定时间发送⼀次,提高复购率。优化定价,设置“⼼动价格”(以9、99、98或者95结尾的价格),强调正价商品⽐降价商品贵,增加吸引力。
第五环节:用户传播(Referral)关键是用户推荐给其他人,关注转发率、转化率和K因子。
鼓励用户在常用的社交软件分享平台或商品;平台的商家可以多在各个社交平台跟用户互动,同时鼓励老客户推荐其他人成为店家的好友、粉丝等,先成为潜在客户。比如店家常在微信朋友圈宣传产品,通过同时向推荐人和被推荐人发放较低门款优惠券的方式,鼓励用户推荐好友给店家。
平台其他商家可以参照某些商家对特定商品采取的推荐分享激励措施,如下图的“分享有礼”,但发现这样的选项按钮不是特别醒目,我自己常网购可是很少注意到这些“小按钮”,更多的只是注意到商品标题和图片。这类“分享有礼”的关键词建议同时在其他地方显示,如标题和主页图里,通过多次提醒来引导用户传播分享。
重要的还是平台要好用,使用简单方便顺畅,要维护优化好APP;平台的商品也要监管好,用户的体验感好,就自然愿意传播。
扫码咨询与免费使用
申请免费使用