CTR小记

合格的网络营销人员都应该熟悉下面的常见英文缩写,这些都是我们必须知道的名词解释:
  • CVR (Click Value Rate): 转化率,衡量CPA广告效果的指标
  • CTR (Click Through Rate): 点击率
  • CPC (Cost Per Click): 按点击计费
  • CPA (Cost Per Action): 按成果数计费
  • CPM (Cost Per Mille): 按千次展现计费
  • PV (Page View): 流量
  • PV单价: 每PV的收入,衡量页面流量变现能力的指标
  • ADPV (Advertisement Page View): 载有广告的pageview流量
  • ADimp (ADimpression): 单个广告的展示次数
  • RPS (Revenue Per Search): 每搜索产生的收入,衡量搜索结果变现能力指标
  • ROI:投资回报率(ROI)是指通过投资而应返回的价值,它涵盖了企业的获利目标。利润投入的经营所必备的财产相关,因为管理人员必须通过投资和现有财产获得利润。又称会计收益率、投资利润率。

##ctr基础知识点

####定义
CTR (点击通过率,Click-Throgh-Rate) 指在搜索引擎中输入关键词之后进行搜索, 然后按竞价等因素把相关的网页按顺序进行排列出来,让用户选择自己感兴趣的网站点击进去.把用户点击并进入网站的次数占总数比例叫做点击率

计算公式: C T R = c l i c k / s h o w c o n t e n t CTR = click/show content CTR=click/showcontent

##基本用法
随着投放数据的进行,可以点击通过率(CTR)以及平均点击价格(ACP)为主要效果评判指标,筛选出效果不好的关键词,分析原因并给出提高CTR降低CPC的方案。下面是针对一些常见情况给出的建议 [1] 。

####点击量过小的原因

点击量过小时,是由两种原因造成的,展现量过小,或点击数偏低。

  1. 展现量低,进而点击数也小。
    展现量过低说明潜在受众搜索需求发生的较少,也即推广结果展现在潜在受众前的机会较少,推广商户可以通过拓展关键词来提高展现量,即提高推广信息展现的机会。
  2. 展现量高,但是点击数偏低,造成点击率(CTR)偏低。
    点击量(Click)的偏低说明可能关键词与文案的相关性不高,所以无法满足潜在受众的需求,进而点击数小。可以通过改善文案写作,提高关键词与文案的相关性来提高点击率(CTR)。
    点击量(Click)的偏低也说明可能推广结果的平均排名较低,不具有竞争力。可以通过调高平均点击价格(CPC)来提高排名。

点击量(Click)的偏低还可能说明关键词匹配模式的问题。例如,推广商户购买了“葡萄”等相关关键词,用户在搜索“葡萄牙”时商户的推广结果也可能会出现,这时推广结果就是无效展现,即为推广结果信息没有展现在潜在受众前。此种情况就需通过“否定匹配”模式来解决,将“葡萄牙”设置为否定匹配,即为用户在搜索“葡萄牙”时,推广商户的推广结果不会展现,降低了无效展现的风险。

主流CTR预估模型的演化及对比

学习和预测用户的反馈对于个性化推荐,信息检索和在线广告等领域都有着极为重要的作用.这些领域中,用户的反馈行为包括点击,收藏,购买等.接下来,我将介绍当前主流的CTR预估模型方法.

几种CTR训练方法

####数据处理
在电子商务领域中,CTR预估模型的原始特征包括多种信息,这些原始的信息通过独热编码的方式(one-hot)转化成为高维稀疏向量,多个域对应的编码向量连接在一起构成最终的特征向量.

高维,稀疏,多Field是输入给CTR预估模型的特征数据的典型特点.以下介绍的模型都假设特征数据满足上述规律.

####Embdding表示
Embedding表示,起源于神经网络语言模型(NNLM)对语料库中的word的一种表示方法.相对于one-hot方法,embedding-based的方法,学习了一个低维稠密实数向量.类似于hash方法,embedding方法把位数较多的稀疏数据压缩到位数较少的空间,不可避免会有冲突;然而,embedding学到的是类似主题的语义表示,对于item的’冲突’是希望发生的,这有点像软聚类,这样才能解决稀疏性问题.

Google开源的word2vec工具让embedding表示方法广为人知.Embedding表示通常用神经网络模型学习,这里详细介绍一下基于神经网络的embedding方法.

通常Embedding向量并不是通过一个专门的任务学习得到的,而是其他学习任务的附属产出。如下图所示,网络的输入层是实体ID(categorical特征)的one-hot编码向量。与输入层相连的一层就是Embedding层,两层之间通过全连接的方式相连。Embedding层的神经元个数即Embeeding向量的维数( m )。输入层与Embedding层的链接对应的权重矩阵 M(n \times m) ,即对应n 个输入实体的 m 维embedding向量。由于one-hot向量同一时刻只会有一个元素值为1,其他值都是0,因此对于当前样本,只有与值为1的输入节点相连的边上的权重会被更新,即不同ID的实体所在的样本训练过程中只会影响与该实体对应的embedding表示。假设某实体ID的one-hot向量中下标为 i 的值为1,则该实体的embedding向量为权重矩阵 M 的第 i 行。


##常用模型

####1. LR
LR模型是广义线性模型,从其函数形式来看,LR模型可以看作是一个没有隐藏层的神经网络模型(感知机模型).
y = 1 1 + e − ( w x + b ) y = \frac{1}{1 + e^{-(wx+b)}} y=1+e(wx+b)1

LR模型如图所示

LR模型一直是CTR预估问题的benchmark模型,由于其简单、易于并行化实现、可解释性强等优点而被广泛使用。然而由于线性模型本身的局限,不能处理特征和目标之间的非线性关系,因此模型效果严重依赖于算法工程师的特征工程经验。

为了让线性模型能够学习到原始特征与拟合目标之间的非线性关系,通常需要对原始特征做一些非线性转换。常用的转换方法包括:连续特征离散化、特征之间的交叉等。

连续特征离散化的方法一般是把原始连续值的值域范围划分为多个区间,比如等频划分或等间距划分,更好的划分方法是利用监督学习的方式训练一个简单的单特征的决策树桩模型,即用信息增益指标来决定分裂点。特征分区间之后,每个区间上目标(y)的分布可能是不同的,从而每个区间对应的新特征在模型训练结束后都能拥有独立的权重系数。特征离散化相当于把线性函数变成了分段线性函数,从而引入了非线性结构。比如不同年龄段的用户的行为模式可能是不同的,但是并不意味着年龄越大就对拟合目标(比如,点击率)的贡献越大,因此直接把年龄作为特征值训练就不合适。而把年龄分段后,模型就能够学习到不同年龄段的用户的不同偏好模式。离散化的其他好处还包括对数据中的噪音有更好的鲁棒性(异常值也落在一个划分区间,异常值本身的大小不会过度影响模型预测结果);离散化还使得模型更加稳定,特征值本身的微小变化(只有还落在原来的划分区间)不会引起模型预测值的变化。

特征交叉是另一种常用的引入非线性性的特征工程方法。通常CTR预估涉及到用户、物品、上下文等几方面的特征,往往单个特征对目标判定的贡献是较弱的,而不同类型的特征组合在一起就能够对目标的判定产生较强的贡献。比如用户性别和商品类目交叉就能够刻画例如“女性用户偏爱美妆类目”,“男性用户喜欢男装类目”的知识。特征交叉是算法工程师把领域知识融入模型的一种方式。

LR模型的不足在于特征工程耗费了大量的精力,而且即使有经验的工程师也很难穷尽所有的特征交叉组合。

####2. LR + GBDT
既然特征工程很难,那能否自动完成呢?模型级联提供了一种思路,典型的例子就是Facebook 2014年的论文中介绍的通过GBDT(Gradient Boost Decision Tree)模型解决LR模型的特征组合问题。思路很简单,特征工程分为两部分,一部分特征用于训练一个GBDT模型,把GBDT模型每颗树的叶子节点编号作为新的特征,加入到原始特征集中,再用LR模型训练最终的模型。
LR+GBDT

GBDT模型能够学习高阶非线性特征组合,对应树的一条路径(用叶子节点来表示)。通常把一些连续值特征、值空间不大的categorical特征都丢给GBDT模型;空间很大的ID特征(比如商品ID)留在LR模型中训练,既能做高阶特征组合又能利用线性模型易于处理大规模稀疏数据的优势。

####3. FM、FFM
因子分解机(Factorization Machines, FM)通过特征对之间的隐变量内积来提取特征组合,其函数形式如下:
y = w 0 + ∑ i = 1 n w i x i + ∑ i + 1 n ∑ j = i + 1 n &lt; v i , v j &gt; x i x j y = w_0 + \sum^{n}_{i=1} w_i x_i + \sum^{n}_{i+1}\sum^{n}_{j=i+1}&lt;v_i,v_j&gt;x_i x_j y=w0+i=1nwixi+i+1nj=i+1n<vi,vj>xixj
FM和基于树的模型(e.g. GBDT)都能够自动学习特征交叉组合。基于树的模型适合连续中低度稀疏数据,容易学到高阶组合。但是树模型却不适合学习高度稀疏数据的特征组合,一方面高度稀疏数据的特征维度一般很高,这时基于树的模型学习效率很低,甚至不可行;另一方面树模型也不能学习到训练数据中很少或没有出现的特征组合。相反,FM模型因为通过隐向量的内积来提取特征组合,对于训练数据中很少或没有出现的特征组合也能够学习到。例如,特征 i 和特征 j 在训练数据中从来没有成对出现过,但特征 i 经常和特征 p 成对出现,特征 j 也经常和特征 p 成对出现,因而在FM模型中特征 i 和特征 j 也会有一定的相关性。毕竟所有包含特征 i 的训练样本都会导致模型更新特征 i 的隐向量 v_i,同理,所有包含特征 j 的样本也会导致模型更新隐向量 v_j ,这样 \langle v_i,v_j \rangle 就不太可能为0。

在推荐系统中,常用矩阵分解(MF)的方法把User-Item评分矩阵分解为两个低秩矩阵的乘积,这两个低秩矩阵分 别为User和Item的隐向量集合。通过User和Item隐向量的点积来预测用户对未见过的物品的兴趣。矩阵分解也是生成embedding表示的一种方法,示例图如下:

MF方法可以看作是FM模型的一种特例,即MF可以看作特征只有userId和itemId的FM模型。FM的优势是能够将更多的特征融入到这个框架中,并且可以同时使用一阶和二阶特征;而MF只能使用两个实体的二阶特征。
FM model

在二分类问题中,采用LogLoss损失函数时,FM模型可以看做是LR模型和MF方法的融合,如下图所示:

FFM(Field-aware Factorization Machine)模型是对FM模型的扩展,通过引入field的概念,FFM把相同性质的特征归于同一个field。例如,“Day=26/11/15”、 “Day=1/7/14”、 “Day=19/2/15”这三个特征都是代表日期的,可以放到同一个field中。同理,商品的末级品类编码也可以放到同一个field中。简单来说,同一个categorical特征经过One-Hot编码生成的数值特征都可以放到同一个field,包括用户性别、职业、品类偏好等。在FFM中,每一维特征 x_i ,针对其它特征的每一种field f_j ,都会学习一个隐向量 v_{i,f_j} 。因此,隐向量不仅与特征相关,也与field相关。假设样本的 n 个特征属于 f 个field,那么FFM的二次项有 nf 个隐向量。
FM可以看作FFM的特例,在FM模型中,每一维特征的隐向量只有一个,即FM是把所有特征都归属到一个field时的FFM模型。

####4. 混合逻辑回归(MLR)
MLR算法是alibaba在2012年提出并使用的广告点击率预估模型,2017年发表出来。MLR模型是对线性LR模型的推广,它利用分片线性方式对数据进行拟合。基本思路是采用分而治之的策略:如果分类空间本身是非线性的,则按照合适的方式把空间分为多个区域,每个区域里面可以用线性的方式进行拟合,最后MLR的输出就变为了多个子区域预测值的加权平均。如下图©所示,就是使用4个分片的MLR模型学到的结果。


上式即为MLR的目标函数,其中 m 为分片数(当 m=1 时,MLR退化为LR模型); $
\pi_{i}(x,\mu) = \frac{e{\mu_iT x}}{\sum{m}_{j+1}e{\mu^T_j x}}
$是聚类参数,决定分片空间的划分,即某个样本属于某个特定分片的概率; $
\eta_i (x,w) = \frac{1}{1 + e{-wT w}}
是 分 类 参 数 , 决 定 分 片 空 间 内 的 预 测 ; 是分类参数,决定分片空间内的预测; ,;\mu 和 和 w$都是待学习的参数.最终模型的预测值为所有分片对应的子模型的预测值的期望.

MLR模型在大规模稀疏数据上探索和实现了非线性拟合能力,在分片数足够多时,有较强的非线性能力;同时模型复杂度可控,有较好泛化能力;同时保留了LR模型的自动特征选择能力。

MLR模型的思路非常简单,难点和挑战在于MLR模型的目标函数是非凸非光滑的,使得传统的梯度下降算法并不适用。相关的细节内容查询论文:Gai et al, “Learning Piece-wise Linear Models from Large Scale Data for Ad Click Prediction” 。

另一方面,MLR模型可以看作带有一个隐层的神经网络。如下图, x x x 是大规模的稀疏输入数据,MLR模型第一步是做了一个Embedding操作,分为两个部分,一种叫聚类Embedding(绿色),另一种是分类Embedding(红色)。两个投影都投到低维的空间,维度为 m m m ,是MLR模型中的分片数。完成投影之后,通过很简单的内积(Inner Product)操作便可以进行预测,得到输出 y y y

####5. WDL(Wide & Deep Learning)
像LR这样的wide模型学习特征与目标之间的直接相关关系,偏重记忆(memorization),如在推荐系统中,wide模型产生的推荐是与用户历史行为的物品直接相关的物品。这样的模型缺乏刻画特征之间的关系的能力,比如模型无法感知到“土豆”和“马铃薯”是相同的实体,在训练样本中没有出现的特征组合自然就无法使用,因此可能模型学习到某种类型的用户喜欢“土豆”,但却会判定该类型的用户不喜欢“马铃薯”。

WDL是Google在2016年的paper中提出的模型,其巧妙地将传统的特征工程与深度模型进行了强强联合。模型结构如下:

WDL分为wide和deep两部分联合训练,单看wide部分与LR模型并没有什么区别;deep部分则是先对不同的ID类型特征做embedding,在embedding层接一个全连接的MLP(多层感知机),用于学习特征之间的高阶交叉组合关系。由于Embedding机制的引入,WDL相对于单纯的wide模型有更强的泛化能力。

####6. FNN (Factorization-machine supported Neural Network)
除了神经网络模型,FM模型也可以用来学习到特征的隐向量(embedding表示),因此一个自然的想法就是先用FM模型学习到特征的embedding表示,再用学到的embedding向量代替原始特征作为最终模型的特征。这个思路类似于LR+GBDT,整个学习过程分为两个阶段:第一个阶段先用一个模型做特征工程;第二个阶段用第一个阶段学习到新特征训练最终的模型。

FNN模型就是用FM模型学习到的embedding向量初始化MLP,再由MLP完成最终学习,其模型结构如下:

####7. PNN(Product-based Neural Networks)
MLP中的节点add操作可能不能有效探索到不同类别数据之间的交互关系,虽然MLP理论上可以以任意精度逼近任意函数,但越泛化的表达,拟合到具体数据的特定模式越不容易。PNN主要是在深度学习网络中增加了一个inner/outer product layer,用来建模特征之间的关系。

Embedding Layer和Product Layer之间的权重为常量1,在学习过程中不更新。Product Layer的节点分为两部分,一部分是 z z z 向量,另一部分是 p p p 向量。 z z z 向量的维数与输入层的Field个数( N N N )相同, z = ( f 1 , f 2 , f 3 , ⋯ &ThinSpace; , f N ) z=(f_1,f_2,f_3,\cdots,f_N) z=(f1,f2,f3,,fN) 。 p 向量的每个元素的值由embedding层的feature向量两两成对并经过Product操作之后生成, p = { g ( f i , f j ) } , i = 1 ⋯ N , j = i ⋯ N p=\{g(f_i,f_j)\},i=1 \cdots N, j=i \cdots N p={g(fi,fj)},i=1N,j=iN ,因此 p p p 向量的维度为 N ∗ ( N − 1 ) N*(N-1) N(N1) 。这里的 f i f_i fi f i e l d i field i fieldi e m b e d d i n g embedding embedding向量, f i = W 0 i x [ s t a r t i : e n d i ] f_i=W_0^i x[start_i : end_i] fi=W0ix[starti:endi] ,其中 x x x 是输入向量, x [ s t a r t i : e n d i ] x[start_i : end_i] x[starti:endi] f i e l d i field i fieldi o n e − h o t one-hot onehot编码向量。

这里所说的Product操作有两种:内积和外积;对应的网络结构分别为IPNN和OPNN,两者的区别如下图。

在IPNN中,由于Product Layer的 p 向量由field两两配对产生,因此维度膨胀很大,给 l_1 Layer的节点计算带来了很大的压力。受FM启发,可以把这个大矩阵转换分解为小矩阵和它的转置相乘,表征到低维度连续向量空间,来减少模型复杂度:

W p n ⨀ p = ∑ i = 1 N ∑ j = 1 N θ i n θ j n &lt; f i , f j &gt; = &lt; ∑ i = 1 N δ i n , ∑ i = 1 N δ i n &gt; W^n_p\bigodot p = \sum^{N}_{i=1}\sum^{N}_{j=1}\theta^{n}_{i}\theta^{n}_{j}&lt;f_i, f_j&gt; = &lt;\sum^{N}_{i=1}\delta^n_i, \sum^N_{i=1}\delta^n_i&gt; Wpnp=i=1Nj=1Nθinθjn<fi,fj>=<i=1Nδin,i=1Nδin>
在OPNN中,外积操作带来更多的网络参数,为了减少计算量,使得模型更易于学习,采用了多个外积矩阵按元素叠加的技巧来减少复杂度,具体如下:
p = ∑ i = 1 N ∑ j = 1 N f i f j T = f ∑ ( f ∑ ) T , f ∑ = ∑ j = 1 N f i p = \sum^N_{i=1}\sum^N_{j=1} f_i f^T_j = f_{\sum}(f_{\sum})^T, f_{\sum} = \sum^{N}_{j=1} f_i p=i=1Nj=1NfifjT=f(f)T,f=j=1Nfi

####8. DeepFM
深度神经网络对于学习复杂的特征关系非常有潜力。目前也有很多基于CNN与RNN的用于CTR预估的模型。但是基于CNN的模型比较偏向于相邻的特征组合关系提取,基于RNN的模型更适合有序列依赖的点击数据。

FNN模型首先预训练FM,再将训练好的FM应用到DNN中。PNN网络的embedding层与全连接层之间加了一层Product Layer来完成特征组合。PNN和FNN与其他已有的深度学习模型类似,都很难有效地提取出低阶特征组合。WDL模型混合了宽度模型与深度模型,但是宽度模型的输入依旧依赖于特征工程。

上述模型要不然偏向于低阶特征或者高阶特征的提取,要不然依赖于特征工程。而DeepFM模型可以以端对端的方式来学习不同阶的组合特征关系,并且不需要其他特征工程。

DeepFM的结构中包含了因子分解机部分以及深度神经网络部分,分别负责低阶特征的提取和高阶特征的提取。其结构如下:

上图中红色箭头所表示的链接权重恒定为1(weight-1 connection),在训练过程中不更新,可以认为是把节点的值直接拷贝到后一层,再参与后一层节点的运算操作。

与Wide&Deep Model不同,DeepFM共享相同的输入与embedding向量。在Wide&Deep Model中,因为在Wide部分包含了人工设计的成对特征组,所以输入向量的长度也会显著增加,这也增加了复杂性。

DeepFM包含两部分:神经网络部分与因子分解机部分。这两部分共享同样的输入。对于给定特征 i i i ,向量 w i w_i wi 用于表征一阶特征的重要性,隐变量 V i V_i Vi用于表示该特征与其他特征的相互影响。在FM部分, V i V_i Vi用于表征二阶特征,同时在神经网络部分用于构建高阶特征。所有的参数共同参与训练。DeepFM的预测结果可以写为 y ^ = s i g m o i d ( y F M + y D N N ) \hat{y}=sigmoid(y_{FM}+y_{DNN}) y^=sigmoid(yFM+yDNN)
其中 y ^ ∈ ( 0 , 1 \hat{y}∈(0,1 y^(0,1) 是预测的点击率, y F M y_{FM} yFM y D N N y_{DNN} yDNN 分是FM部分与DNN部分。

FM部分的详细结构如下:

FM的输出公式如下:
y F M = &lt; w , x &gt; + ∑ i = 1 d ∑ j = i + 1 d &lt; V i , V j &gt; x i x j yFM = &lt;w,x&gt; + \sum^d_{i=1}\sum^d_{j=i+1}&lt;V_i,V_j&gt;x_i x_j yFM=<w,x>+i=1dj=i+1d<Vi,Vj>xixj
$$其中 w ∈ R d , V i ∈ R k w \in R^d, V_i \in R^k wRd,ViRk. 加法部分反应了一阶特征的重要性,而内积部分反应了二阶特征的影响.

深度部分详细如下:

深度部分是一个前馈神经网络。与图像或者语音这类输入不同,图像语音的输入一般是连续而且密集的,然而用于CTR的输入一般是及其稀疏的。因此需要设计特定的网络结构,具体实现为,在第一层隐含层之前,引入一个嵌入层来完成将输入向量压缩到低维稠密向量。

y D N N = σ ( W H + 1 ⋅ ) a H + b H + 1 ) yDNN = \sigma(W^{H+1} \cdot) a^H + b^{H+1}) yDNN=σ(WH+1)aH+bH+1)
其中H为隐层的层数.

####9.DIN
DIN是阿里17年的论文中提出的深度学习模型,该模型基于对用户历史行为数据的两个观察:1、多样性,一个用户可能对多种品类的东西感兴趣;2、部分对应,只有一部分的历史数据对目前的点击预测有帮助,比如系统向用户推荐泳镜时会与用户点击过的泳衣产生关联,但是跟用户买的书就关系不大。于是,DIN设计了一个attention结构,对用户的历史数据和待估算的广告之间部分匹配,从而得到一个权重值,用来进行embedding间的加权求和。

DIN模型的输入分为2个部分:用户特征和广告(商品)特征。用户特征由用户历史行为的不同实体ID序列组成。在对用户的表示计算上引入了attention network (也即图中的Activation Unit) 。DIN把用户特征、用户历史行为特征进行embedding操作,视为对用户兴趣的表示,之后通过attention network,对每个兴趣表示赋予不同的权值。这个权值是由用户的兴趣和待估算的广告进行匹配计算得到的,如此模型结构符合了之前的两个观察:用户兴趣的多峰分布以及部分对应。Attention network 的计算公式如下,

V u = f ( V a ) = ∑ i = 1 N w i ⋅ V i = ∑ i = 1 N g ( V i , V a ) ⋅ V i V_u = f(V_a) = \sum^N_{i=1} w_i \cdot V_i = \sum^N_{i=1} g(V_i, V_a) \cdot V_i Vu=f(Va)=i=1NwiVi=i=1Ng(Vi,Va)Vi
其中, V u V_u Vu 代表用户表示向量, V i V_i Vi 是用户行为 i i i 的embedding向量, V a V_a Va代表广告的表示向量。核心在于用户的表示向量不仅仅取决于用户的历史行为,而且还与待评估的广告有直接的关联。

##总结

主流的CTR预估模型已经从传统的宽度模型向深度模型转变,与之相应的人工特征工程的工作量也逐渐减少。上文提到的深度学习模型,除了DIN对输入数据的处理比较特殊之外,其他几个模型还是比较类似的,它们之间的区别主要在于网络结构的不同,如下图所示:

这四种深度学习模型的比较见下图:

综上,深度学习技术主要有三点优势。第一点,模型设计组件化。组件化是指在构建模型时,可以更多的关注idea和motivation本身,在真正数学化实现时可以像搭积木一样进行网络结构的设计和搭建。第二点,优化方法标准化。在2010年以前,Machine Learning还是一个要求较高的领域。它要求不仅了解问题、能定义出数学化的formulation,而且需要掌握很好的优化技巧,针对对应的问题设计具体的优化方法。但是在现在,深度学习因为模型结构上的变化,使得工业界可以用标准的SGD或SGD变种,很轻松的得到很好的优化解。第三点,深度学习可以帮助我们实现设计与优化的解耦,将设计和优化分阶段进行。对于工业界的同学来说,可以更加关注从问题本身出发,抽象和拟合领域知识。然后用一些标准的优化方法和框架来进行求解。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值