基于谱回归特征降维的客户流失预测①

2021-10-11 06:46李国祥蒋怡琳马文斌夏国恩
计算机系统应用 2021年9期
关键词:降维分类器投影

李国祥,蒋怡琳,马文斌,夏国恩

1(广西财经学院 教务处,南宁 530003)

2(广西师范大学 广西多源信息挖掘与安全重点实验室,桂林 541004)

流失客户通常是指在一定时期内终止使用企业的服务或产品的客户,其预测水平是衡量客户保持策略有效性和客户关系管理智能化程度的重要标志.目前对于客户流失的研究对象主要集中在传统的电信客户流失预测和网络客户流失预测两个方面,研究方法上主要是从特征向量选择和分类器优化两个角度构建客户流失预测模型.

在特征选择方面,文献[1]针对于高维度的样本特征属性,定义了属性满意度和属性集满意度,通过满意度函数来开展高维特征属性的选择.文献[2]基于原始特征引入网络客户价值特征和情感特征,增加了客户流失预测的新的客户特征属性.文献[3]以网络客户的在线评论信息为依据,通过技术性的情感分析将其表示为积极与消极情感并作为客户流失预测新属性.文献[4]针对电信数据集中存在的特征维度过高问题,结合过滤式特征选择和嵌入式特征选择方法的优点,提出了一种基于Fisher 比率和预测风险准则的分步特征提取方法.

在分类器优化方面,文献[5]利用分类回归树算法和自适应Boosting 算法作为分类算法,生成通信企业的离网客户的预测模型.文献[6]改进随机森林中生成每棵树时节点划分的方法,形成新的随机森林分类模型.文献[7]将深度学习引入到客户流失预测中,构造了基于深度神经网络的流失预测模型.文献[8]通过改进粒子群算法优化支持向量机分类器.文献[9]区分边界样本和非边界样本,分别采用K 近邻分类法与支持向量机作为分类器.

上述两类方法在不同数据集上都取得了较好的预测效果,但随着信息管理技术在客户关系管理中的广泛应用,客户的属性维度和记录数大规模增长,原始实验中数据样本体量偏小,对于预测结果科学性的解释问题日益凸显,文献[3]使用京东运营商手机卡用户的在线评论作为数据源,将评论星级、会员等级、点赞数作为特征属性,采集样本共10 000 余条;文献[1]使用两个数据集,第1 个数据集通过在UCI 中随机抽样,获得3333 个训练样本和1667 个测试样本,第2 个数据以国内某电信公司对小灵通客户拆机停号来定义客户流失,建立1474 个训练样本,966 个测试样本;文献[8] 选取UCI 最常用的8 个数据集,每个样本集150~1500不等;文献[6]以某电信公司2013年9月至2014年2月在网和离网的客户样本作为研究对象,样本数量共计7913 个;文献[5]选取了15 个可能影响客户流失的属性,在18 万条数据中,在网数据和离网数据分别随机抽取3000 条数据,形成研究样本.由此可见,当前客户流失预测研究的数据源大部分为小数据集或者大样本集的抽样,且特征维度较低.随着大数据技术的发展,小样本的抽样数据集已经不能满足对于预测的需要,大样本的高维度数据计算将成为必然.

大样本的高维度数据计算核心算法包括早期的主成分分析(Principal Component Analysis,PCA)[10],线性判别分析(Linear Discriminant Analysis,LDA)等,这类算法理论基础坚实,且易于执行,很多学者通过使用核技巧,将这些线性特征提取算法扩展到核领域,如核独立主成分分析[11].另一类非线性特征提取技术是流行学习方法,例如,局部保持投影(Locality Preserving Projection,LPP)[12]、局部线性嵌入(Locally Linear Embedding,LLE)[13]等,文献[14] 中Zhai 等人在LPP的基础上提出了一种改进的局部保持投影.局部保持投影(LPP)不但具有简单、快捷等优点,同时可以考虑到整体数据空间;此外,LPP 算法最大程度保持了数据的局部结构,因此在低维空间中表示的最近邻搜索极大可能与高维空间中产生的结果类似.所以,LPP 算法在数据降维领域有相当高的实用性.虽然LPP 算法实用性较强,但是却有一个不可避免的缺点:在算法的优化过程中包含一个稠密矩阵分解计算.这是一个非常消耗时间和计算资源的计算过程,而谱回归(Spectral Regression,SR)[12]将学习嵌入函数的方式转化为一个回归框架,避免了稠密矩阵分解这一计算过程,同时提高了优化的效果.因此本文提出基于谱回归的特征降维更适合大样本高维度数据的计算.

针对以上问题,本文以网络客户数据集和传统电信客户数据集为研究对象,从特征向量提取的角度,提出基于谱回归局部保留投影的客户属性降维算法,并从特征选择和分类器优化方面与不同的方法做了对比,实验证明了算法的有效性.

1 基于谱回归的特征降维

基于谱回归的特征降维算法是针对流行结构图嵌入式的典型降维算法,通过特征提取来构造一个能揭示数据流行的结构图,其结构图的表示方式为一个投影矩阵,实现将高维数据特征投影到低维子空间中,以保持高维空间中数据间的邻近结构,达到降维的目的.在该算法模型中,每个顶点都是一个样本点,两个样本点之间的边权重采用K 近邻法计算两个样本点之间的邻接程度,因此对数据的完整性保持较好.

1.1 局部保形投影

局部保形投影算法(LPP)应该被视为PCA的替代方法.PCA是一种经典的线性技术,他沿着最大方差的方向投影数据.当高维数据位于嵌入外围空间的低维流形上时,通过求流行上 Laplace Beltrami 算子特征函数的最优特征逼近,得到局部保持投影.因此,LPP具有许多非线性技术的数据表示特征.

局部保形投影算法,属于将图嵌入子空间的学习算法,其目的是用低维向量表示高维空间中图的节点.通过求解一个投影矩阵A将空间样本节点投影到低维空间从而实现降维.图中任意两节点之间的关联性用最近邻图模型表示,因此较好的保留了子空间中节点局部的结构,实现了局部降维.

假设构建一个无向加权图Graph 有m个节点,第i个节点用xi表示,任意两个节点之间采用K 近邻法定义是否关联.选择与xi邻近的k个节点作为xi的邻近点,若xj在xi的k个邻近点中或者xi在xj的k个邻近点中,则xi与xj相连;反之,则不相连.

根据上述邻接图计算权值.矩阵W表示权值矩阵,则两节点xi与xj之间的权值为Wij,若xi与xj在相互的邻近域中,则Wij为非0 值,反之,Wij为0.用径向基函数计算任意两节点的权值,则权值矩阵Wij可定义为:

最后,对其做特征分解.假设总节点数即样本集为m,样本集矩阵X=[x1,x2,···,xm],矩阵X通过投影到低维空间的矩阵Y=[y1,y2,···,ym],定义线性函数yi=f(xi)=aTxi,表示高维空间向量xi通过投影向量a投影到低维空间向量yi.为保持图中节点的局部结构,邻近点xi与xj投影后得到的yi与yj仍需保持邻近,则需满足下列准则函数值最小:

因线性函数yi=f(xi)=aTxi,则式(2)可变换为:

其中,D为n×n的对角阵,即权重矩阵Wij每列的和为对角矩阵D对角线上的元素.L=D-W,L称为拉普拉斯矩阵.为了在投影后数据最密集的地方建立坐标轴,需对Y进行一定的约束:YTDY=1即aTXLXTa=1;则式(3)可变换为:

用拉格朗日乘数法将式(4)转化为求解下列方程的最大特征向量a:

其中,λ为拉格朗日乘数.

LPP 算法实现降维的同时保留了数据节点间的局部空间结构,具有较好的局部判别能力;与传统的线性降维方法相比,该算法能保持数据的流行结构,克服了非线性方法难以获得新样本低维投影的缺点.但是LPP 算法也存在自身的缺陷,在求解大规模特征值问题时会导致计算量较大,计算时间较长.算法只注重数据的局部结构,而未考虑到数据样本的类别,另外在噪声影响下算法不能获得较理想的结果,因此算法的鲁棒性较差.

1.2 基于谱回归的特征降维

为了克服局部保形投影算法计算稠密矩阵的特征值问题,引入谱回归(Spectral Regression,SR)方法用回归模型处理特征函数,先将特征函数根据图谱理论进行图的谱分析,再将数据放入回归模型中处理.其特征降维的优良特性使得在众多领域中得到了广泛应用[15].

在定义线性函数yi=f(xi)=aTxi求解投影向量a时,投影向量a可能会无解,谱回归算法通过最小二乘算法寻找与投影向量a的最佳函数匹配,使求得的数据与实际向量a之间的误差的平方和为最小,最大程度逼近投影向量a.

通过对式(6)求偏导可得:

当正则化参数 α无限趋向于0 时,式(8)的正则解即为特征问题(式(5))的最大特征向量解.

2 实验

本文在网络客户和电信客户两个大样本数据集上进行实证研究,预测流程如图1所示,采用F1 值、精确率、召回率、准确率等指标评价模型预测结果,具体参见表1.实验所用电脑的内存是16 GB,处理器是Intel(R) Xeon(R) CPU E5-1603 v3,操作系统为Win7 64 位,实验环境为Matlab 2018a.

表1 混淆矩阵

图1 运动目标误判效果

2.1 某电子商务网站网络客户数据

该数据集来源于某电子商务网站.采用过抽样和随机抽样形成训练数据集和测试数据集,以自然年度为周期共得到训练样本20 006 个,测试样本8574 个.其中训练集中流失客户10 002 个,非流失客户10 004个.测试集中非流失客户856 个,流失客户7718 个.非流失客户与流失客户的比例基本为1:9,主要包括客户首次购买时间、客户关系长度、客户消费新鲜度、客户消费频度、客户消费金额、客户对商品的评分、客户评论情感共7 个属性特征[2].这里我们从不同特征约简算法和分类器两个层面进行对比.特征约简算法则包括KPCA、PCA,分类器包括原始线性核SVM、优化SVM 算法(网格算法,遗传算法,种群优化算法)和DBN (深度置信网络),其中KPCA,PCA,SR-LPP的约简维度统一设置为3,DBN 设置为3 层隐藏层,每层30 节点.鉴于企业获取新客户的成本是保留老客户成本的数倍,将流失客户判别为非流失客户称为导致严重后果的第一类错误(FN)[1],将非流失客户判别为流失客户称为第二类错误(FP).对于企业而言,模型导致的第二类错误会增加客户保持成本,而犯第一类错误则将面临着客户流失的巨大风险,因此在该实验中添加导致严重后果的第一类错误发生率作为辅助评价指标.

实验结果混淆矩阵如图2所示(其中0 代表了非流失类,1 代表了流失类).基于谱回归的预测方法在精确率、召回率、准确率等方面都优于其他方法.且第一类错误的发生概率仅为1.7%.在分类器优化的方法中,基于遗传算法(GA)和种群算法(PSO)优化的SVM,并不能显著提高客户流失预测效果,相比与非优化SVM各项指标基本持平,但第一类错误发生率在35%左右,略高于非寻优SVM的32%,SVM+Grid 预测效果则更不理想.而DBN 分类器在非流失客户与流失客户明显不平衡的测试集中,全部将测试集判断为非流失客户.在特征约简方法中,除了KPCA 外,PCA和本文的SRLPP 都在不同程度上提高了客户流失预测效果,其中SVM+SR-LPP 综合Precision、Recall、Accuracy和第一类错误率4 个指标较其他方法最优,也在一定程度上说明特征层面的选择优化更为重要.

图2 不同算法的结果混淆矩阵对比

2.2 电信客户数据

电信客户数据采用高维度、大样本的美国DUKE大学电信客户行为数据.数据样本共计151 306 个,其中训练集共100 000 个样本,包含流失客户49 562 个,非流失客户50 438 个,两类客户的比例基本为1:1;测试集共51 306 个样本,包含流失客户924 个,非流失客户49 514 个,客户流失率为1.8%,数据类别严重不平衡.其属性值包含产品特征、客户方案、客户信息3 大类,共计87 个初始属性指标.鉴于数据样本大、维度高,SVM 分类器的参数寻优已无法在实验计算机有效时间内的求出结果,这里重点进行特征选择和约简算法的对比,采用PCA、KPCA、MCFS[16]、SRLPP算法分别在1-87 维度之间做了比对,分类器统一使用线性SVM.

通过图3-图5可见,降维或选择后的特征在一定程度上优于全部特征作为SVM 输入的预测方法,全部特征虽然包含的信息量大,但不同属性数据间交叉、重合所产生的信息冗余也容易引起不同类别的误判,这种特征本质的混淆在上述不同分类器并没有得到良好的解决.在特征降维和选择的算法中,KPCA对于不同维度稳定性较差,在不平衡数据中容易将测试集全部预测为流失或非流失,从而造成大部分实验召回率非0 即1,使得F1和精确度指标失去意义.同时核函数方法需要对核矩阵计算和特征分解来完成高维空间的映射,对于大样本数据时间复杂度高.传统PCA 降维,虽然没有优异的预测效果,但计算简单,结果稳定,不失为一种有效的特征降维方法.作为特征选择方法代表的MCFS 三项指标都略低于其他方法,说明每一维度的特征都具有一定隐含的语义,对于单纯维度的剔除难以满足分类的需要.SRLPP 方法则3 项指标较为稳定,能够对不同维度特征进行有效的融合,在87 个维度的约简中,大概率的高于其他方法.

图3 F1 指标值

图4 Precision 指标值

图5 Recall 指标值

我们求取不同维度下的各方法的均值和标准差,如表2所示,其中KPCA 平均精度最高,但是其各指标值偏离程度较大,尤其是召回率标准差达0.44是PCA方法的4 倍,因此表现出图4中连续的大波峰和波谷.MCFS 则综合表现一般,不如全部特征输入SVM的预测效果.SRLPP 平均精度仅次于KPCA,其他指标在4 种特征降维方法中相对最优,整体表现稳定.

表2 不同维度下各方法指标均值与标准差

3 结论与展望

随着互联网+的广泛应用,无论是客户数量还是属性的数据体量都在指数式增长,且呈现出数据类型严重不平衡的特点,传统抽样已经不能满足预测结果的解释性要求,本文针对于高维度多属性的大规模客户流失预测,利用基于谱回归的流形降维建立可区分性的低维特征空间,使用线性支持向量机分类,相比于参数优化的分类器和不同的特征降维方法,预测效果有了不同程度的提高.

猜你喜欢
降维分类器投影
少样本条件下基于K-最近邻及多分类器协同的样本扩增分类
全息? 全息投影? 傻傻分不清楚
投影向量问题
学贯中西(6):阐述ML分类器的工作流程
基于数据降维与聚类的车联网数据分析应用
基于朴素Bayes组合的简易集成分类器①
降维打击
找投影
基于AdaBoost算法的在线连续极限学习机集成算法
《投影与视图》单元测试题