数学杂志  2019, Vol. 39 Issue (3): 440-454   PDF    
扩展功能
加入收藏夹
复制引文信息
加入引用管理器
Email Alert
RSS
本文作者相关文章
余江兰
李向利
董晓亮
基于核的L2, 1范数非负矩阵分解在图像聚类中的应用
余江兰1, 李向利1, 董晓亮2    
1. 桂林电子科技大学数学与计算科学学院; 广西密码学与信息安全重点实验室; 广西自动检测技术与仪器重点实验室, 广西 桂林 541004;
2. 北方民族大学数学与信息科学学院, 宁夏 银川 750021
摘要:本文研究了基于核技巧的L2,1范数非负矩阵分解在图像聚类中的问题.利用基于核的稀疏鲁棒非负矩阵分解方法,获得了算法良好的稀疏性和鲁棒性,提高了聚类性能,该方法也可以推广到文本聚类的应用.
关键词非负矩阵分解    核技巧    L2, 1范数    稀疏性    鲁棒性    
KERNEL-BASED L2, 1 NORM NON-NEGATIVE MATRIX FACTORIZATION IN IMAGE CLUSTERING
YU Jiang-lan1, LI Xiang-li1, DONG Xiao-liang2    
1. School of Mathematics and Computing Science; Guangxi Key Laboratory of Cryptography and Information Security; Guangxi Key Laboratory of Automatic Detecting Technology and Instruments, Guilin University of Electronic Technology, Guilin 541004, China;
2. School of Mathematics and Information Science, North Minzu Univeisity, Yinchuan 750021, China
Abstract: The problem of norm non-negative matrix factorization with L2, 1 is studied based on kernel technique in image clustering. By kernel-based sparse robust non-negative matrix factorization method, the sparseness and robustness of the algorithm are obtained, and the clustering performance is improved. This method can also be extended to the application of text clustering.
Keywords: non-negative matrix factorization     kernel trick     L2, 1 norm     sparsity     robustness    
1 前言

非负矩阵分解(Non-negative Matrix Factorization, 简写为NMF) [1, 2]是继PCA (主成分分析) [3]、ICA (独立成分分析) [4]、VQ (矢量量化)[5]等矩阵分解方法之后提出的一种新的矩阵分解方法.近年来, NMF算法引起了各个领域中科研人员的重视, 因为NMF的思想为人类处理大规模数据提出了一种新方法, 且该方法相较于一些传统的方法而言, 具有实现简便、易于存储、分解结果可解释的优点. NMF是在一般的矩阵分解的基础上对矩阵添加了非负的限制, 其基本思想可简单概括为:给定一个非负数据矩阵, 试图找到两个非负低秩矩阵, 使得它们的乘积能够无限逼近原始非负数据矩阵.标准NMF [6]是将Frobenius范数(简记为F范数)作为目标函数, 计算起来很方便快捷, 但是它不能有效地处理存在于数据中的噪音值和异常值点.因此, 急需找到一个能够改善这些问题的非负矩阵分解新版本.

此前, 源于其对事物的局部特性有很好的解释, NMF已经被广泛应用于很多领域.比如, 图像分析、文本数据和数据挖掘、语音处理、机器人控制、生物医学工程和化学工程, 此外, NMF算法在环境数据处理、信号分析与复杂对象的识别方面都有着很好的应用.扩展的NMF [7]也在不断适应着各种各样的目标函数, 从而能够涉入不同的数据分析问题, 包括分类、协同过滤和聚类等等.

聚类是特征学习和计算机视觉的最重要且具有挑战性的任务之一.在过去的几十年里, 研究学者们为各种应用程序设计了许多聚类方法, 包括图像注释[8]、图像检索[9]、图像分类[10]、图像分割[11]、数据挖掘[12]和图像索引[13].然而, 对于图像聚类任务来说, 一个非常重要的步骤是找到原始数据的有效表示.为此, 不同的研究人员做了大量的工作, 他们通常强调挖掘原始数据的内在结构信息, 并使新的表示更具辨别性.传统的聚类已经比较成功的解决了低维数据的聚类问题.但是由于实际应用中数据的复杂性和冗余性, 在处理许多问题时, 现有的算法经常失效, 特别是对于高维数据和大型数据的情况.因为传统聚类方法在高维数据集中进行聚类时, 主要遇到两个问题[14]: (1)高维数据集中存在一些与聚类无关的维度, 从而在对数据降维处理中带来一定的挑战; (2)高维空间中数据比低维空间中数据分布更稀疏和零散, 常存在数据点之间的距离几乎相等的情况, 而传统聚类方法是基于距离进行聚类的, 因此在高维空间中无法基于距离来构建簇.

而NMF作为一种处理大规模数据的矩阵分解方法, 它已逐渐成为图像、文本聚类与数据挖掘等领域最受欢迎的工具之一.实践证明, 利用NMF对文本、图像等高维数据进行处理时, 比传统的矩阵分解处理方法速度更快、更便捷, 被认为是对非负数据进行处理的一种有效途径, 已经引起了国内外许多科学家和研究人员的广泛关注.

近年来, 为了不断改善已有的NMF方法存在的问题, 很多扩展版NMF被提出.为了提高原始NMF的稀疏性, 通过将局部约束整合到标准的NMF中, Li等人[15]提出了LNMF (局部非负矩阵分解).这种方法不仅可以学习对象的稀疏表示, 而且可以表明局部特征.之后, 为了确保对象的稀疏性, Hoyer等人[16]将L1-范数约束强加在编码矩阵上, 提出了NSC (非负稀疏编码).虽然他们没有考虑数据的内在结构信息, 但从某种程度上说, NSC和LNMF从不同角度改善了NMF的稀疏性. Barman等人[17]提出了基于文本聚类的非负矩阵分解, 包括特征的提取和分类.杨等人[18]提出了非负矩阵分解的投影算法, 并将该算法人脸图像的处理中, 实验效果较好; 蔡等人试图涉及几何数据空间的信息提出了GNMF(图正则非负矩阵分解[7]), 它是通过构建K -近邻(KNN)图结构来编码几何结构.由于简单图中的一个边可以连接两个顶点, 所以GNMF只考虑两个样本之间的关系, 忽略了多个样本之间的关系.为了探索多个样本间的高阶关系, 通过创建一个超图来编码多个样本间的关系, 由于超图可以连接两个以上的顶点, 故HNMF (超图正则化非负矩阵分解)能找到数据的高阶关系. Zeng等人[19]提出了HNMF.虽然GNMF和HNMF运用了样本内在的流形结构, 但没有考虑带判别信息的因素.为了结合带判别力的信息, 李等人[20]通过合并局部流行图正则和带判别力的标签信息, 提出了GDNMF(基于图带标签判别力的非负矩阵分解).为了将NMF延伸到子空间聚类中, Dijana等人[21]借助核技巧[22, 23]来揭示流形的非线性性质, 并将数据固有的局部几何性质都考虑在内, 提出了非线性正交非负矩阵分解, 使得聚类性能得以提升.

可以看出, 以上列举的NMF方法都是在不断从不同角度揭示了充分利用原始数据内在的流行几何结构, 但没有揭示其稀疏性和鲁棒性.基于此, 本文在保留原始数据的内在流行几何结构和运用核技巧来揭示流形的非线性性质的基础上, 添加了$ {L_{2, 1/2}} $矩阵伪范数[24]作为额外的稀疏约束.由于稀疏约束能够选择有判别力的稀疏特征来改善算法的有效性, 所以它吸引了很多研究学者的极大关注.稀疏约束旨在借助一个有效的稀疏模型来实现原始数据的稀疏表示.虽然非负矩阵分解对原始的数据矩阵可以起到降维的作用, 但对于高维数据来说, 它的计算仍然是很复杂的.因此, 如果能改善基矩阵和系数矩阵的稀疏性, 那么将降低计算的复杂度.此外, 本文的目标模型中, 没有使用常用的欧氏距离作为残差项, 而是用$ L_{2, 1} $范数[25]来替代标准NMF中的$ F $范数.引入$ L_{2, 1} $范数有三点原因[25]: (1)在众多的实际数据中, 都包含了很多模糊的噪音值和异常值点等, 而$ L_{2, 1} $范数可以有效地处理原始数据中存在的这些问题; (2)能提供一个有效的更新规则, 进而能有效提高算法的稀疏性和鲁棒性; (3)以它为损失函数所需的计算成本和标准的NMF几乎差不多, 并且能提高算法的性能.

本文的其余部分结构组织如下.第二部分主要介绍了标准的非负矩阵分解及相关理论部分, 第三部分是本文的重要组成部分, 包括本文目标模型的构建、更新迭代规则的推导、新算法的提出以及收敛性分析, 第四部分是本文的数值实验展示实验结果分析, 第五部分是对本文的总结和概括.本文中$ {A_i} $矩阵$ A $的第$ i $列, $ {A^i} $表示$ A $矩阵的第$ i $行.

2 标准的非负矩阵分解

NMF是目前国际上新的矩阵分解方法.它已广泛应用于诸多领域, 如图像处理、生物医学、文本聚类和语音信号处理等.标准的NMF问题可描述如下.

给定非负矩阵$ X \in {R_{+}^{m \times n}} $, 旨在找到两个非负低秩矩阵$ U \in {R_{+}^{m \times k}} $$ V \in {R_{+}^{k \times n}} $, 使得$ X \approx UV, $其中$ U $为基矩阵, $ V $为系数矩阵.且$ m, k, n $满足$ (m + n){\kern 1pt} {\kern 1pt} k \ll mn $.

换句话说, 即解决极小化残差矩阵

$ \begin{equation} {{O}_F} = \left\| {X - UV} \right\|_F^2\; \; \; \; {\rm s.t.}\; \; \; \; U \ge 0, V \ge 0, \end{equation} $ (2.1)

其中$ \left\|\cdot\right\|_{F} $矩阵的表示Frobenius范数, 通过计算$ F $范数的平方从而得到两个矩阵的欧式距离. Lee等人[2, 6]给出了极小化问题(2.1)的更新迭代规则, 并证明了其收敛性, 迭代规则如下

$ \begin{equation} {u_{ij}} = {u_{ij}}\frac{{{{\left( {XV^{T}} \right)}_{ij}}}}{{{{\left( {UV{V^T}} \right)}_{ij}}}}, \; \; \; {v_{ij}} = {v_{ij}}\frac{{{{\left( {{U^T}X} \right)}_{ij}}}}{{{{\left( {{U^T}UV} \right)}_{ij}}}}. \end{equation} $ (2.2)
3 基于核的$ L_{2, 1} $范数非负矩阵分解
3.1 目标函数

在文献[21]中, Dijana等人考虑一个非线性映射, 将数据点映射到高位数据空间: $ {x_i} \to \Phi \left( {{x_i}} \right) $, 或者$ X \to \Phi \left( X \right) = \left( {\Phi \left( {{x_1}} \right), \Phi \left( {{x_2}} \right), \cdots , \Phi \left( {{x_n}} \right)} \right) \in {R^{d \times n}} $, 其中$ {x_i} $表示原始数据空间$ X $的第$ i $样本点.非线性非负矩阵分解旨在找到两个非负低秩矩阵, 使得它们的乘积可以无限逼近原始矩阵的映射$ \Phi \left( X \right) $.基于此, Dijana等人[21]提出了基于核的图正则正交非负矩阵分解模型, 即

$ \begin{equation} \mathop {\min }\limits_{F, V} {\left\| {\Phi \left( X \right) - \Phi \left( X \right)FV} \right\|_{F}^2} + \lambda Tr\left( {VL{V^T}} \right). \end{equation} $ (3.1)

此模型的优势在于, 基于内核的非负光谱聚类算法, 引入了一个图正则化项, 通过图正则项来捕获非线性特征空间中固有的局部几何结构, 从而使得因子分解方法具有更强的识别能力, 可以从更高维度环境空间的子流形中提取数据点.

但Dijana等人却忽视了原始数据间的稀疏性和鲁棒性.为了充分利用原始数据的内在信息和提高算法的稀疏性及鲁棒性, 基于$ L_{2, 1} $范数能够处理原始数据中的异常点和极端值点的作用, 本文用$ L_{2, 1} $范数对原有的Frobenius范数进行改进, 并引入混合$ {L_{2, 1/2}} $矩阵伪范数, 结合范数算子和非负约束保证了投影矩阵的稀疏性.构建新的目标函数如下

$ \begin{equation} \begin{aligned} & \mathop {\min }\limits_{F, V} {\left\| {\Phi \left( X \right) - \Phi \left( X \right)FV} \right\|_{2, 1}} + \frac{1}{2}\lambda Tr\left( {VL{V^T}} \right) +2 \beta \left\| V \right\|_{2, \frac{1}{2}}^{\frac{1}{2}} +2 \xi \left\| F \right\|_{2, \frac{1}{2}}^{\frac{1}{2}}\\ & {\rm s.t.}\; \; \; F, V \ge 0, \lambda , \beta , \xi \ge 0, \end{aligned} \end{equation} $ (3.2)

其中$ \lambda , \beta , \xi $是平衡因子, $ L = D - W $为拉普拉斯矩阵, $ D $是一个对角矩阵, $ {D_{jj}} = \sum\limits_l {{W_{jl}}} $,

$ {W_{jl}} = \left\{ \begin{array}{l} 1, \; \; \; \mbox{如果}\; \; {x_j} \in {N_p}\left( {{x_l}} \right)\; \mbox{或}\; {x_l} \in {N_p}\left( {{x_j}} \right), \\ 0, \; \; \; \mbox{否则}, \\ \end{array} \right. $

这里的$ {N_p}( {{x_l}}) $表示$ {x_l} $$ p $个近邻集合[26].对于(3.2)式, 算法只能保证其局部极小化收敛性.其中, 该目标函数的第一项是原始数据矩阵和低秩逼近矩阵乘积间的残差项, 也是改进算法鲁棒性的重要根据; 第二项是图正则项, 为了保证其数据的几何结构和控制样本数据点间的局部几何结构的度; 第三项和第四项分别是控制对应变量的稀疏性.

3.2 更新规则

记目标函数为

$ \begin{equation} \begin{aligned} \mathscr{O} = {\left\| {\Phi \left( X \right) - \Phi \left( X \right)FV} \right\|_{2, 1}} +\frac{1}{2} \lambda Tr\left( {VL{V^T}} \right) +2 \beta \left\| V \right\|_{2, \frac{1}{2}}^{\frac{1}{2}} +2 \xi \left\| F \right\|_{2, \frac{1}{2}}^{\frac{1}{2}}, \\ \end{aligned} \end{equation} $ (3.3)

其中

$ \begin{equation} \begin{aligned} {\left\| {\Phi \left( X \right) - \Phi \left( X \right)FV} \right\|_{2, 1}} & = \sum\limits_{i = 1}^n {\sqrt {\sum\limits_{j = 1}^m {\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)_{_{ji}}^2} } } \\ & = \sum\limits_{i = 1}^n {\left\| {\Phi {{\left( X \right)}_i} - \Phi \left( X \right)F{V_i}} \right\|}, \end{aligned} \end{equation} $ (3.4)

$ {\left\| V \right\|_{2, \frac{1}{2}}} = {\left( {\sum\limits_{i = 1}^k {\left\| {{V^i}} \right\|_2^{\frac{1}{2}}} } \right)^2} $是混合$ {L_{2, 1/2}} $矩阵伪范数, 结合范数算子和非负约束保证了投影矩阵的稀疏性.

$ Y = \left\| V \right\|_{2, \frac{1}{2}}^{\frac{1}{2}} $, 则有$ Y = \sum\limits_{i = 1}^k {\left\| {{V^i}} \right\|_2^{\frac{1}{2}}} $.对$ V $中的任一元素$ {V_{po}} $求偏导数有

$ \begin{equation} \begin{aligned} \frac{{\partial Y}}{{\partial {V_{po}}}} & = \frac{\partial }{{\partial {V_{po}}}}\left( {\sum\limits_{i \ne p} {\left\| {{V^i}} \right\|_2^{\frac{1}{2}} + \left\| {{V^p}} \right\|_2^{\frac{1}{2}}} } \right)\\ & = \frac{\partial }{{\partial {V_{po}}}}{\left( {V_{_{p1}}^2 + V_{_{p2}}^2 + \cdots + V_{_{po}}^2 + \cdots V_{_{pn}}^2} \right)^{\frac{1}{4}}} \\ & = \frac{1}{4}{\left( {V_{_{p1}}^2 + V_{_{p2}}^2 + \cdots + V_{_{pk}}^2} \right)^{ - \frac{3}{4}}} \cdot 2{V_{po}} \\ & = \frac{1}{2}\left\| {{V^p}} \right\|_2^{ - \frac{3}{2}} \cdot {V_{po}} \\ & = \frac{1}{2} \times 4 \times \frac{1}{4}\left\| {{V^p}} \right\|_2^{ - \frac{3}{2}}{V_{po}}. \\ \end{aligned} \end{equation} $ (3.5)

定义$ P = \frac{1}{4}\left\| {{V^p}} \right\|_2^{ - \frac{3}{2}} $, 从而得到

$ \begin{equation} \frac{{\partial Y}}{{\partial V}} = 2PV. \end{equation} $ (3.6)

先对目标函数分别关于$ F $求偏导数, 结合$ Y = \left\| V \right\|_{2, \frac{1}{2}}^{\frac{1}{2}} $关于$ V $的导数, 可以得到

$ \begin{equation} \begin{aligned} \frac{{\partial \mathscr{O}}}{{\partial {F_{jk}}}} = & \sum\limits_{i = 1}^n {\frac{1}{{\sqrt {\sum\limits_{j'} {\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)_{_{j'i}}^2} } }}} \\ &\sum\limits_{j'' = 1}^d {{{\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)}_{j''i}}} \frac{\partial }{{\partial {F_{jk}}}}{\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)_{j''i}} + 4\xi {\left( {QF} \right)_{jk}} \\ = & \sum\limits_{i = 1}^n {\frac{{ - 1}}{{\sqrt {\sum\limits_{j'} {\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)_{_{j'i}}^2} } }}} {\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)_{ji}}{\left( {\Phi \left( X \right)V} \right)_{ki}} + 4\xi {\left( {QF} \right)_{jk}} \\ = & \sum\limits_{i = 1}^n {{{\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)}_{ji}}{{\left( {\Phi \left( X \right)V} \right)}_{ki}}{G_{ii}} + 4\xi {{\left( {QF} \right)}_{jk}}} \\ = & - {\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)_{ji}}{G_{ii}}\left( {\Phi \left( X \right)V} \right)_{_{ik}}^T + 4\xi {\left( {QF} \right)_{jk}} \\ = & - \Phi {\left( X \right)_{ji}}{G_{ii}}\left( {\Phi \left( X \right)V} \right)_{_{ik}}^T + {\left( {\Phi \left( X \right)FV} \right)_{ji}}{G_{ii}}\left( {\Phi \left( X \right)V} \right)_{_{ik}}^T + 4\xi {\left( {QF} \right)_{jk}} \\ = & - (\Phi {\left( X \right)^T}\Phi \left( X \right)G{V^T})_{jk} + (\Phi {\left( X \right)^T}\Phi \left( X \right)FVG{V^T})_{jk} + 4\xi (QF)_{jk} \\ = & - (KG{V^T})_{jk} + (KFVG{V^T})_{jk} + 4\xi (QF)_{jk}, \\ \end{aligned} \end{equation} $ (3.7)

其中$ G $$ Q $都是对角矩阵, 对角元素分别为

$ {g_{ii}} = {\frac{1}{{\left\| {\Phi {{\left( X \right)}_i} - \Phi \left( X \right)F{V_i}} \right\|}}}, {q_{ii}} = \frac{1}{{4\max \left( {\left\| {{F^i}} \right\|_2^{3/2}} \right)}}. $

为了避免它们的分母为0的情况, 分别添加两个足够小的正常数$ {\varepsilon _1} $$ {\varepsilon _2} $在矩阵$ G, Q $的定义中, 则它们的元素重新表示为

$ {g_{ii}} = \frac{1}{{\max \left( {\left\| {\Phi {{\left( X \right)}_i} - \Phi \left( X \right)F{V_i}} \right\|, {\varepsilon _1}} \right)}}.\; \; {q_{ii}} = \frac{1}{{4\max \left( {\left\| {{F^i}} \right\|_2^{3/2}, {\varepsilon _2}} \right)}}, $

这里的$ K $是核矩阵[2, 3], 定义为$ K \equiv \Phi {\left( X \right)^T}\Phi \left( X \right) $, 其中$ \Phi \left( X \right) $是在非线性无限维特征空间的特征矩阵.

$ F $运用Karush-Kuhn-Tucker最优条件(简记为KKT条件) $ \frac{{\partial \mathscr{O}}}{{\partial {F_{jk}}}}{F_{jk}} = 0 $, $ \forall j, k $, 得到

$ \begin{equation} - {\left( {KG{V^T}} \right)_{jk}}F_{jk} + {\left( {KFVG{V^T}} \right)_{jk}}F_{jk} + 2\xi {\left( {QF} \right)_{jk}}F_{jk} = 0, \; \forall j, k, \end{equation} $ (3.8)

进行简单的代数推导变换即可得到$ F $的更新迭代规则为

$ \begin{equation} {F_{jk}} \leftarrow {F_{jk}}\frac{{{{\left( {KG{V^T}} \right)}_{jk}}}}{{{{\left( {KFVG{V^T} + 2\xi QF} \right)}_{jk}}}}. \end{equation} $ (3.9)

现在对目标函数关于$ V $求偏导数, 有

$ \begin{equation} \begin{array}{l} \frac{{\partial \mathscr{O}}}{{\partial {V_{ki}}}} = \sum\limits_{i' = 1}^n {\frac{1}{{\sqrt {\sum\limits_{j'} {\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)_{_{j'i}}^2} } }}} \sum\limits_{j = 1}^d {{{\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)}_{ji'}}} \frac{\partial }{{\partial {V_{ki}}}}{\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)_{ji'}}\\ + \lambda {\left( {VL} \right)_{ki}} + 4\beta {\left( {PV} \right)_{ki}} \\ = \sum\limits_{i' = 1}^n {\frac{1}{{\sqrt {\sum\limits_{j'} {\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)_{_{j'i}}^2} } }}} \\ \sum\limits_{j = 1}^d {{{\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)}_{ji'}}} \left( {\Phi \left( X \right)F} \right)_{_{ji}}^T + \lambda {\left( {VL} \right)_{ki}} + 4\beta {\left( {PV} \right)_{ki}} \\ = - {\left( {{F^T}\Phi {{\left( X \right)}^T}\left( {\Phi \left( X \right) - \Phi \left( X \right)FV} \right)} \right)_{ki}}{G_{ii}} + \lambda {\left( {VL} \right)_{ki}} + 4\beta {\left( {PV} \right)_{ki}} \\ = - ({F^T}KG)_{ki} + ({F^T}KFVG )_{ki}+ \lambda (VL)_{ki} + 4\beta (PV)_{ki} \\ = - ({F^T}KG)_{ki} + ({F^T}KFVG)_{ki} + \lambda (V\left( {D - W} \right))_{ki} + 4\beta (PV)_{ki}, \\ \end{array} \end{equation} $ (3.10)

其中$ P $是对角矩阵, 其对角元素为

$ {p_{ii}} = \frac{1}{{4\max \left( {\left\| {{V^i}} \right\|_2^{3/2}} \right)}}, $

为了避免分母为0的情况, 添加一个足够小的正常数$ {\varepsilon _3} $在矩阵$ Q $的定义中, 即

$ {p_{ii}} = \frac{1}{{4\max \left( {\left\| {{V^i}} \right\|_2^{3/2}, {\varepsilon _3}} \right)}}. $

$ V $运用KKT条件$ \frac{{\partial \mathscr{O}}}{{\partial {V_{ki}}}}{V_{ki}} = 0 $, $ \forall i, k $, 则有

$ \begin{equation} {\left( { - {F^T}KG + {F^T}KFVG + \lambda V\left( {D - W} \right) + 4\beta PV} \right)_{ki}}{V_{ki}} = 0 \end{equation} $ (3.11)

成立.对其进行简单的代数变换即可得到$ V $的更新迭代规则为

$ \begin{equation} {V_{ki}} \leftarrow {V_{ki}}\frac{{{{\left( {{F^T}KG + \lambda VW} \right)}_{ki}}}}{{{{\left( {{F^T}KFVG + \lambda VD + 4\beta PV} \right)}_{ki}}}} \end{equation} $ (3.12)

关于迭代更新规则(3.9)和(3.12), 有定理1成立.

定理1   目标函数(3.1)在迭代更新规则(3.9)和(3.12)下是非增长的.

类似于文献[21], 下面给出本文的新算法.

3.3 收敛性分析

定义1   如果$ Z\left( {v, v'} \right) $$ J\left( v \right) $之间满足$ Z\left( {v, v'} \right) \ge J\left( v \right), \; \; Z\left( {v, v} \right) = J\left( v \right), $那么$ Z\left( {v, v'} \right) $$ J\left( v \right) $的辅助函数.

欲证明$ Z\left( {v, v'} \right) $$ J\left( v \right) $的辅助函数, 首先给出引理1.

引理1   如果$ Z $$ J $的辅助函数, 则在更新规则

$ \begin{equation} {v^{\left( {t + 1} \right)}} = \mathop {\arg \min }\limits_v Z\left( {v, {v^{\left( t \right)}}} \right) \end{equation} $ (3.13)

下, $ J $是非增长的, 其中右上角的$ t $表示数值计算中的某一步, $ t+1 $表示$ t $的下一步.

$ J\left( {{v^{\left( {t + 1} \right)}}} \right) \le Z\left( {{v^{\left( {t + 1} \right)}}, {v^{\left( {t + 1} \right)}}} \right) \le Z\left( {{v^{\left( t \right)}}, {v^{\left( t \right)}}} \right) = J\left( {{v^{\left( {t } \right)}}} \right). $

换句话说, 只要辅助函数$ Z\left( {v, v'} \right) $达到极小值, 函数$ J\left( v \right) $也会达到极小值.

对于目标函数(3.1), 考虑到矩阵$ V $中的元素$ {V_{ab}} $, 记$ {J_{ab}} $为目标函数中与$ {V_{ab}} $相关的部分, 对其关于$ {V_{ab}} $求偏导数, 有

$ \begin{eqnarray} {J_{ab}}^\prime & = & {\left( {\frac{{\partial \mathscr{O}}}{{\partial V}}} \right)_{ab}} \\& = & {\left( { - {F^T}KG + {F^T}KFVG + 2\lambda V \left( {D - W} \right) + 2\beta PV} \right)_{ab}}, \end{eqnarray} $ (3.14)
$ \begin{eqnarray} {J_{ab}}^{\prime \prime } & = & {\left( {{F^T}{K^T}FG + 2\lambda \left( {D - W} \right) + 2\beta P} \right)_{ab}}\\ & = & {\left( {{F^T}{K^T}FG} \right)_{ab}} + 2\lambda {\left( {D - W} \right)_{aa}} + 2\beta {P_{aa}}. \end{eqnarray} $ (3.15)

引理2   函数

$ \begin{equation} \begin{aligned} Z\left( {v, v_{ab}^{\left( t \right)}} \right) = & {J_{ab}}\left( {v_{ab}^{\left( t \right)}} \right) + {J_{ab}}^\prime \left( {v_{ab}^{\left( t \right)}} \right)\left( {v - v_{ab}^{\left( t \right)}} \right) \\ &+ \frac{{{{\left( {{V^T}{F^T}{K^T}FG} \right)}_{ab}} + 2\lambda {{\left( {VD} \right)}_{ab}} + 2\beta {{\left( {PV} \right)}_{ab}}}}{{v_{ab}^{\left( t \right)}}}{\left( {v - v_{ab}^{\left( t \right)}} \right)^2} \end{aligned} \end{equation} $ (3.16)

$ {J_{ab}} $的辅助函数.

 显然有$ Z\left( {v, v} \right) = {J_{ab}}\left( v \right) $成立.要证明$ Z\left( {v, v_{ab}^{\left( t \right)}} \right) $$ {J_{ab}}\left( v \right) $的辅助函数, 只需要证明$ Z\left( {v, v_{ab}^{\left( t \right)}} \right) \ge {J_{ab}}\left( v \right) $即可.因为

$ \begin{equation} \begin{aligned} {J_{ab}}\left( v \right) = &{J_{ab}}\left( {v_{ab}^{\left( t \right)}} \right) + {J_{ab}}^\prime \left( {v_{ab}^{\left( t \right)}} \right)\left( {v - v_{ab}^{\left( t \right)}} \right) \\ & + \left( {{{\left( {{F^T}{K^T}FG} \right)}_{ab}} + 2\lambda {{\left( {D - W} \right)}_{aa}} + 2\beta {P_{aa}}} \right){\left( {v - v_{ab}^{\left( t \right)}} \right)^2}. \\ \end{aligned} \end{equation} $ (3.17)

要证明$ Z\left( {v, v_{ab}^{\left( t \right)}} \right)\ge {J_{ab}}\left( v \right) $, 等价于证明

$ \begin{eqnarray} &&\frac{{{{\left( {{V^T}{F^T}{K^T}FG} \right)}_{ab}} + 2 \lambda {{\left( {VD} \right)}_{aa}} + 2\beta {{\left( {PV} \right)}_{aa}}}}{{v_{ab}^{\left( t \right)}}}\\ &\ge& {\left( {{F^T}{K^T}FG} \right)_{ab}} + 2\lambda {\left( {D - W} \right)_{aa}} + 2\beta {P_{aa}}. \end{eqnarray} $ (3.18)

又因为

$ \begin{eqnarray} &&{\left( {{V^T}{F^T}{K^T}FG} \right)_{ab}} = \sum\limits_{l = 1}^k {V_{al}^{\left( t \right)}} {\left( {{F^T}{K^T}FG} \right)_{lb}} \ge V_{ab}^{\left( t \right)}{\left( {{F^T}{K^T}FG} \right)_{bb}}, \end{eqnarray} $ (3.19)
$ \begin{eqnarray} && \lambda {\left( {VD} \right)_{ab}} = \lambda \sum\limits_{j = 1}^n {V_{aj}^{\left( t \right)}} {D_{jb}} \ge \lambda V_{ab}^{\left( t \right)}{\left( {D - W} \right)_{bb}} = \lambda V_{ab}^{\left( t \right)}{L_{bb}}, \end{eqnarray} $ (3.20)
$ \begin{eqnarray} && \beta {\left( {PV} \right)_{aa}} = \beta \sum\limits_{l = 1}^k {{P_{ai}}V_{ib}^{\left( t \right)}} \ge 4\beta {P_{aa}}V_{ab}^{\left( t \right)}. \end{eqnarray} $ (3.21)

所以(3.17)式成立, 进而有$ Z\left( {v, v_{ab}^{\left( t \right)}} \right) $$ {J_{ab}}\left( v \right) $成立.

综上所述, $ Z\left( {v, v_{ab}^{\left( t \right)}} \right) $$ {J_{ab}}\left( v \right) $的辅助函数.下面证明定理1.

定理1的证明  用(3.16)中的$ Z\left( {v, v_{ab}^{\left( t \right)}} \right) $替换(3.13)中的$ Z\left( {v, {v^{\left( t \right)}}} \right) $, 有如下的更新规则

$ \begin{equation} \begin{aligned} v_{ab}^{\left( {t + 1} \right)} = & v_{ab}^{\left( t \right)} - v_{ab}^{\left( t \right)}\frac{{{J_{ab}}^\prime \left( {v_{ab}^{\left( t \right)}} \right)}}{{{{\left( {{V^T}{F^T}{K^T}FG} \right)}_{ab}} + \lambda {{\left( {VD} \right)}_{ab}} + 4\beta {{\left( {PV} \right)}_{ab}}}} \\ = & v_{ab}^{\left( t \right)}\frac{{{{\left( {{F^T}KG + 2\lambda VW} \right)}_{ab}}}}{{{{\left( {{F^T}KFVG + 2\lambda VD + 2\beta PV} \right)}_{ab}}}}. \\ \end{aligned} \end{equation} $ (3.22)

因此$ {J_{ab}} $在此更新迭代规则下是非增长的.故定理1得证.

4 数值实验

这部分主要介绍了本文在图片聚类中的数值实验的相关内容.聚类是在无类别标记信息的情况下将对象自动分组, 换句话说, 它旨在将具有相似性质的对象分到同一簇中, 根据不同的算法, 聚类得到的结果也不尽相同.如图 1, 2, 3所示.图片相关的信息来源于http://www.cad.zju.edu.cn/home/dengcai/Data/data.html. 图 4是本文用到的KRSNMF算法借助幂指数核得到的聚类图.

图 1 快速近邻法聚类效果图

图 2 压缩剪辑近邻算法(Condensing)初始样本分布图

图 3 压缩剪辑近邻算法(Condensing)剪辑后样本分布图

图 4 KRSNMF算法聚类图

本文中选用的数据集都是常用的标准数据集, 即

$ \begin{eqnarray*} &&WarpAR10P, Yale_{64\times64}, Yale_{32\times32}, Yale, ORL_{64\times64}, \\ &&orlraws10P, Pixraws10P, ORL_{32\times32}, COIL20. \end{eqnarray*} $

文中所有的数值计算都是在处理器为Intel(R) Core(TM) i5-6500 CPU@3.20 GHz 3.19 GHz, 内存为8.00 GB的64位操作系统上进行的, 算法代码用MATLAB R2014a进行编写.本文分别选取了三种核技巧在这九个数据集上进行实验, 即高斯核技巧、幂指数核技巧和拉普拉斯核技巧.它们的计算方式分别为

$ \begin{eqnarray*} &&K\left( {{x_i}, {x_j}} \right) = \exp \left( { - \frac{{\left\| {{x_i} - {x_j}} \right\|}^2}{2\sigma ^2}} \right), \; \; K\left( {x_i}, {x_j} \right) = \exp \left( { - \frac{{\left\| {x_i} - {x_j}\right\|}}{{2{\sigma ^2}}}} \right), \\ &&K\left( {x_i}, {x_j} \right) = \exp \left( { - \frac{{\left\| {x_i} - {x_j} \right\|}}{\sigma }} \right). \end{eqnarray*} $

实验中的参数选取如下$ \lambda = 0.05, \xi = 0.1;\beta = 3.5, \sigma = 0.22. $

4.1 评价指标

精度(Accuracy, ACC)和归一化互信息(Normalized Mutual Information, NMI)是被广泛应用于不同聚类方法的评价聚类性能的指标.如果$ x_{i} $表示原始数据空间给定的数据点, $ l_{i} $是根据某一个聚类算法由数据点$ x_{i} $计算得到的类标签, $ g_{i} $是真实的类标签. map$ (\cdot) $是从$ l_{i} $$ g_{i} $的最佳映射函数, 可以由Hungarian算法[27]计算得到.因此聚类精度被定义如下:

$ \begin{equation*} \label{a25} ACC = \frac{1}{N}\sum\limits_{i = 1}^N {\delta \left( l_{i}, {\hbox{map}} \left( {{g_i}} \right) \right)}, \end{equation*} $

这里的$ N $是总数据点个数, $ \delta \left( {x, y} \right) $是一个delta函数.计算规则:如果$ x = y $, 则$ \delta \left( {x, y} \right) = 1 $; 否则$ \delta \left( {x, y} \right) = 0 $.

如果用$ C $来表示真实类标集, $ S $表示从某一个算法得到的类标集, 则它们的互信息$ MI\left( {C, S} \right) $定义如下:

$ \begin{equation*} \label{a26} MI\left( {C, S} \right) = \sum\limits_{{c_i} \in C, {s_j} \in S} {p\left( {{c_i}, {s_j}} \right)} \log \frac{{p\left( {{c_i}, {s_j}} \right)}}{{p\left( {{c_i}} \right) \cdot p\left( {{s_j}} \right)}}, \end{equation*} $

其中$ p\left( {{c_i}} \right) $$ p\left( {{{s}_j}} \right) $分别是原始数据集中的任意样本点属于$ {c_i} $$ {s_j} $的概率, $ p\left( {{c_i}, {s_j}} \right) $是任意样本同时属于$ {c_i} $$ {s_j} $的联合概率.在实验中, 归一化互信息的计算方式为

$ \begin{equation*} \label{a27} NMI = 2\frac{{MI\left( {C, S} \right)}}{{H\left( C \right) + H\left( {S} \right)}}, \end{equation*} $

这里的$ H\left( C \right) $$ H\left( {S} \right) $分别是$ C $$ S $的信息熵, 且$ NMI $的值在从0到1内.如果两个聚类集合是同一的, 那么$ NMI = 1 $; 如果两个集合是相互独立的, 则$ NMI = 0 $.也就是说, 如果两个数据点相似度越高, 越有可能被自动分到一个簇.

4.2 实验结果分析

在文献[21]中, Dijana等人提出了非线性非负矩阵分解算法, 本文将此算法记为KOGNMF.这部分主要是KOGNMF算法[21]和KRSNMF算法在九个数据集上的实验结果展示及分析.两种算法的实验结果如表 1表 2表 3所示, 它们分别展示了运用不同核技巧即高斯核技巧、幂指数核技巧和拉普拉斯核技巧的实验结果.

表 1 高斯核聚类性能表

表 2 幂指数核聚类性能表

表 3 拉普拉斯核聚类性能表

精度和归一化互信息是评价聚类性能好坏的常用指标.从表 1可以看出, 在运用高斯核技巧时, 对于不同的数据集, KRSNMF算法计算出的ACC和NMI总是要高于KOGNMF的实验结果, 在orlraws10P, Pixraws10P, ORL$ _{32\times32} $和COIL20这四个数据集上的表现尤为突出.换句话说, 对于聚类性能而言, 本文提出的KRSNMF算法的性能要优于已有的算法.下面介绍幂指数核的实验结果, 幂指数核与高斯核密切相关, 只有正态的平方被忽略.而拉普拉斯核心完全等同于幂指数内核, 除了对$ \sigma $参数的变化不那么敏感.事实上, 从高斯核、幂指数核和拉普拉斯核的计算公式来看, 三者大同小异, 都是径向基函数内核, 高斯核的$ \sigma $的选取也同样适合幂指数核和拉普拉斯核.

表 2的显示结果来看, 在这九个不同的数据集上, KRSNMF算法的性能总是优于KOGNMF算法, 其中在orlraws10P, Pixraws10P, ORL$ _{32\times32} $, ORL和COIL20这五个数据集上的更能体现KRSNMF算法的聚类性能, 这说明本文提出的KRSNMF算法是有效的.最佳的实验结果体现在体现在COIL20数据集上, 该数据集是由20个不同的事物从72个不同的角度拍摄的照片组成的, 在此数据上, KOGNMF算法计算出的$ ACC $$ NMI $分别是$ 0.2326 $$ 0.3445 $, 而运用KRSNMF算法时的$ ACC $$ NMI $分别达到了$ 0.6118 $$ 0.7001 $.这充分展现了KRSNMF算法的有效性.

表 3显示的结果来看, 在九个不同的数据集上, 依然是KRSNMF算法的性能优于KOGNMF算法, 与表 2的结果类似, 在orlraws10P, Pixraws10P, ORL$ _{32\times32} $, ORL和COIL20这五个数据集上的表现更好.其中, 在COIL20上的实验结果显示, 两种算法计算出的互信息相差$ 0.5689 $之多.

虽然三种核技巧的计算方式不同, 但以上三个表的实验结果都阐明了KRSNMF算法的性能更好.从核技巧的角度而言, 选取幂函数核技巧是最有效的.纵观三个表展示的结果来看, 本文提出的KRSNMF算法的性能的确要优于已有的算法.这是因为本文在建立的目标模型中引入了对原始数据中的噪音值和异常值点有自动处理作用的$ L_{2, 1} $范数, 并额外添加了$ L_{2, 1/2} $矩阵伪范数作为稀疏约束, 从而使算法的稀疏性和鲁棒性得到了良好的改善.

5 结论

本文提出了一种基于核技巧的$ L_{2, 1} $范数非负矩阵分解, 它是用$ L_{2, 1} $范数来替代标准NMF中的$ F $范数, 即以$ L_{2, 1} $范数为损失函数, 并且在保留原始数据的内在流行几何结构和运用核技巧来揭示流形的非线性性质的基础上, 添加了$ {L_{2, 1/2}} $矩阵伪范数作为额外的稀疏约束, 从而达到提高算法的稀疏性和鲁棒性的目的.在九个常用的标准数据集上进行实验, 数值实验结果展示了选取幂函数核技巧是最明智的, 也验证了本文提出的KRSNMF算法是有效的.

参考文献
[1] Pentti Paatero, Unto Tapper. Positive matrix factorization:a non-negative factor model with optimal utilization of error estimates of data values[J]. Environmetrics, 2010, 5(2): 111–126.
[2] Daniel D Lee, Sebastian Seung H. Learning the parts of objects by non-negative matrix factorization[J]. Nature, 1999, 401: 788–791. DOI:10.1038/44565
[3] Hans Peter Deutsch. Principle component analysis[M]. UK: Palgrave Macmillan, 2004.
[4] Bruce A Draper, Kyungim Baek, Marian Stewart Bartlett, Ross Beveridge J. Recognizing faces with pca and ica[J]. Computer Vision Image Understanding, 2003, 91(1): 115–137.
[5] Allen Gersho, Robert M Gray. Vector quantization and signal compression[M]. US: Springer, 1992.
[6] Daniel D Lee, Sebastian Seung H. Algorithms for non-negative matrix factorization[J]. Proc. Neural Inform. Proc. Sys., 2001, 13: 556–562.
[7] Cai Deng, He Xiaofei, Han Jiawei, Huang Thomas S. Graph regularized nonnegative matrix factorization for data representation[J]. IEEE Trans. Patt. Anal. Machine Intell., 2011, 33(8): 1548–1560. DOI:10.1109/TPAMI.2010.231
[8] Tao Dapeng, Jin Lianwen, Liu Weifeng, Li Xuelong. Hessian regularized support vector machines for mobile image annotation on the cloud[J]. IEEE Trans. Multimedia, 2013, 15(4): 833–844. DOI:10.1109/TMM.2013.2238909
[9] Chen L, Xu D, Tsang I W, Li X. Spectral embedded hashing for scalable image retrieval[J]. IEEE Trans. Cybern., 2014, 44(7): 1180–1190. DOI:10.1109/TCYB.2013.2281366
[10] Biplab Banerjee, Francesca Bovolo, Avik Bhattacharya, Lorenzo Bruzzone, Subhasis Chaudhuri, Krishna Mohan B. A new self-training-based unsupervised satellite image classification technique using cluster ensemble strategy[J]. IEEE Geosci. Remote Sensing Lett., 2014, 12(4): 741–745.
[11] Liu G, Zhang Y, Wang A. Incorporating adaptive local information into fuzzy clustering for image segmentation[J]. IEEE Trans. Image Proc. Publ. IEEE Sign. Proc. Soc., 2015, 24(11): 3990.
[12] Ritendra Datta, Dhiraj Joshi, Li Jia, James Z Wang. Image retrieval:ideas, influences, and trends of the new age[J]. Acm Comput. Surveys, 2008, 40(2): 1–60.
[13] Paritosh Pande, Brian E Applegate, Javier A Jo. Application of non-negative matrix factorization to multispectralflim data analysis[J]. Biom. Optics Express, 2012, 3(9): 2244–2262. DOI:10.1364/BOE.3.002244
[14] Qiao Jiangang. A novel probability-based clustering method[D]. Lanzhou: Lanzhou University, 2014.
[15] Li S Z, Hou X W, Zhang H J, Cheng Q S. Learning spatially localized, parts-based representation[J]. Computer Vision Patt. Recog., 2001, 1: 207–212.
[16] Hoyer P O. Non-negative sparse coding[C]. Neural Networks for Signal Processing, Proceedings of the 2002 IEEE Workshop on, 2002: 557-565.
[17] Barman P C, Nadeem Iqbal, Soo Young Lee. Non-negative matrix factorization based text mining[J]. Feature Extract. Classi., 2006, 4233: 703–712.
[18] Yang Zhirong, Yuan Zhijian, Laaksonkn Jorma. Projective non-negative matrix factorization with applications to facial image processing[J]. Intern. J. Patt. Recog. Artif. Intell., 2007, 21(08): 1353–1362. DOI:10.1142/S0218001407005983
[19] Zeng Kun, Yu Jun, Li Cuihua, You Jane, Jin Taisong. Image clustering by hyper-graph regularized non-negative matrix factorization[J]. Neurocomputing, 2014, 138(11): 209–217.
[20] Li Huirong, Zhang Jiangshe, Shi Guang, Liu Junmin. Graph-based discriminative non-negative matrix factorization with label information[J]. Neurocomputing, 2017(266): 91–100.
[21] Dijana Tolic, Nino Antulovfantulin, Ivica Kopriva. A nonlinear orthogonal non-negative matrix factorization approach to subspace clustering[J]. Pattern Recognition, 2018(82): 40–55.
[22] Christopher K I Williams. Learning with kernels:support vector machines, regularization, optimization, and beyond[J]. Publ. American Stat. Assoc., 2002, 98(462): 489–489.
[23] Huang T M, Kecman V, Kopriva I. Kernel based algorithms for mining huge data sets:supervised, semi-supervised, and unsupervised learning[M]. DBLP, 2006.
[24] Wan Y, Chen X, Zhang J. Global and intrinsic geometric structure embedding for unsupervised feature selection[J]. Expert Sys. Appl., 2018(93): 134–142.
[25] Kong D, Ding C, Huang H. Robust nonnegative matrix factorization using L21-norm[C]. Proceedings of the 20th ACM International Conference on Information and Knowledge Management. ACM, 2011: 673-682.
[26] Ngom A, Li Y. The non-negative matrix factorization toolbox for biological data mining[J]. Source Code. Biol. Med., 2013, 8(1): 1–15. DOI:10.1186/1751-0473-8-1
[27] Christos H Papadimitriou, Kenneth Steiglitz. Combinatorial optimization:algorithms and complexity[J]. IEEE Trans. Acoustics Speech Signal Proc., 1998, 32(6): 1258–1259.