APP下载

基于反馈神经网络的稀疏信号恢复的优化算法

2017-11-15汪星星李国成

计算机应用 2017年9期
关键词:范数重构观测

汪星星,李国成

(北京信息科技大学 理学院,北京 100192)(*通信作者电子邮箱wangxx501@163.com)

基于反馈神经网络的稀疏信号恢复的优化算法

汪星星*,李国成

(北京信息科技大学 理学院,北京 100192)(*通信作者电子邮箱wangxx501@163.com)

针对稀疏信号的重构问题,提出了一种基于反馈神经网络(RNN)的优化算法。首先,需要对信号进行稀疏表示,将数学模型化为优化问题;接着,基于l0范数是非凸且不可微的函数,并且该优化问题是NP难的,因此在测量矩阵A满足有限等距性质(RIP)的前提下,提出等价优化问题;最后,通过建立相应的Hopfield反馈神经网络模型来解决等价的优化问题,从而实现稀疏信号的重构。实验结果表明,在不同观测次数m下,对比RNN算法和其他三种算法的相对误差,发现RNN算法相对误差小,且需要的观测数也少,能够高效地重构稀疏信号。

l0最优化;反馈神经网络;有限等距性;能量函数

0 引言

压缩感知理论近年来在各研究领域都得到了广泛的应用,例如医学成像、CT断层扫描、机器学习等。2006年Candès等[1]指出:当信号具有稀疏特性时,可以通过远小于信号长度的少量观测值来精确地重构稀疏信号。但是一般的自然信号s本身并不是稀疏的,需要在某种稀疏基上进行稀疏表示。不妨给定有限长离散信号s,信号稀疏度为k(即含有k个非零值),则s可以表示成一组正交基的线性组合:

(1)

其中ψ=[ψ1,ψ2,…,ψn]是一组正交基。

Candès等[2]指出若压缩感知矩阵A满足有限等距性(Restricted Isometry Property, RIP)条件,并且x为稀疏度为k的信号,那么可以通过求解下面的l0范数最小化问题便可以精确地恢复x:

(2)

其中:‖x‖0指的是非零元素的个数,A是传感矩阵。

压缩感知主要包括信号的稀疏表示、观测矩阵的设计以及稀疏信号恢复三个方面[3],主要是通过非线性的重构算法(最优化方法)来恢复信号。

图1 压缩感知理论框架

由于Ax=b是欠定的,‖·‖0是非凸不可微函数,并且问题(2)是NP难的,因此通常采用l1范数来替代l0范数,那么重构稀疏信号的问题即变成了求解优化问题(3):

(3)

定义1 定义测量矩阵A的RIP参数δk满足下式的最小值δ:

其中x为k阶稀疏信号。

一般有两大类算法对问题(3)进行近似求解,即贪婪追踪法和凸松弛法, 文献[5-9]提出利用匹配追踪算法(Matching Pursuit, MP)和正交追踪算法(Orthogonal Matching Pursuit, OMP)来求解l0最小范数问题,大大地提高了计算速度,且易于实现,但是恢复能力不强。由于传统贪婪算法在抗噪方面不是很强,文献[10]提出了具有较强鲁棒性的压缩采样匹配追踪(Compressive Sampling Matching Pursuit, CoSaMP),但由于CoSaMP算法需要已知信号的稀疏度k,而实际应用中信号的稀疏度k往往是未知的。因此CoSaMP算法在解决稀疏信号重构问题上存在一些问题。MP算法来源于贪婪追踪算法,特点是计算复杂度低,但需要较多的观测值,重构精度低;而OMP算法和CoSaMP算法具有良好的稳定性和理论保证,但仅针对大规模的问题恢复率较高。凸松弛算法,这类方法通过将非凸问题转化为凸问题求解找到信号的逼近,其中最常用的方法就是基追踪(Basis Pursuit, BP)[11],该方法提出利用l1范数替代l0范数来解决最优化问题。这两大类算法在较高的稀疏度下或在较低的观测度下,都很难对高斯信号进行高效重构。

1 反馈神经网络算法

1.1 反馈神经网络

鉴于上述算法所存在的弊端,本文采用神经网络算法来解决压缩感知理论中的信号恢复问题。主要从以下几个方面展开工作:第一部分是建立非线性等式约束优化问题相应的反馈神经网络(Recurrent Neural Network, RNN),为便于研究,接着选取合适的凸函数f(x)来逼近‖x‖1,随后根据梯度下降思想建立神经动力学方程;第二部分探讨所建立的反馈神经网络的稳定性、收敛性和收敛速度与步长的关系等因素;第三部分给出网络的停时条件以及算法具体步骤;第四部分是随机生成离散信号,利用神经网络重构离散信号,并且与已有的重构算法进行对比,从而说明反馈神经网络算法的有效性和准确性。

不论是l0范数最小化还是l1范数最小化问题都可以归结为带约束的优化问题。其中一类通过设计一系列反馈神经网络求解带约束的优化问题的方法统称为神经动力学优化方法。以下是一个非线性等式约束优化问题:

(4)

其中:x∈Rn,f:Rn→R是目标函数,h:Rn→Rm(m

假设x*是问题(4)的一个最优解,M1是目标函数f(x)的一个下界,即M1≤f(x*)。函数[5]:

F(x,M1)=[(f(x)-M1)+]2=

由于F(x,M1)是连续可微的非减凸函数,并且:

考虑凸优化问题:

(5)

根据梯度下降法,可以建立求解问题(5)的神经网络:

(6)

类似地,再次作能量函数:

(7)

得到相应问题(7)的子凸优化问题:

minE(x,M2)

(8)

(9)

基于逐步迭代连续近似的思想,令:

minE(x,Mk)

(10)

minE(x,Mk+1)

(11)

相应的神经子网络模型:

(12)

1.2 稀疏信号的恢复

结合式(3)和式(4),考虑建立反馈神经网络来解决问题(3),由于算子‖·‖1在xi=0处不可微,因此不妨考虑凸函数f(xi)=ln(cosh(axi))/a(其中a>1)来近似逼近‖x‖1,从图2可以看出a越大,该近似效果越精确:

对于函数y=ln(cosh(ax))/a,有y′=tanh(ax),并且双曲正切函数是严格单调增函数。

值得注意的是,双曲正切函数在神经网络中经常被当作激活函数使用。此时问题(3)变成了:

(13)

易知E(x,M1)≥0是凸函数,则:

▽E(x,M1)=f(x)▽f(x)+(Ax-b)TA

那么对于凸优化问题:minE(x,M1)

根据梯度下降法,建立神经动力学方程:

(14)

图2 目标函数(n=1时)

图3 激活函数y′=tanh(x)

2 稳定性与收敛性分析

为了探讨RNN的稳定性与收敛性能,下面给出两个定理并证明:

证毕。

3 停时条件

重构稀疏信号x的主要思想是通过建立反馈神经网络模型,再由龙格-库塔方法,利用Matlab平台逐步迭代寻找问题(3)的最优解和最优值,直到满足停时条件。下面给出RNN算法的具体步骤。

步骤1 初始化。设t=0,取初始点x(t0)=x0∈Rn,给定步长Δ>0和ε∈[10-15,10-5],k:=1,M1≤f(x*)。

步骤2 计算梯度:u(t)=(f(x)-Mk)▽f(x)+(Ax-b)TA。

步骤3 状态更新:x(t+Δt)=x(t)-Δt·u(t)。

4 仿真实验

1)产生k稀疏信号x∈Rn,k个非零元素的位置是随机产生的,满足[1,n]的均匀随机分布。相应的非零元素的大小也是随机产生的。

3)计算观测向量:b=Ax,其中b∈Rm。

由文献[2]知,当矩阵A满足RIP条件时,精确恢复信号x所需的观测量的数量m满足:m≥Cklog(n/k)即可,其中C是常数,即m只与问题的规模参数组合(n,k)有关。取实验参数为:测量矩阵大小m=64,n=256,原始信号稀疏度k=10。根据上述数据的生成方法,可以产生如图4和图5所示的原始稀疏信号和观测向量。

图4 原始稀疏信号

2)产生观测矩阵A∈Rm×n,矩阵的所有元素是随机生成的并且服从高斯分布N(0,1),rank(A)=m。

图5 观测向量b

由图6可知,在b与A给定的情况下,x在神经网络(14)的不断反馈之下,最终重构并且非零元素均收敛到既定位置上的元素。为了检验不同稀疏度下和观测次数m与正确重构概率的关系,不妨取稀疏度k=[4,12,20,28,36]。

每一组(k,m,n),执行200次随机实验,由图7可知,对于不同稀疏度k,当观测点数m大于等于110时,RNN方法能正确恢复稀疏信号的概率极高。 而由图8可知,对于不同观测点数的m,当稀疏度k小于等于20时,RNN方法能正确恢复稀疏信号的概率极高。

图的状态变化曲线

图7 测量数m与成功恢复的概率关系(n=256)

图8 稀疏度k与成功恢复的概率关系(n=256)

由表1知,模型(8)只需要较少的观测次数就可以正确地恢复稀疏信号,也可以看出,当m大于100时,其他算法也获得较低的恢复误差,说明当观察次数m足够大时,通常适用的算法同样也能获得较精确的恢复效果。

表1 几种算法在不同观测次数下的相对误差

5 结语

本文基于目标函数的性质,设计快速重构稀疏信号的反馈神经网络算法,通过讨论能量函数的梯度,证明该RNN模型最优解的存在性与原问题的近似等价性,讨论了网络的稳定性,并且通过实验验证了算法的有效性;但是该算法也有不足之处,反复实验之下,发现最佳的迭代次数会导致运算量增加,从而稀疏信号重构时间加长,因而该网络需要进一步改进。

References)

[3] 尹宏鹏,刘兆栋,柴毅,等.压缩感知综述[J].控制与决策,2013,28(10):1441-1445.(YIN H P, LIU Z D, CHAI Y, et al. Survey of compressed sensing [J]. Control and Decision, 2013, 28(10): 1441-1445.)

[4] FOUCART S, LAI M J. Sparsest solutions of underdetermined linear systems viaq-minimization for 0

[5] BLUMENSATH T, DAVIES M E. Gradient pursuits [J]. IEEE Transactions on Signal Processing, 2008, 56(6): 2370-2382.

[6] DAI W, MILENKOVIC O. Subspace pursuit for compressive sensing signal reconstruction [J]. IEEE Transactions on Information Theory, 2009, 55(5): 2230-2249.

[7] MALLAT S G, ZHANG Z F. Matching pursuits with time-frequency dictionaries [J]. IEEE Transactions on Signal Processing, 1993, 41(12): 3397-3415.

[8] FIGUEIREDO M A T, NOWAK R D, WRIGHT S J. Gradient projection for sparse reconstruction: application to compressed sensing and other inverse problems [J]. IEEE Journal of Selected Topics in Signal Processing, 2007, 1(4): 586-597.

[9] CHEN S S, DONOHO D L, SAUNDERS M A. Atomic decomposition by basis pursuit [J]. SIAM Journal on Scientific Computing, 1998, 20(1): 33-61.

[10] NEEDELL D, TROPP J A. CaSaMP: iterative signal recovery from incomplete and inaccurate samples [J]. Applied and Computational Harmonic Analysis, 2008, 26(3): 301-321.

[11] 李珅,马彩文,李艳,等.压缩感知重构算法综述[J].红外与激光工程,2013,42(S1):225-232.(LI S, MA C W, LI Y, et al. Survey on reconstruction algorithm based on compressive sensing [J]. Infrared and Laser Engineering, 2013, 42(S1): 225-232.)

[12] BOGACKI P, SHAMPINE L F. A 3(2) pair of Runge-Kutta formulas [J]. Applied Mathematics Letters, 1989, 2(4): 321-325.

[13] 李国成,宋士吉,吴澄.解决非可微凸优化问题的次梯度反馈神经网络[J].中国科学(E辑),2006,36(8):811-824.(LI G C, SONG S J, WU C. Sub-gradient feedback neural network for solving non-differentiable convex optimization [J]. SCIENCE CHINA Sev. E Information Sciences, 2006, 36(8): 811-824.)

[14] 曾喆昭.神经网络优化方法及其在信息处理中的应用研究 [D].长沙:湖南大学,2008:62-73.(ZENG Z Z. Neural network optimization method and its application in information processing [D]. Changsha: Hunan University, 2008: 62-73.)

[15] XIA Y, FENG G, WANG J. A novel recurrent neural network for solving nonlinear optimization problems with inequality constraints [J]. IEEE Transactions on Neural Networks, 2008, 19(8): 1340-1353.

[16] LIU Q, WANG J. A one-layer recurrent neural network with a discontinuous hard-limiting activation function for quadratic programming [J]. IEEE Transactions on Neural Networks, 2008, 19(4): 558-570.

[17] LEUNG C S, SUM J, CONSTANTINIDES A G. Recurrent networks for compressive sampling [J]. Neurocomputing, 2014, 129: 298-305.

[18] LIU Q, WANG J. A one-layer recurrent neural network with a discontinuous activation function for linear programming [J]. Neural Computation, 2008, 20(5): 1366-1383.

Sparsesignalreconstructionoptimizationalgorithmbasedonrecurrentneuralnetwork

WANG Xingxing*,LI Guocheng

(CollegeofScience,BeijingInformationScienceandTechnologyUniversity,Beijing100192,China)

Aiming at the problem of sparse signal reconstruction, an optimization algorithm based on Recurrent Neural Network (RNN) was proposed. Firstly, the signal sparseness was represented, and the mathematical model was transformed into an optimization problem. Then, based on the fact that thel0-norm is a non-convex and non-differentiable function, and the optimization problem is NP-hard, under the premise that the measurement matrixAmet Restricted Isometry Property (RIP), the equivalent optimization problem was proposed. Finally, the corresponding Hopfield RNN model was established to solve the equivalent optimization problem, so as to reconstruct sparse signals. The experimental results show that under different observation numberm, compared the RNN algorithm and the other three algorithms, it is found that the relative error of the RNN algorithm is smaller and the observations number is smaller, and the RNN algorithm can reconstruct the sparse signals efficiently.

l0optimization; Recurrent Neural Network (RNN); Restricted Isometry Property (RIP); energy function

2017- 03- 23;

2017- 05- 31。

国家自然科学基金资助项目(61473325)。

汪星星(1991—),女,湖北黄冈人,硕士研究生,主要研究方向:神经网络优化计算; 李国成(1964—),男,河北承德人,教授,博士,主要研究方向:神经网络优化计算。

1001- 9081(2017)09- 2590- 05

10.11772/j.issn.1001- 9081.2017.09.2590

TP18

A

This work is partially supported by the National Natural Science Foundation of China (61473325).

WANGXingxing, born in 1991, M. S. candidate. Her research interest include neural network optimization calculation.

LIGuocheng, born in 1964, Ph.D., professor. His research interests include neural network optimization calculation.

猜你喜欢

范数重构观测
“双减”能否重构教育生态?
基于同伦l0范数最小化重建的三维动态磁共振成像
长城叙事的重构
高盐肥胖心肌重构防治有新策略
向量范数与矩阵范数的相容性研究
天文动手做——观测活动(21) 软件模拟观测星空
基于加权核范数与范数的鲁棒主成分分析
北京的重构与再造
2018年18个值得观测的营销趋势
可观测宇宙