关于凸极小化的Douglas-Rachford分裂方法的一个注

康倍倍,董云达,王亚丽

(郑州大学 数学与统计学院,河南 郑州 450001)

摘 要:在一个实的无穷维Hilbert空间中,研究关于凸极小化的Douglas-Rachford分裂方法.假设目标函数中的fg均为闭的真凸函数,并且f的梯度是Lipschitz连续的.分析了Douglas-Rachford分裂方法的弱收敛性,其中邻近参数可以变化并且上界与f的梯度的Lipschitz常数有关.

关键词:凸极小化;Douglas-Rachford分裂方法;邻近参数;弱收敛性

0 引言

H为一个实的无穷维Hilbert空间,假设f,g:H→R∪{+∞}是闭的真凸函数,并且f还是连续可微的.考虑下面的凸极小化问题:

).

该问题在优化、控制、管理以及信息科学中有着极为广泛的应用.在适当的条件下,相应的最优性条件:

0∈f(x)+∂g(x).

(1)

Douglas-Rachford分裂方法[1-2](以后简称DR方法)是解决此问题的一个经典方法.任取z0H, λ>0,相应的迭代格式为:

此时,zk弱收敛于是问题(1)的解.

最近,在f的梯度是L-Lipschitz连续的条件下,Davis[3]证明了当λ<κ/L(κ≈1.246 98)时,

f(yk)+g(yk)-f(x*)-g(x*)=o(1/k),

成立,其中x*是问题(1)的一个解点.

在本文中,笔者讨论DR方法的等价形式[2,4]:任取x0H,相应的迭代格式:

xk-λk

(2)

xk+1+λkf(xk).

(3)

其中,λk>0被称为邻近参数,它在每次迭代中可以有所变化.

笔者主要证明了若邻近参数序列同时满足:

则{xk}弱收敛于问题(1)的一个解点.

对比于Davis的工作,在每次迭代中,允许邻近参数有所变化,并且其上界更优.

1 预备知识

在这一节中,给出几个重要的引理.

引理1 若f是L-Lipschitz连续的,即存在某个常数L>0,使得

f(x)-f(y)‖≤Lx-y‖,∀x,yH

则有

f(x)≤f(y)+〈x-y,f(y)〉+x-y2

(4)

f(x)-f(y)‖2≤〈x-y,f(x)-f(y)〉,

(5)

其中性质(5)由Baillon等[5]最早提出.

引理2[4] 考虑任一极大单调算子T:HH.假设domT中的序列{xk}弱收敛于某一点x,并且H中的序列{sk}强收敛于某一点s,若skT(xk)对于每一个都成立,则sT(x).

引理3[6] 若{ak},{bk},{ck}均为正数序列,并且满足:

bk+1bk

ck=+∞;

则有

2 主要结果

在这一节中,主要研究DR方法的弱收敛性.

定理4 设x*为问题(1)的任一解点,{xk}和是由DR方法所产生的的序列,则有

xk+1-x*2≤‖xk-x*2-
2λk(f()+g()-f(x*)-g(x*))-
xk-xk+12-(-λkL
λkf(xk+1)-λkf(xk)‖2.

(6)

证明:由式(2)可得

).

则由次微分的定义可得,对∀x,有

f(xk)〉.即

g()≤g(x)+〈-x,(xk-)-f(xk)〉.

(7)

f是L-Lipschitz连续的,故由引理1中式(4)可得


2.

(8)

又由

f(x)≥f(xk+1)+f(xk+1)T(x-xk+1),

f(xk+1)≤f(x)+f(xk+1)T(xk+1-x),

(9)

则式(8)与式(9)相加可得

2.

(10)

再由式(7)与式(10)相加可得

从而

2〈-x,xk--λkf(xk)+λkf(xk+1)〉+

λkf(xk+1)-λkf(xk)‖2=2〈xk+1-x,xk-

λkLλkf(xk+1)-λkf(xk)‖2=

xk-x2-‖xk-xk+12-‖xk+1-x2-

2λkf(xk)-f(xk+1),xk-xk+1〉+

λkLλkf(xk+1)-λkf(xk)‖2

xk-x2-‖xk-xk+12-‖xk+1-x2-

2λkf(xk)-f(xk+1)‖2+

λkLλkf(xk+1)-λkf(xk)‖2=

xk-x2-‖xk-xk+12-‖xk+1-x2-

(-λkL)‖λkf(xk+1)-λkf(xk)‖2.

故,令x=x*即可得式(6).

定理5 若邻近参数序列同时满足

(11)

则由DR方法所产生的迭代点序列{xk}弱收敛于问题(1)的一个解点.

证明:设x*为问题(1)的任一解点,则由命题4知式(6)成立,即

由假设条件(11)知-λkL≥0,从而

xk+1-x*2≤‖xk-x*2-

(12)

再由引理3和假设条件(11)可知bk→0.这意味着序列{‖‖}中存在一个子列{‖‖}收敛于0.

由式(6)可得‖xk-xk+1‖→0.因为f是L-Lipschitz连续的,所以

f(xk)-f(xk+1)‖≤Lxk-xk+1‖→0,

从而整个序列{f(xk)-f(xk+1)}以范数收敛于0. 结合式(3)知,

f(xk)-f(xk+1),则有

‖→0.

(13)

另一方面,由式(3)和假设条件(11)知,

xk-‖=‖xk-xk+1+λk(f(xk)-f(xk+1))‖≤
xk-xk+1‖+λkf(xk)-f(xk+1)‖≤
xk-xk+1‖+f(xk)-f(xk+1)‖≤
(1+)‖xk-xk+1‖→0.

(14)

接下来,我们来证明迭代点序列{xk}的弱收敛性. 首先,由式(12)知,序列{‖xk-x*‖}是非负递减的,从而极限存在.这意味着序列{xk}是有界的. 显然,序列{xkj}也是有界的,从而存在子列{xkjl},使得{xkjl}弱收敛于x. 结合式(14)知也弱收敛于x. 其次,由式(2)知,

f(xk)-

().

沿着kjl取极限,并结合f+∂g的极大单调性、式(13)、式(14)和引理2可得:

0∈(f+∂g)(x),

x为问题(1)的一个解点.至于迭代序列弱聚点的唯一性的证明,读者可参考文献[4].证毕.

3 结论

笔者对于凸极小化式(1)的DR方法,研究了邻近参数可以变化的情形,并且在保证全局弱收敛性的前提下,揭示了邻近参数的上界与式(1)中相应梯度的Lipschitz常数的内在关系.至于邻近点算法的o(1/k)-收敛率,可以参考文献[6].作为其特例的DR方法的情形,可以参考文献[3,7]. 如何将笔者工作运用于压缩感知[8] ,则是一个值得探讨的研究课题.

参考文献:

[1] LIONS P L, MERCIER B. Splitting algorithms for the sum of two nonlinear operators[J]. SIAM journal on numerical analysis,1979,16: 964-979.

[2] ECKSTEIN J, BERTSEKAS D P. On douglas-rachford splitting method and the proximal point algorithm for maximal monotone operators[J]. Mathematical programming, 1992, 55(3): 293-318 .

[3] DAVIS D. On the design and analysis of operator splitting schemes[D].Ph.D dissertation, UCLA, 2015.

[4] DONG Y D, FISCHER A. A family of operator splitting methods revisited[J]. Nonlinear analysis, 2010,72: 4307-4315.

[5] BAILLON J B, HADDAD G. Quelques propriétés des opérateurs anglebornés et n-cycliquement monotones[J].Israel journal of mathematics,1977,26:137-150.

[6] DONG Y D.The proximal point algorithm revisited[J]. Journal of optimization theory and applications, 2014, 161: 478-489.

[7] DONG Y D. Douglas-Rachford splitting method for semidefinite programming[J]. Journal of applied mathematics and computing, 2016, 51(1):569-591.

[8] 张红梅,温荟然,张向利,等. 基于压缩特征的稀疏表示运动目标跟踪[J].郑州大学学报(工学版),2016,37(3): 21-26.

A Note on Douglas-Rachford Splitting Method for Convex Minimization

KANG Beibei, DONG Yunda, WANG Yali

(School of Mathematics and Statistics, Zhengzhou University, Zhengzhou 450001, China)

Abstract:In a real infinite-dimensional Hilbert space,Douglas-Rachford splitting method for convex minimization was studied.Iff and g in the objective function were closed,proper convex, and the f’s gradient was Lipschitz continuous,then the method’s weak convergence was analyzed. Our analysis allowed the corresponding proximal parameters to vary from iteration to iteration and their upper bound relied on Lipschitz constant of f’s gradient.

Key words:convex minimization; Douglas-Rachford splitting method; proximal parameter; weak convergence

收稿日期:2016-10-25;

修订日期:2016-11-18

通信作者:董云达(1969— ),男,河南原阳人,郑州大学副教授,博士,主要从事最优化方面的研究,E-mail:ydong@zzu.edu.cn.

文章编号:1671-6833(2017)04-0094-03

中图分类号:O221.2

文献标志码:A

doi:10.13705/j.issn.1671-6833.2017.01.023