暑期学校线上课:
1.分布式和分散式优化:求解
m
i
n
i
m
i
z
e
x
∈
R
p
minimize_{x\in\Reals^p}
minimizex∈Rp
∑
i
=
1
n
f
i
(
x
)
+
h
i
(
x
)
\sum^n_{i=1}f_{i}(x)+h_{i}(x)
∑i=1nfi(x)+hi(x)
当
f
1
,
…
f
n
是
C
C
P
f_{1},…f_{n}是CCP
f1,…fn是CCP(和可接近的)和
h
1
,
…
h
n
是
C
C
P
h_{1},…h_{n}是CCP
h1,…hn是CCP和可微的,在计算设置中,agent=1,…,n,每个代理都执行本地计算,并通过网络进行通信,来找到解决方案x。
集中共识:考虑一个参数服务器网络模型,其中一个集中式代理与n个独立代理协调。
而对于上面方程,基于一致性技术的分布式方法有分布梯度法,分布ADMM法。同时集中一致的分布式优化还会用到的方程分解方法有对偶分解,原始分解等。
2.具有图一致性的分散优化。在离散数学中图(graph)用于表示网络。那么没有中央协调代练的网络可以表示为,V= {1,2,3,4,5,6} ,E={ {1,2},{1,4},{2,3},{3,4},{4,5},{4,6}}
节点代表存储数据和执行计算的计算代理,而边{i,j}代表i和j之间的直接连接,代理i和j可以通过该连接进行通信。考虑在不直接依赖远程中继通信,不委派任何代理作为中央代理的情况下,通过单个边缘进行通信的算法。分布ADMM法同样可以用于图一致性的分散优化情况。
3.混合矩阵分散优化。混合矩阵:例如,
W
∈
R
n
×
n
W \in R^{n×n}
W∈Rn×n是一个混合矩阵,当W的一个应用代表一轮通信和通信信息的聚合,那么λ1,。。。λ为w的特征值。w是相对于G = (V,E)的分散混合矩阵,如果当
W
i
j
=
0
,
i
≠
j
和
i
,
j
∉
E
时
W
i
j
=
0
W_{ij}=0,i\ne j和{i,j} \notin E时W_{ij} = 0
Wij=0,i=j和i,j∈/E时Wij=0.如果W是分散的,则可以用分散的方式评估
W
y
W_y
Wy非零的。
(
W
y
)
i
=
∑
i
=
1
n
W
i
j
y
j
=
∑
j
∈
N
i
∪
i
W
i
j
y
j
(W_y)_i=\sum^n_{i=1}W_{ij} y_j =\sum_{j \in N_i \cup{i}}W_{ij}y_j
(Wy)i=∑i=1nWijyj=∑j∈Ni∪iWijyj
关于混合矩阵的假设:分散优化中使用的混合矩阵
W
∈
R
n
×
n
W\in R^{n×n}
W∈Rn×n通常满足以下部分或全部假设:
W
=
W
T
W=W^T
W=WT
N
(
I
−
W
)
=
s
p
a
n
(
1
)
N(I-W)=span(1)
N(I−W)=span(1)
1
=
∣
λ
1
∣
>
m
a
x
∣
λ
2
∣
,
…
,
∣
λ
n
∣
1=|\lambda_1|>max{|\lambda_2|,…,|\lambda_n|}
1=∣λ1∣>max∣λ2∣,…,∣λn∣
(1)在分散的ADMM或平均中没有被假定,但它是常见的;具有对称W的方法往往更容易分析。(2)意味着当且仅当x = Wx时,x是一致的,并且几乎所有分散优化方法都需要x。(3)假设建立了某些方法的收敛性。
动态混合矩阵:假设混合矩阵,一旦给定就是固定的,不会随着迭代而改变。然而,可以使用一系列动态混合矩阵。即使图是固定的,动态混合矩阵也可以用来获得更快的收敛。可以使用所谓的2阶指数动态混合矩阵以log2(n)步计算分散平均值。这在固定的混合矩阵下是不可能的。同时还介绍了一些不精确的分散的方法,例如分散梯度下降法(DGD)和扩散法。扩散的优点:扩散允许更大的步长,扩散罚公式的解比DGD的解更接近原问题的解。DGD的优点:不需要其他额外的假设。同样精确的分散方法有PG—EXTRA法和NIDS。PG-EXTRA的步长
α
\alpha
α依赖于
w
ˉ
\bar w
wˉ的特征值,这不仅限制了
α
\alpha
α的大小,而且在网络不完全已知的情况下,使得
α
\alpha
α的选择更加困难。相比之下,NIDS允许步长
α
\alpha
α更大,并且独立于W和选择
w
ˉ
\bar w
wˉ
8.8总结
最新推荐文章于 2021-10-14 15:56:19 发布