最优化学期学习笔记—罚函数法(代码记录)
前言
提示:这里可以添加本文要记录的大概内容:
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。
提示:以下是本篇文章正文内容,下面案例可供参考
一、引入问题
考虑优化当前问题,作为等式约束,可以很容易利用添加外部惩罚项对整个函数进行修改,如下:
C为惩罚项的常数(应当为大数)
当引入的惩罚项X1+x2+x3=2/3时,整个惩罚项为0。否则为一个非常大的整数对冲最小值
将有约束的问题改为无约束后即可利用牛顿法进行无约束的优化
二、代码
def gradient(vetector,C):
return (
[ vetector[0]+C*(vetector[0]+vetector[1]+vetector[2]-2/3) ],
[ (1/3)*vetector[1]+C*(vetector[0]+vetector[1]+vetector[2]-2/3) ],
[ (2/7)*vetector[2]+C*(vetector[0]+vetector[1]+vetector[2]-2/3) ],
)
def transformeToVector(former):
return np.array( [former[0][0][0],former[1][0][0],former[2][0][0]])
def myC(C):
return C ** 2
def Hessen(C):
return np.array([ [1+C,C,C],
[C,1/3+C,C],
[C,C,2/7+C],
])
x0 = np.random.randint(0,10,size=(3,1))-5
C = 10
g0 = np.transpose(np.mat(transformeToVector(gradient(x0,myC(C)))))
G0 = np.linalg.inv( Hessen(myC(C)) )
all_x = []
all_g = []
all_G = []
all_x.append(x0)
all_g.append(g0)
all_G.append(G0)
while np.linalg.norm(all_g[-1]) > 10**-4 :
x = all_x[-1] - all_G[-1].dot(all_g[-1])
all_x.append(x)
g = np.transpose(np.mat(transformeToVector(gradient(x,myC(C)))))
all_g.append(g)
C = myC(C)
print("当前已经迭代了"+str(len(all_x)-1)+"代")