scipy.optimize注意constraints

求解带有等式约束的最优化问题,遇到了

Optimization terminated successfully.    (Exit mode 0)

参考了问题https://stackoverflow.com/questions/37791680/scipy-optimize-minimize-slsqp-with-linear-constraints-fails,找到了原因是constraints写得有误。例子如下

import numpy as np
from scipy.optimize import minimize

# problem dimensions:
n = 10 # arbitrary integer set by user
m = 2 * n

# generate parameters A, b:
np.random.seed(123) # for reproducibility of results
A = np.random.randn(m,n)
b = np.random.randn(m)
z0 = np.random.randn(n+m)
# objective function:
def obj(z):
    vy = z[n:]
    return 0.5 * vy.dot(vy)

def cons_i(z, i):
    vx = z[:n]
    vy = z[n:]
    return A[i].dot(vx) - b[i] - vy[i]

# listable of scalar-output constraints input for SLSQP:
cons_per_i_one = [{'type':'eq', 'fun': lambda z: cons_i(z, i)} for i in np.arange(m)]  #这种就不行
cons_per_i = [{'type':'eq', 'fun': cons_i, 'args': (i,)} for i in np.arange(m)]  # 下面这种就可以

sol2 = minimize(obj, x0 = z0, constraints = cons_per_i, method = 'SLSQP', options={'disp': True})

还没具体看为什么会有这个问题,但把这里bug记录下 

感谢提供错误信息。根据错误提示,似乎是在使用Scipy库中的`minimize`函数时出现了问题。具体来说,错误信息显示未知的约束类型`trust-region`,这可能是因为Scipy库的版本不同导致的。为了解决这个问题,您可以尝试使用`minimize`函数的替代方案。例如,可以使用`scipy.optimize.fmin_tnc`函数来代替`minimize`函数,并指定约束类型为`None`。下面是修改后的代码: ```python import numpy as np from scipy.optimize import fmin_tnc # 定义目标函数 def negative_log_likelihood(theta, X, y): # 计算模型预测值 y_pred = np.dot(X, theta) # 计算负对数似然函数 neg_log_likelihood = -np.sum(y*np.log(y_pred) + (1-y)*np.log(1-y_pred)) return neg_log_likelihood # 定义计算梯度的函数 def gradient(theta, X, y): # 计算模型预测值 y_pred = np.dot(X, theta) # 计算梯度 grad = np.dot(X.T, y_pred - y) return grad # 定义计算海森矩阵的函数 def hessian(theta, X, y): # 计算模型预测值 y_pred = np.dot(X, theta) # 计算海森矩阵 H = np.dot(X.T * y_pred * (1 - y_pred), X) return H # 定义信赖域和局部线性近似方法 def trust_region_newton(theta_init, X, y, radius=0.1, max_iter=100): theta = theta_init for i in range(max_iter): # 计算梯度和海森矩阵 grad = gradient(theta, X, y) H = hessian(theta, X, y) # 使用信赖域方法求解更新量 p = fmin_tnc(func=lambda p: np.dot(grad, p) + 0.5*np.dot(p.T, np.dot(H, p)), x0=np.zeros_like(theta), fprime=lambda p: np.dot(H, p) + grad, args=(X, y), bounds=None) # 更新参数 theta += p[0] return theta # 生成随机数据集 n_samples, n_features = 1000, 10 X = np.random.normal(size=(n_samples, n_features)) y = np.random.binomial(1, 0.5, size=n_samples) # 初始化参数 theta_init = np.zeros(n_features) # 求解最大似然估计 theta_ml = trust_region_newton(theta_init, X, y) print("最大似然估计的参数为:", theta_ml) ``` 在这个修改后的代码中,我们使用了`scipy.optimize.fmin_tnc`函数来代替`minimize`函数,并将约束类型指定为`None`。同时,我们还对计算梯度和海森矩阵的函数进行了微调,以适配`fmin_tnc`函数的接口。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值