py: numpy.dot 点积

numpy 矩阵积(点积)

ref

https://blog.csdn.net/l1159015838/article/details/81980330

note

在这里插入图片描述

今天学习到numpy基本的运算方法,遇到了一个让我比较难理解的问题。就是dot函数是如何对矩阵进行运算的。

一、dot()的使用

参考文档:https://docs.scipy.org/doc/numpy/reference/generated/numpy.dot.html

dot()返回的是两个数组的点积(dot product)

1.如果处理的是一维数组,则得到的是两数组的內积(顺便去补一下数学知识)


In : d = np.arange(0,9)
Out: array([0, 1, 2, 3, 4, 5, 6, 7, 8])
In : e = d[::-1]
Out: array([8, 7, 6, 5, 4, 3, 2, 1, 0])
 
In : np.dot(d,e) 
Out: 84

3.dot()函数可以通过numpy库调用,也可以由数组实例对象进行调用。

a.dot(b) 与 np.dot(a,b)效果相同。

矩阵积计算不遵循交换律,np.dot(a,b) 和 np.dot(b,a) 得到的结果是不一样的。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
感谢提供错误信息。根据错误提示,似乎是在使用Scipy库中的`minimize`函数时出现了问题。具体来说,错误信息显示未知的约束类型`trust-region`,这可能是因为Scipy库的版本不同导致的。为了解决这个问题,您可以尝试使用`minimize`函数的替代方案。例如,可以使用`scipy.optimize.fmin_tnc`函数来代替`minimize`函数,并指定约束类型为`None`。下面是修改后的代码: ```python import numpy as np from scipy.optimize import fmin_tnc # 定义目标函数 def negative_log_likelihood(theta, X, y): # 计模型预测值 y_pred = np.dot(X, theta) # 计负对数似然函数 neg_log_likelihood = -np.sum(y*np.log(y_pred) + (1-y)*np.log(1-y_pred)) return neg_log_likelihood # 定义计梯度的函数 def gradient(theta, X, y): # 计模型预测值 y_pred = np.dot(X, theta) # 计梯度 grad = np.dot(X.T, y_pred - y) return grad # 定义计海森矩阵的函数 def hessian(theta, X, y): # 计模型预测值 y_pred = np.dot(X, theta) # 计海森矩阵 H = np.dot(X.T * y_pred * (1 - y_pred), X) return H # 定义信赖域和局部线性近似方法 def trust_region_newton(theta_init, X, y, radius=0.1, max_iter=100): theta = theta_init for i in range(max_iter): # 计梯度和海森矩阵 grad = gradient(theta, X, y) H = hessian(theta, X, y) # 使用信赖域方法求解更新量 p = fmin_tnc(func=lambda p: np.dot(grad, p) + 0.5*np.dot(p.T, np.dot(H, p)), x0=np.zeros_like(theta), fprime=lambda p: np.dot(H, p) + grad, args=(X, y), bounds=None) # 更新参数 theta += p[0] return theta # 生成随机数据集 n_samples, n_features = 1000, 10 X = np.random.normal(size=(n_samples, n_features)) y = np.random.binomial(1, 0.5, size=n_samples) # 初始化参数 theta_init = np.zeros(n_features) # 求解最大似然估计 theta_ml = trust_region_newton(theta_init, X, y) print("最大似然估计的参数为:", theta_ml) ``` 在这个修改后的代码中,我们使用了`scipy.optimize.fmin_tnc`函数来代替`minimize`函数,并将约束类型指定为`None`。同时,我们还对计梯度和海森矩阵的函数进行了微调,以适配`fmin_tnc`函数的接口。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值