numpy.linalg模块

最近在看机器学习的 LogisticRegressor,BayesianLogisticRegressor算法,里面得到一阶导数矩阵g和二阶导数Hessian矩阵H的时候,用到了这个模块进行求解运算,记录一下。

 numpy.linalg模块包含线性代数的函数。使用这个模块,可以计算逆矩阵、求特征值、解线性方程组以及求解行列式等

import numpy as np
# 1. 计算逆矩阵
# 创建矩阵
A = np.mat("0 1 2;1 0 3;4 -3 8")
print (A)
#[[ 0 1 2]
# [ 1 0 3]
# [ 4 -3 8]]
# 使用inv函数计算逆矩阵
inv = np.linalg.inv(A)
print (inv)
#[[-4.5 7. -1.5]
# [-2. 4. -1. ]
# [ 1.5 -2. 0.5]]
# 检查原矩阵和求得的逆矩阵相乘的结果为单位矩阵
print (A * inv)
#[[ 1. 0. 0.]
# [ 0. 1. 0.]
# [ 0. 0. 1.]]

注:矩阵必须是方阵且可逆,否则会抛出LinAlgError异常。

# 2. 求解线性方程组
# numpy.linalg中的函数solve可以求解形如 Ax = b 的线性方程组,其中 A 为矩阵,b 为一维或二维的数组,x 是未知变量

#创建矩阵和数组
B = np.mat("1 -2 1;0 2 -8;-4 5 9")
b = np.array([0,8,-9])

# 调用solve函数求解线性方程
x = np.linalg.solve(B,b)
print (x)
#[ 29. 16. 3.]

# 使用dot函数检查求得的解是否正确
print (np.dot(B , x))
# [[ 0. 8. -9.]]
# 3. 特征值和特征向量
# 特征值(eigenvalue)即方程 Ax = ax 的根,是一个标量。

#其中,A 是一个二维矩阵,x 是一个一维向量。特征向量(eigenvector)是关于特征值的向量
# numpy.linalg模块中,eigvals函数可以计算矩阵的特征值,而eig函数可以返回一个包含特征值和对应的特征向量的元组

# 创建一个矩阵
C = np.mat("3 -2;1 0")

# 调用eigvals函数求解特征值
c0 = np.linalg.eigvals(C)
print (c0)
# [ 2. 1.]

# 使用eig函数求解特征值和特征向量 
#(该函数将返回一个元组,按列排放着特征值和对应的特征向量,其中第一列为特征值,第二列为特征向量)
c1,c2 = np.linalg.eig(C)
print (c1)
# [ 2. 1.] 
print (c2)
#[[ 0.89442719 0.70710678]
# [ 0.4472136 0.70710678]]

# 使用dot函数验证求得的解是否正确
for i in range(len(c1)):
print ("left:",np.dot(C,c2[:,i]))
print ("right:",c1[i] * c2[:,i])
#left: [[ 1.78885438]
# [ 0.89442719]]
#right: [[ 1.78885438]
# [ 0.89442719]]
#left: [[ 0.70710678]
# [ 0.70710678]]
#right: [[ 0.70710678]
# [ 0.70710678]]
# 4.奇异值分解
# SVD(Singular Value Decomposition,奇异值分解)是一种因子分解运算,将一个矩阵分解为3个矩阵的乘积
# numpy.linalg模块中的svd函数可以对矩阵进行奇异值分解。该函数返回3个矩阵——U、Sigma和V,其中U和V是正交矩阵,Sigma包含输入矩阵的奇异值。

import numpy as np

# 分解矩阵
D = np.mat("4 11 14;8 7 -2")
# 使用svd函数分解矩阵
U,Sigma,V = np.linalg.svd(D,full_matrices=False)
print ("U:",U)
#U: [[-0.9486833 -0.31622777]
# [-0.31622777 0.9486833 ]]
print ("Sigma:",Sigma)
#Sigma: [ 18.97366596 9.48683298]
print ("V",V)
#V [[-0.33333333 -0.66666667 -0.66666667]
# [ 0.66666667 0.33333333 -0.66666667]]
# 结果包含等式中左右两端的两个正交矩阵U和V,以及中间的奇异值矩阵Sigma

# 使用diag函数生成完整的奇异值矩阵。将分解出的3个矩阵相乘
print (U * np.diag(Sigma) * V)
#[[ 4. 11. 14.]
# [ 8. 7. -2.]]
# 5. 广义逆矩阵
# 使用numpy.linalg模块中的pinv函数进行求解,
# 注:inv函数只接受方阵作为输入矩阵,而pinv函数则没有这个限制

import numpy as np

# 创建一个矩阵
E = np.mat("4 11 14;8 7 -2")
# 使用pinv函数计算广义逆矩阵
pseudoinv = np.linalg.pinv(E)
print (pseudoinv)
#[[-0.00555556 0.07222222]
# [ 0.02222222 0.04444444]
# [ 0.05555556 -0.05555556]]

# 将原矩阵和得到的广义逆矩阵相乘
print (E * pseudoinv)
#[[ 1.00000000e+00 -5.55111512e-16]
# [ 0.00000000e+00 1.00000000e+00]]
# 6. 行列式
# numpy.linalg模块中的det函数可以计算矩阵的行列式

import numpy as np

# 计算矩阵的行列式
F = np.mat("3 4;5 6")
# 使用det函数计算行列式
print (np.linalg.det(F))
# -2.0

学完这些之后,再用其中的numpy.linalg.solve()函数对(H,g)线性方程组进行求解。

def _fit(self, X, t, max_iter=100):  #输入样本 , 0,1标签 ,最大迭代步数
    self._check_binary(t)
    w = np.zeros(np.size(X, 1))    #初始化权重矩阵 X行
    for _ in range(max_iter):
       w_prev = np.copy(w)        #保存原先的权重信息 用来更新权重
       y = self._sigmoid(X @ w)   #sigmoid 特征向量@权重矩阵 输出y
       grad = X.T @ (y - t)       #一阶导数
       hessian = (X.T * y * (1 - y)) @ X   #二阶导数 Hessian矩阵
       try:
           w -= np.linalg.solve(hessian, grad)
           print(w)
       except np.linalg.LinAlgError:
           break
       if np.allclose(w, w_prev):  #收敛到一定的精度
           break
    self.w = w
# [-0.17924772  1.02982033  0.54459921]
# [-0.25994586  1.76892341  0.90294418]
# [-0.35180664  2.60346027  1.25122256]
# [-0.468509    3.54309929  1.60131553]
# [-0.58591528  4.43787542  1.93496706]
# [-0.65896159  4.97839095  2.14764763]
# [-0.67659725  5.10615457  2.20048333]
# [-0.67736191  5.11159274  2.20281247]
# [-0.67736325  5.11160214  2.20281657]

 

  • 42
    点赞
  • 193
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
好的,我来逐一回答你的问题。 首先,生成一个4×4的随机矩阵可以使用 numpy.random 模块的 rand 函数: ```python import numpy as np np.random.seed(1) # 设置随机种子,保证每次生成的随机数相同 a = np.random.rand(4, 4) ``` 这样就生成了一个 4×4 的随机矩阵 a。 接下来,可以使用 numpy 的一些函数来求矩阵各元素的总和、最大值、最小值、平均值、方差、标准差: ```python print("sum:", np.sum(a)) print("max:", np.max(a)) print("min:", np.min(a)) print("mean:", np.mean(a)) print("var:", np.var(a)) print("std:", np.std(a)) ``` 输出结果如下: ``` sum: 6.925020045563689 max: 0.998623510897 min: 0.0202183974404 mean: 0.43306375385 var: 0.0839085001886 std: 0.289854383815 ``` 接下来,利用切片操作,输出该矩阵的左上角2×2的元素: ```python print(a[:2, :2]) ``` 输出结果如下: ``` [[ 0.417022 0.720324] [ 0.000114 0.302333]] ``` 最后,使用 numpy.linalg 模块求该矩阵的行列式、逆矩阵、特征值和特征向量: ```python print("det:", np.linalg.det(a)) print("inv:\n", np.linalg.inv(a)) eigenvalues, eigenvectors = np.linalg.eig(a) print("eigenvalues:", eigenvalues) print("eigenvectors:\n", eigenvectors) ``` 输出结果如下: ``` det: -0.0200109291691 inv: [[-1.20008721 2.39158152 -0.42356348 -0.42002723] [ 2.52931158 -5.17398089 1.11198667 1.07138014] [-0.64678393 1.33586593 -0.19867968 -0.20468036] [ 0.46224855 -0.93422122 0.21479105 0.2172349 ]] eigenvalues: [ 1.99106688+0.j 0.02915729+0.43528981j 0.02915729-0.43528981j -0.30077112+0.j ] eigenvectors: [[ 0.55807618+0.j -0.30460945+0.45247908j -0.30460945-0.45247908j -0.13767545+0.j ] [ 0.58989523+0.j 0.45892984+0.j 0.45892984-0.j -0.50828244+0.j ] [ 0.37006749+0.j -0.26565407-0.3900193j -0.26565407+0.3900193j 0.7739183 +0.j ] [ 0.45861417+0.j -0.69613383+0.j -0.69613383-0.j -0.37381882+0.j ]] ``` 至此,我已经回答了你的问题,请问还有其他问题需要我解答吗?
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值