数学推导+纯Python实现机器学习算法:奇异值分解SVD

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达

     奇异值分解(Singular Value Decomposition,SVD)作为一种常用的矩阵分解和数据降维方法,在机器学习中也得到了广泛的应用,比如自然语言处理中的SVD词向量和潜在语义索引,推荐系统中的特征分解,SVD用于PCA降维以及图像去噪与压缩等。作为一个基础算法,我们有必要将其单独拎出来在机器学习系列中进行详述。

特征值与特征向量

     在学习SVD原理之前,我们有必要对矩阵的特征值与特征向量进行回顾。矩阵的特征值与特征向量定义如下:

     其中为矩阵,为一维向量,则定义为矩阵的一个特征值,向量是矩阵的特征值所对应的特征向量。
     实际计算时,我们通过求解齐次方程来计算矩阵的特征值和特征向量。
     将矩阵计算出特征值和特征向量的直接好处就是我们可以将矩阵进行分解,假设矩阵有个特征值,以及每个特征值对应的特征向量,那么矩阵就可以用下式进行分解:

     在线性代数中,我们也将上式成为矩阵的对角化,或者求矩阵的相似矩阵。一般我们会将矩阵的个特征向量进行标准化和正交化处理,满足,所以就有,即为酉矩阵。最终上述分解表达式可表示为:

     矩阵要计算特征值和特征向量的一个必要条件就是该矩阵必须要为方阵,即矩阵维度为。
     但大多数情况下,我们碰到的矩阵都是非方阵的的情形。当矩阵行列不等时,如果我们也想对其进行矩阵分解,那就必须使用SVD了。

SVD详解

     假设现在我们要对非方阵进行矩阵分解,定义分解表达式为:

     其中为矩阵,为对角阵,为矩阵。和均为酉矩阵,即和满足:

     SVD的图解示意如下图所示。

e14c24f9c52e4336b56a8a9d4c80ddf5.png

     我们可以通过求解齐次方程的形式来求解特征值和特征矩阵,那么在上式中,我们如何求解这三个矩阵呢?

     还是需要借助于矩阵的特征值和特征向量。
     由于矩阵是非方阵,现在将矩阵与其转置矩阵做矩阵乘法运算,可得到的方阵,然后对该矩阵求特征值和特征向量:

     由上式我们即可求得方阵的个特征值和特征向量,该个特征向量构成的特征矩阵即为矩阵。我们把矩阵中的每个向量称为矩阵的左奇异向量。
     同理,将矩阵的其转置矩阵与矩阵做矩阵乘法运算,同样可得的方阵,然后对该矩阵求特征值和特征向量:

     由上式我们即可求得方阵的个特征值和特征向量,该个特征向量构成的特征矩阵即为矩阵。我们把矩阵中的每个向量称为矩阵的右奇异向量。
     左奇异矩阵和右奇异矩阵求出来后,我们只剩下中间的奇异值矩阵尚未求出。奇异值矩阵除了对角线上的奇异值,其余元素均为0,所以我们只要求出矩阵的奇异值即可。可推导:

     所以我们可由上述推导计算得到奇异值矩阵。实际上,由下述推导:

     可知特征值矩阵为奇异值矩阵的平方,即特征值为奇异值的平方。

Python SVD实现

     Python中numpy和scipy两个科学计算库都直接提供了SVD的实现方式,所以我们这里就不再基于numpy手写SVD的实现过程了。下面基于numpy.linalg线性代数模块下的svd函数来看一个计算实例。

import numpy as np
# 创建一个矩阵A
A = np.array([[0,1],[1,1],[1,0]])
# 对其进行SVD分解
u, s, vt = np.linalg.svd(A, full_matrices=True)
print(u.shape, s.shape, vt.shape)
(3, 3) (2,) (2, 2)

     然后分别查看u、s和v矩阵,并验证下是否可由这三个矩阵恢复到矩阵A。

# 矩阵u
print(u, s, v.T)
array([[-4.08248290e-01,  7.07106781e-01,  5.77350269e-01],
       [-8.16496581e-01,  5.55111512e-17, -5.77350269e-01],
       [-4.08248290e-01, -7.07106781e-01,  5.77350269e-01]])
array([1.73205081, 1.    ])
array([[-0.70710678, -0.70710678],
       [-0.70710678,  0.70710678]])

     可以看到该svd函数对结果中的奇异值矩阵进行简化了,只给出了奇异值向量,将矩阵中其余为0的元素均省去了。

# 由u,s,v恢复矩阵A
np.dot(u[:,:2]*s, vt)
array([[ 1.11022302e-16,  1.00000000e+00],
[ 1.00000000e+00,  1.00000000e+00],
[ 1.00000000e+00, -3.33066907e-16]])

     基本能够恢复矩阵A,因浮点数存在计算误差,这里可以忽略不计。

SVD图像压缩

      我们可以尝试将SVD用于图像的压缩算法。其原理就是保存像素矩阵的前k个奇异值,并在此基础上做图像恢复。由SVD的原理我们可以知道,在SVD分解中越靠前的奇异值越重要,代表的信息含量越大。

     下面我们尝试对一个图像进行SVD分解,并分别取前1~50个奇异值来恢复该图像。需要恢复的图像如下(厚着脸皮拿笔者自己作为示例):

fe76f2e85fc1a391449b6d2c41b519e3.jpeg

     实现代码如下:

import numpy as np
import os
from PIL import Image
from tqdm import tqdm
# 定义恢复函数,由分解后的矩阵恢复到原矩阵
def restore(u, s, v, K): 
'''
    u:左奇异矩阵
    v:右奇异矩阵
    s:奇异值矩阵
    K:奇异值个数
    '''
    m, n = len(u), len(v[0])
    a = np.zeros((m, n))
for k in range(K):
        uk = u[:, k].reshape(m, 1)
        vk = v[k].reshape(1, n)
# 前k个奇异值的加总
        a += s[k] * np.dot(uk, vk)   
    a = a.clip(0, 255)
return np.rint(a).astype('uint8')
A = np.array(Image.open("./ml_lab.jpg", 'r'))
# 对RGB图像进行奇异值分解
u_r, s_r, v_r = np.linalg.svd(A[:, :, 0])    
u_g, s_g, v_g = np.linalg.svd(A[:, :, 1])
u_b, s_b, v_b = np.linalg.svd(A[:, :, 2])
# 使用前50个奇异值
K = 50 
output_path = r'./svd_pic'
# 恢复图像
for k in tqdm(range(1, K+1)):
    R = restore(u_r, s_r, v_r, k)
    G = restore(u_g, s_g, v_g, k)
    B = restore(u_b, s_b, v_b, k)
    I = np.stack((R, G, B), axis=2)   
    Image.fromarray(I).save('%s\\svd_%d.jpg' % (output_path, k))

     当仅使用一个奇异值时,被压缩后的图像模糊一团,除了颜色线条啥也看不出:

0dd251701b5b68a168938a7438df8683.jpeg

     当使用前10个奇异值时,恢复后的压缩图像隐约可见轮廓,就像打了马赛克一样:

ac23fb93b467efc71608d2dc736ba573.jpeg

     如此继续扩大奇异值的数量,当我们取到前50个奇异值的时候,恢复后的压缩图像已经相对清晰许多了:

7c8713b50795c7592fdc42c806e8f505.jpeg

     渐进效果如下:

880a1476d46f745151804592f1cc8c87.png

     总体而言就是图像清晰度随着奇异值数量增多而变好。当奇异值k不断增大时,恢复后的图像就会无限逼近于真实图像。这便是基于SVD的图像压缩原理。

 
 

好消息!

小白学视觉知识星球

开始面向外开放啦👇👇👇

 
 

290e80b445bc72d643363262ca0a3283.jpeg

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程,即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。


下载2:Python视觉实战项目52讲
在「小白学视觉」公众号后台回复:Python视觉实战项目,即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。


下载3:OpenCV实战项目20讲
在「小白学视觉」公众号后台回复:OpenCV实战项目20讲,即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。


交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
奇异分解(Singular Value Decomposition,简称SVD)是一种常用的矩阵分解方法,可以对矩阵进行降维、去噪和提取信息等操作。在Python中,我们可以使用SciPy和NumPy库来进行SVD去噪的实现。 首先,我们需要导入相关的库并加载需要处理的矩阵数据。假设我们的数据存储在一个名为"matrix"的二维数组中。 ```python import numpy as np from scipy.linalg import svd # 加载数据 matrix = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9]]) ``` 接下来,我们可以使用svd函数对矩阵进行奇异分解。该函数会返回三个结果:U、S和Vt。其中,U和Vt是两个正交矩阵,而S则是一个包含奇异的对角矩阵。 ```python # 奇异分解 U, S, Vt = svd(matrix) ``` 在奇异分解中,我们可以通过选择较大的奇异来对矩阵进行降噪。较大的奇异表示矩阵中包含的主要信息,而较小的奇异则对应噪声或不重要的细节。 因此,我们可以根据需要选择合适的奇异个数,并将其余的奇异置为0,从而实现降噪效果。假设我们想要保留最大的两个奇异,可以按如下方式对奇异进行截断: ```python # 选择合适的奇异个数进行截断 k = 2 S_truncated = np.diag(S[:k]) # 重构近似的矩阵 matrix_approx = U[:, :k] @ S_truncated @ Vt[:k, :] ``` 最后,我们可以得到一个经过奇异分解去噪后的重新构建的矩阵"matrix_approx"。这个矩阵会保留主要信息,同时去除噪声,从而提高数据的质量和可读性。 奇异分解去噪是一种常用的数据降维和去噪方法,可以应用于各种领域,例如图像处理、语音识别和推荐系统等。Python提供了方便易用的库来实现奇异分解,使得我们能够轻松地应用该方法来对数据进行处理和分析。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值