AI数学基础动画讲解 - 线性代数(线性变换)

线性代数(线性变换)

线性变换: 线性代数中的线性变换是一个核心概念,它描述了一种从向量空间到另一个向量空间的特殊映射,同时保持向量加法和数量乘法的运算性质。

线性变换(Linear Transformation)是从一个向量空间V到另一个向量空间W的映射,且该映射保持加法运算和数量乘法运算。在这里插入代码片

线性代数(线性变换)

线性(Linear):Lines remain Lines, Origin remains fixed

  1. Lines remain Lines:直线仍然是直线,它们的性质没有改变。

一个直线在二维或三维空间中,进行 某种变换(如旋转、平移、缩放等)时,该直线仍然保持为直线,而不是变成了曲线或其他形状。

  1. Origin remains fixed:“Origin”通常指的是坐标系统的原点,即(0, 0)或(0, 0, 0)点。原点是固定的,即它不会移动。

在某些变换中(如旋转和平移),原点可能会移动,但在其他变换中(如缩放或绕原点旋转),原点保持不变。

线性(Linear)

变换(Transformation):本质上是一个函数,该函数接受一个向量作为输入,并输出一个向量。

在二维或三维空间中,线性变换可以直观地理解为对向量进行旋转、缩放、反射或剪切等操作,但这些操作必须保持原点不变,并且保持网格线的平行性和等距性。

变换(Transformation)

两个性质: 加法的齐次性(Additivity)、标量乘法的齐次性(Scalar)

一个变换是线性的,需要具体满足以下两个性质:

  1. 加法的齐次性(Additivity):
    对于任意的向量 uv 以及任意的标量 k,线性变换 T 满足:
    T(u + v) = T(u) + T(v)
    这个性质表明,线性变换对向量的加法运算是封闭的,即两个向量之和的变换等于各自变换后的和。

  2. 标量乘法的齐次性(Scaling):
    对于任意的向量 u 和任意的标量 k,线性变换 T 满足:
    T(k * u) = k * T(u)
    这个性质表明,线性变换与标量乘法是可交换的,即标量乘以向量的变换等于向量变换后再乘以该标量。

两个性质

线性变换示例: 原始向量【-1, 2】经过线性变换矩阵 [[1, 3], [-2, 0]] 后,变为了新的向量 【5, 2】。实现了向量的旋转和缩放。

线性变换示例

  1. 旋转:在二维空间中,逆时针旋转θ角是一个线性变换。它可以通过一个2x2的旋转矩阵来表示。

  2. 缩放:缩放变换也是一个线性变换,它可以通过对角矩阵来表示,对角线上的元素是缩放因子。

import numpy as np  

  # 定义一个2x2的矩阵,表示线性变换
   T = np.array([[1, 3], [-2, 0]])    

# 定义一个二维向量 
 v = np.array([1, 2])    

# 应用线性变换到向量v  
w = np.dot(T, v)   

 # 输出原始向量和变换后的向量  
 print(f"原始向量 v: {v}")  
 print(f"经过线性变换后的向量 w: {w}")

线性变换示例代码

线性变换示例结果

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值