线性代数(线性变换)
线性变换: 线性代数中的线性变换是一个核心概念,它描述了一种从向量空间到另一个向量空间的特殊映射,同时保持向量加法和数量乘法的运算性质。
线性变换(Linear Transformation)是从一个向量空间V到另一个向量空间W的映射,且该映射保持加法运算和数量乘法运算。在这里插入代码片
线性代数(线性变换)
线性(Linear):Lines remain Lines, Origin remains fixed
- Lines remain Lines:直线仍然是直线,它们的性质没有改变。
一个直线在二维或三维空间中,进行 某种变换(如旋转、平移、缩放等)时,该直线仍然保持为直线,而不是变成了曲线或其他形状。
- Origin remains fixed:“Origin”通常指的是坐标系统的原点,即(0, 0)或(0, 0, 0)点。原点是固定的,即它不会移动。
在某些变换中(如旋转和平移),原点可能会移动,但在其他变换中(如缩放或绕原点旋转),原点保持不变。
线性(Linear)
变换(Transformation):本质上是一个函数,该函数接受一个向量作为输入,并输出一个向量。
在二维或三维空间中,线性变换可以直观地理解为对向量进行旋转、缩放、反射或剪切等操作,但这些操作必须保持原点不变,并且保持网格线的平行性和等距性。
变换(Transformation)
两个性质: 加法的齐次性(Additivity)、标量乘法的齐次性(Scalar)
一个变换是线性的,需要具体满足以下两个性质:
-
加法的齐次性(Additivity):
对于任意的向量u
和v
以及任意的标量k
,线性变换T
满足:
T(u + v) = T(u) + T(v)
这个性质表明,线性变换对向量的加法运算是封闭的,即两个向量之和的变换等于各自变换后的和。 -
标量乘法的齐次性(Scaling):
对于任意的向量u
和任意的标量k
,线性变换T
满足:
T(k * u) = k * T(u)
这个性质表明,线性变换与标量乘法是可交换的,即标量乘以向量的变换等于向量变换后再乘以该标量。
两个性质
线性变换示例: 原始向量【-1, 2】经过线性变换矩阵 [[1, 3], [-2, 0]] 后,变为了新的向量 【5, 2】。实现了向量的旋转和缩放。
线性变换示例
-
旋转:在二维空间中,逆时针旋转θ角是一个线性变换。它可以通过一个2x2的旋转矩阵来表示。
-
缩放:缩放变换也是一个线性变换,它可以通过对角矩阵来表示,对角线上的元素是缩放因子。
import numpy as np
# 定义一个2x2的矩阵,表示线性变换
T = np.array([[1, 3], [-2, 0]])
# 定义一个二维向量
v = np.array([1, 2])
# 应用线性变换到向量v
w = np.dot(T, v)
# 输出原始向量和变换后的向量
print(f"原始向量 v: {v}")
print(f"经过线性变换后的向量 w: {w}")
线性变换示例代码
线性变换示例结果
如何系统的去学习大模型LLM ?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业
?”“谁的饭碗又将不保了?
”等问题热议不断。
不如成为「掌握AI工具的技术人
」,毕竟AI时代,谁先尝试,谁就能占得先机!
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈