
掌握目标:
1、掌握内积,正交,线性相关,线性无关的概念
2、掌握规范正交基,正交矩阵
3、掌握特征值特征向量的几何意义与算法
4、掌握相似矩阵,对角化,对角化的条件。对称矩阵一定可以对角化
5、二次型与矩阵的正定性,以及如何判断正定,可逆的又一种判断方法
1。向量的内积以及正交性

由这些定义加上我们中学在二维空间里面向量夹角的概念,我们推广到高维空间,也可以用来衡量高维空间中两个样本的相似度的一种度量(不同于欧式距离)





则可逆的充要条件 :

思考:
二维空间的规范正交基有哪些?
如何求出这些表示的系数?
正交矩阵(正交阵):



2。方阵的特征值与特征向量

特征方程:

特征多项式:





问题:只解出两个特征向量呢?因为有重根!



例9解:
3。方阵对角化
相似矩阵:



定理3的证明:
矩阵的对角化:

定理4 充分性证明:


对称矩阵的对角化:





4。二次型和矩阵的正定性












【作业】
打卡作业:
1、


2、求下列矩阵的特征值和特征向量


3、

4、


5、

6、总结现在为止矩阵可逆的充要条件

7、学习Numpy求解特征值特征向量
'''特征值和特征向量'''
# 定义矩阵
A = np.mat("1 4 2; 0 -3 4; 0 4 3")
print(A)
# [[ 1 4 2]
# [ 0 -3 4]
# [ 0 4 3]]
b = np.array([0, 8, -9])
# 线性方程组求解
x = np.linalg.solve(A, b)
print(x)
# [ 9.2 -2.4 0.2]
# 返回矩阵的特征值
y = np.linalg.eigvals(A)
print(y)
# [ 1. -5. 5.]
# 返回矩阵的特征值和特征向量的元组
(w, v) = np.linalg.eig(A)
print(w)
print(v)
# [ 1. -5. 5.]
# [[ 1. 0.40824829 -0.66666667]
# [ 0. -0.81649658 -0.33333333]
# [ 0. 0.40824829 -0.66666667]]
本文深入讲解线性代数中的关键概念,包括内积、正交性、线性相关性、特征值与特征向量、对角化及二次型等内容,并探讨其几何意义与算法实现。

被折叠的 条评论
为什么被折叠?



