线性代数的本质(七)——叉积

叉积的标准介绍

我们知道叉积的这个
在学习线性代数的时候,我们知道,两个向量做叉积运算会得出一个新的向量,新向量垂直于原两个向量所在的平面,而且新向量的长度是原两个向量所围成的面积大小。

a ⃗ × b ⃗ = det ⁡ ( [ i ^ j ^ k ^ a x a y a z b x b y b z ] ) = det ⁡ ( [ i ^ a x b x j ^ a y b y k ^ a z b z ] ) \vec{a} \times \vec{b} = \det \left( \begin{bmatrix} \hat{i} & \hat{j} & \hat{k} \\ a_x & a_y & a_z \\ b_x & b_y & b_z \end{bmatrix} \right) = \det \left( \begin{bmatrix} \hat{i} & a_x & b_x \\ \hat{j} & a_y & b_y \\ \hat{k} & a_z & b_z \end{bmatrix} \right) a ×b =deti^axbxj^aybyk^azbz=deti^j^k^axayazbxbybz

∣ a ⃗ × b ⃗ ∣ = ∣ a ⃗ ∣ × ∣ b ⃗ ∣ × sin ⁡ ( θ ) \left| \vec{a} \times \vec{b} \right| = |\vec{a}| \times |\vec{b}| \times \sin(\theta) a ×b =a ×b ×sin(θ)

θ \theta θ 是两个向量 a ⃗ \vec{a} a 和向量 b ⃗ \vec{b} b 的夹角

在这里插入图片描述

由于这里涉及到了两个向量围成的面积,所以在前面讲到的行列式能在这里起到作用。

在这里插入图片描述

我们以上面这个图片为例,向量 v ⃗ \vec{v} v 和向量 w ⃗ \vec{w}

  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值