数学魔鬼表达式——第三天

这篇博客探讨了数学中的累加、累乘和积分表达式,并给出了具体示例。同时,介绍了神经网络中权重的三重累加遍历方式。还通过一个最小二乘法的例子,展示了矩阵运算在解决线性回归问题中的应用,讨论了最小二乘法的计算过程和特点。
摘要由CSDN通过智能技术生成
  1. 将向量下标为偶数的分量 (x2, x4, …) 累加, 写出相应表达式.

∑ i = n x 2 i \sum_{i=}^nx_{2i} i=nx2i

  1. 各出一道累加、累乘、积分表达式的习题, 并给出标准答案.

∑ i = 0 n x 2 i + 1 2 + 1 \sum_{i=0}^nx_{2i+1}^2+1 i=0nx2i+12+1
∏ i = 0 n x 2 i + 1 \prod_{i=0}^{n}x_{2i}+1 i=0nx2i+1
∫ 0 2 π cos ⁡ x d x \int_0^{2\pi}\cos{x} \mathrm{d}x 02πcosxdx

  1. 你使用过三重累加吗? 描述一下其应用.

在神经网络中,权重一般表示为三维的数组,遍历权重数组一般要使用三重累加

  1. 给一个常用的定积分, 将手算结果与程序结果对比.
    ∫ 0 10 2 x \int_0^{10}2x 0102x
 double integration = 0;
        double delta = 0.01;
        for (double x = 0; x <= 10; x += delta) {
            integration += 2*x* delta;
        }
        System.out.println(integration);

100.09999999999866
可以说,已经很接近了

自己写一个小例子 ( n = 3 n = 3 n=3, m = 1 m = 1 m=1) 来验证最小二乘法.

X = [ 1 2 3 ] \mathbf{X} = \begin{bmatrix} 1 \\ 2 \\ 3\\ \end{bmatrix} X=123
Y = [ 3 5 7 ] \mathbf{Y} = \begin{bmatrix} 3\\ 5\\ 7\\ \end{bmatrix} Y=357
ω = ( X T X ) − 1 X T Y = [ 2.98 ] \mathrm{\omega}=(\mathbf{X}^{\mathrm{T}}\mathbf{X})^{-1}\mathbf{X}^{\mathrm{T}}\mathbf{Y}=[2.98] ω=(XTX)1XTY=[2.98]
ω = ( X T X − λ I ) − 1 X T Y = [ 2.1 ] \mathrm{\omega}=(\mathbf{X}^{\mathrm{T}}\mathbf{X}-\lambda\mathbf{I})^{-1}\mathbf{X}^{\mathrm{T}}\mathbf{Y}=[2.1] ω=(XTXλI)1XTY=[2.1]

自己推导一遍, 并描述这个方法的特点 (不少于 5 条).
1.回归问题是求解是多少的问题,而分类问题求解的是是哪一个的问题。
2.在求解分类问题的时候,设计标签向量的时候如果表示为[1, 2, 3]这种类型,种类之前存在大小关系,而在实际的问题中,类别没有大小关系。
3. 上一个问题可以采用one-hot编码,即采用二进制编码。有n个类别,就采用 ⌈ log ⁡ 2 x ⌉ \lceil \log_2x \rceil log2x位二进制编码
4. logistic回归通过sofmax函数将 ( − ∞ , + ∞ ) (-\infty,+\infty) (,+)的实数收敛到(0,1)表示概率,由于本身也是连续可导的,便于后面的梯度下降操作
5. 损失函数的求解有点类似交叉熵的求解

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

来日可期1314

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值