深度学习笔记

sigmoid:
sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。Sigmoid函数由下公式定义:
在这里插入图片描述在这里插入图片描述
激活函数:
所谓激活函数(Activation Function),就是在人工神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。
如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机(Perceptron)。
如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。

Context:
所谓的上下文就是指语境,每一段程序都有很多的外部变量。只有想Add这种简单的函数才是没有外部变量的。一旦写的一段程序中有了外部变量,这段程序就是不完整的,不能独立运行,要想让他运行,就必须把所有的外部变量的值一个一个的全部传进去,这些值的集合就叫上下文。

感知机:
https://www.jianshu.com/p/81fa7682daf3

卷积神经网络:
https://blog.csdn.net/liangchunjiang/article/details/79030681
https://blog.csdn.net/bestrivern/article/details/89525816 全连接层

交叉熵损失函数:
https://blog.csdn.net/weixin_37567451/article/details/80895309

softmax:
https://blog.csdn.net/lz_peter/article/details/84574716

正则化的L2范数:
https://blog.csdn.net/u010725283/article/details/79212762

tensor的含义;torch.Tensor和torch.tensor有什么区别?
https://blog.csdn.net/kanghe2000/article/details/78572873
https://blog.csdn.net/Edisonleeee/article/details/90171442

Epoch, Batch, Iteration
https://blog.csdn.net/xiaohuihui1994/article/details/80624593

CNN编程中的问题——img.shape[0]、[1]、[2]
https://blog.csdn.net/weixin_43154228/article/details/86703432

特征向量相似度和距离的计算
https://blog.csdn.net/Sunshine_in_Moon/article/details/50014469
https://wenku.baidu.com/view/3da98708876fb84ae45c3b3567ec102de2bddfaa.html

Skip-Gram模型理解
https://www.jianshu.com/p/da235893e4a5

随机梯度下降
https://blog.csdn.net/qq_38150441/article/details/80533891

linear层的初始化
https://www.cnblogs.com/tay007/p/10337395.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值