Deeplearning
文章平均质量分 57
dl学习记录
Nepethens
这个作者很懒,什么都没留下…
展开
-
线性代数再理解
一、线性代数本质(几何理解)1.线性相关与线性无关2.线性变换(矩阵的乘法、交换律、结合律再理解)矩阵乘法一个矩阵就意味着一个线性变换,矩阵的乘法就意味着线性变换的复合,这个复合与函数符合一样,从右往左运算。在二维角度,也就是一个2*2矩阵,对应着平面的一个线性变换,而矩阵相乘,比如AB,就是对一个平面先进行B矩阵对应的线性变换,再进行A矩阵对应的线性变换。高维可类比。矩阵乘法的交换律由于矩阵乘法可以视为线性变换的复合,那么交换律就意味着更改两个线性变换的复合顺序。对AB与BA是否相原创 2021-08-10 14:40:41 · 360 阅读 · 0 评论 -
李宏毅2020机器学习深度学习
P1机器学习1.机器学习就是自动寻找函数(函式)2.找到的函数输出是一个数值即可称之为regression (回归)3.generation 不同于回归于分类 是一个让机器创造的过程 作业中RNN中的Seq2seq可翻译产生语句(文句) CNN中的GAN 产生二次元人物头像4.Supervised learning 告诉机器每张图片对应的正确分类输出就是做label 即理想输出。而有label的训练 即Supervised learning 有了label后即可计算实际与理想的偏差 即找到的原创 2022-01-21 17:13:11 · 343 阅读 · 0 评论 -
深度学习 CS231N 同济子豪兄 听课笔记
2021.8.5 同济子豪兄 P41.神经网络的形成:为线性分类器增加一个激活函数,再将每一个神经元一层一层地排列起来,得到全连接神经网络(多层感知机),正是有了激活函数,才给神经网络带来了非线性,否则,无论堆多少层,仍与线性分类器无区别2.神经网络层数却多,提取的特征越多,但也容易过拟合3.数学定理已经证明,仅有一层隐含层,只要神经元个数够多,就可以逼近任何函数。但我们希望它更深4.神经网络的训练方法就是反向传播,通过链式求导,层层展开,就可求得各个权重对应的梯度,具体计算方法为 该.原创 2021-08-06 08:15:49 · 247 阅读 · 0 评论 -
CS231N assignment1 SVM 代码+注释
一、linear_svm.py部分1.def svm_loss_naive(W, X, y, reg):def svm_loss_naive(W, X, y, reg): """ Structured SVM loss function, naive implementation (with loops). Inputs have dimension D, there are C classes, and we operate on minibatches of原创 2021-08-10 13:51:16 · 395 阅读 · 0 评论 -
CS231N assignment 1 KNN 代码+注释
一、k_nearest_neighbor.py 部分:1.两层循环def compute_distances_two_loops(self, X): """ Compute the distance between each test point in X and each training point in self.X_train using a nested loop over both the training data and the原创 2021-08-10 10:43:28 · 167 阅读 · 0 评论