自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 人体动作识别的多模态数据集UTD-MHAD介绍

UTD-MHAD

2022-03-23 15:42:01 3912 3

原创 linux常用文件命令(自家用)

查看当前文件夹下文件名:ls -l查看当前文件夹下文件名:ls -l > …/filename.txt查看当前文件夹下文件数量:ls -l | wc -l查看指定格式的文件名新建窗口:screen -S sname退出当前窗口:快捷键:ctrl+A+D删除当前窗口:在窗口中exit打开窗口:screen -r sname查看当前所有的窗口信息:screen -ls查看磁盘使用情况:df -hvi命令编辑器编辑及保存退出方法:1、打开对应的文件:vi 文件名,没有就创建新的。2、

2020-10-13 20:19:26 222

原创 李宏毅深度学习笔记2-4Cinvolutional neural network

1、为什么CNN适合影响识别当我们直接用fully connect feedforward network做影像处理的时候,往往需要太多的参数,而CNN做的事就是简化neural network的架构。根据人的知识把一些用不上的weight去掉,就可以用比较少的参数来做影像处理。所以CNN比一般的DNN还要简单CNN是如何把一些参数拿掉的第一在影像处理里面,第一层的hidden layer的neural就是取侦测某一种pattern。而大部分的pattern其实要小于整张的image,对一个neur

2020-07-05 10:41:31 382

原创 李宏毅深度学习笔记2-3Tips for DeepLearning

1、当你的模型表现不好,应该怎么处理?经过建立deep learning的三个步骤:define a set function•;goodness of function; pick the best function后,会得到一个neural network。在这之后神经网络的表现(1)首先检查这个neural network在training set结果如何,是否陷入局部最优,有的话,分析是哪个步骤出了问题,并解决它、(2)假如在training set得到好的结果,之后在testing set的

2020-07-05 10:36:42 245

原创 李宏毅深度学习笔记2-2Backpropagation

1、背景梯度下降对于参数θ (weight and bias)先选择一个初始的 θ0\theta^0θ0,计算 θ0\theta^0θ0的损失函数(Loss Function)设一个参数的偏微分计算完这个向量(vector)偏微分,然后就可以去更新θ。而对于百万级别的参数(millions of parameters):反向传播(Backpropagation)是一个比较有效率的算法,让你计算梯度(Gradient) 的向量(Vector)时,可以有效率的计算出来链式法则2、反向传播1、损失函

2020-07-05 10:34:21 151

原创 李宏毅深度学习笔记2-1Iintroduction of DeepLearning

1、深度学习的发展趋势1958: Perceptron (linear model)感知机1969: Perceptron has limitation感知机受限1980s: Multi-layer perceptron多层感知机Do not have significant difference from DNN today1986: Backpropagation反向传播通常超过三层隐藏层结果就不好了1989: 1 hidden layer is “good enough”, why de

2020-07-05 10:29:05 1373

原创 李宏毅深度学习笔记1-7-1Support vector mechine

1、SVM简介SVM学习的基本想法是求解能够正确划分训练数据集并且几何间隔最大的分离超平面。如下图所示对于上图存在多个超平面的可以划分两类数据,但是其中中间的那条对训练样本的局部扰动性的容忍度最好,对所产生的结果是最鲁棒的,对未见示例的泛化能力最强wTx+b=0w^Tx+b=0wTx+b=0即为分离超平面,对于线性可分的数据集来说,这样的超平面有无穷多个(即感知机),但是几何间隔最大的分离超平面却是唯一的。,SVM就是要找到这个唯一的超平面支持向量机有两个特色:第一个是使用了Hinge Loss(

2020-07-05 10:27:48 315

原创 李宏毅深度学习笔记1-6Logistic Regression

逻辑回归的三步以及和线性回归的对比1、函数集function set寻找P(w,b)(C1∣x)P_{(w,b)}(C_1|x)P(w,b)​(C1​∣x):当代入数据得P(w,b)(C1∣x)≥0.5P_{(w,b)}(C_1|x)\ge0.5P(w,b)​(C1​∣x)≥0.5,则输出C1C_1C1​,否则输出C2C_2C2​,其中:P(w,b)(C1∣x)=σ(z)P_{(w,b)}(C_1|x)=\sigma(z)P(w,b)​(C1​∣x)=σ(z)σ(z)=11+exp(−z)\sigm

2020-07-05 10:20:10 196

原创 李宏毅深度学习笔记1-5Probabilistic Generative Model

1、如何分类Classification用回归的方式解决分类问题有什么问题:左图:绿色是分界线。右图:紫色是分界线。训练集添加有很多的距离远大于1的数据后,分界线从绿色偏移到紫色这样用回归的方式硬训练可能会得到紫色的这条。直观上就是将绿色的线偏移一点到紫色的时候,就能让右下角的那部分的值不是那么大了。但实际是绿色的才是比较好的,用回归硬训练并不会得到好结果。此时可以得出用回归的方式定义,对于分类问题来说是不适用的。还有另外一个问题:比如多分类,类别1当作target1,类别2当作target2,类别

2020-07-05 10:16:20 195

原创 李宏毅深度学习笔记1-4Gradient Descent

1、梯度下降的步骤选择初始点,求偏微分,按梯度下降公式和学习率移动点。最终到达最低点。梯度也可以理解为等高线的法线方向,但是梯度下降取的是梯度的相反方向。2、学习率的大小对算法的影响学习率过大会在最低点附近震荡,甚至直接越过最低点,学习率太低,移动速度会很慢,要调整学习率,使得Loss function下降的最快3、学习率的调整方法1)随着参数的更新,学习率不断变小,并将参数的学习率分开计算。一般的方法:wt+1=wt−ηtgtw^{t+1}=w^t-\eta^tg^twt+1=wt−ηtg

2020-07-05 10:12:13 158

原创 李宏毅深度学习笔记1-3where doea the error come from

1、来源:bias(偏差)和variance(方差)解释:真正的数值像是靶心,而模型预测则是打靶,error(误差)是每个模型(不同的训练集训练出来的模型)的预测值与实际值的差距,bias则是所有的发射(模型)瞄准的位置(所有预测值的期望)与靶心的差距,而variance则是瞄准位置与各个发射实际落靶点的差距(预测值相对于期望的方差)。因此我们期待我们的模型没有bias,而variance尽可能小,这样error才会很小一般来说简单的模型bias更大,但variance更小,复杂的模型反之,实际上bia

2020-07-05 10:10:39 98

原创 李宏毅深度学习笔记1-2Linear Regression

1、什么是regression(回归)就是找到一个函数 function,通过输入特征x,输出一个数值Scalar。2、实现回归的步骤step1、model(确定一个模型)–线性模型step2、goodness of function(确定评价函数)——损失函数用真实的数据衡量模型的好坏。从数学的角度来讲,使用距离。即实际进化后的CP值与模型预测的CP值差,来判定模型的好坏。也就是使用损失函数(Loss function)来衡量模型的好坏,距离之和越小模型越好。L=∑n(y^n−(b+∑wixi

2020-07-05 10:09:58 143

原创 李宏毅深度学习笔记1-1Introduction of Machinelearning

一些名词Regression(回归):一种机器学习的任务,就是找到一个函数 function,通过输入特征x ,输出一个数值ScalarClassification:分类。有二元分类(binary Classification)如垃圾邮件识别;多元分类(Multi-class Classification)如文件分类Linear Model:线性模型,模型就是一个function setNon-linear Model:DL、SVM、决策树,K-NN等Structured Learninig:结.

2020-07-05 10:07:42 166

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除