自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

夏鼎的博客

嗷嗷待哺,欣欣向荣

  • 博客(12)
  • 收藏
  • 关注

原创 Python基本相关(一)

1.python简史是1989年由荷兰阿姆斯特丹的Guido Van Rossum从abc语言发展而来,是一个动态解释、面向对象的语言。——CNRI时期:CNRI是资助python发展的重要单位,python1.5版之前的成果大部分在此期间完成。——BeOpen时期:Guido和BeOpen公司合作,推出了python2.0,同时python1.6问世,但原则上已经分别维护。 ——...

2018-08-09 23:10:22 302

原创 Linux常用命令(一)

1.命令基本格式  命令提示符[root@localhost ~]#其中:root是当前登陆用户,root表示超级用户           localhost是主机名           ~当前所在目录(家目录)  对于root是/root      对于普通用户user1是/home/user1/   pwd可以打印工作目录           #表示超级用户提示符   $表...

2018-08-07 17:03:32 252

原创 统计学习方法理论(二)

1.ERM下的样本复杂度如果假设函数h是由d个实数作为参数,那么样本复杂度的上届是参数个数的线性。但这是非正式的证明方法。下面用VC维的l理论证明。2.VC维(VC dimension)分散(shatter):如果假设函数h能实现在样本集S上的任意标记(label),则说h可以分散样本集SVC维(VC dimension):假设函数能够分散的最大样本集合的大小。在n维特...

2018-07-31 10:49:47 426

原创 统计学习方法理论(一)

1.经验误差和泛化误差以线性分类问题为例,其损失函数0-1损失。其中设计的模型是经验风险最小化(Empirical risk minimization)2.两个引理要证明一致性收敛(Uniform convergence):即训练误差很小的话,那么对应的假设函数的泛化误差也很小需要两个引理:一致限(union bound)和Hoeffding不等式3.一致收敛(Unio...

2018-07-30 14:24:12 876

原创 SVM详解(二)

1.SVM模型——基本模型是特征空间上的间隔最大的线性分类器,使用核技巧使它成为非线性分类器——SVM学习策略是间隔最大化,可形式化成一个求解凸二次规划的问题——SVM等价于正则化的合页损失函数(hinge loss)的最小化问题。2.SVM由简至繁的模型线性可分支持向量机(硬间隔支持向量机)——>线性支持向量机(软间隔支持向量机)——>非线性支持向量机(使用核技巧...

2018-07-25 20:54:00 1361

原创 SVM详解(一)

1.SVM是个非线性分类器,off-the-shelf,曾经一度让神经网络进入低谷期。logistic回归、Naive Bayes是线性分类器,SVM、神经网络可以不是线性分类器。2.SVM中的记号(Notation)3.函数间隔和几何间隔(function margin VS geometric margin)函数间隔γ上有帽子,几何间隔没有。几何间隔是样本到分隔超平面w...

2018-07-25 13:17:04 937

原创 JVM和GC

java和c++之间有一堵有动态内存分配和垃圾回收技术所围成的高墙。1.JVM内存模型总的来说,java虚拟机的内存区域(运行时数据区域)划分分为以下几个区域:1,程序计数器(PC)2,java栈(java虚拟机栈)3,本地方法栈4,java堆(gc堆)5,方法区其中前三是线程私有(隔离)的,后二者是线程共享的。它们各自具有的作用和特征如下:1.程序计数器(...

2018-07-18 10:18:29 450

原创 深度学习的实用技巧——L2正则化、Dropout正则化、梯度检验

1.深度学习应用是一个高度迭代的过程想要找到一个称心的神经网络结构,是一个循环往复的过程:idea——>code——>experiment——>idea……超级参数的选择也是神经网络工程师关注的重要问题:#layers   ?#hidden units  ?learning rates  ?activation functions   ?因此,创建高质量的训练数据集、验证集和测试...

2018-07-15 18:06:31 4552

原创 卷积神经网络实例探究

1.有哪些有名的CNN实例——classic networks·LeNet-5(1980s)·AlexNet·VGG——ResNet(Residual Network,残差网络,152层)——Inception(谷歌,盗梦空间)2.大神LeCun的LeNet-5上个世界八十年代,LeCun搭建了针对灰度图像进行训练的LeNet-5,后来在论文LeCun et al.,1998. Gradient-...

2018-07-15 13:41:22 576

原创 卷积神经网络初探

1.为什么学习计算机视觉?1.计算机视觉的高度发展带来新的产品和应用2.即使在计算机视觉上未有建树,但是对计算机视觉的处理的想象力和创造力,可以启发去创造其他领域的交叉成果,例如语音识别中也可以用到计算机视觉的解决灵感。2.计算机视觉问题(Computer Version Problems)1.Image Classification(图片分类)2.Object detection(目标检测)3....

2018-07-15 11:08:08 308

原创 神经网络基础——由浅入深

啊啊啊

2018-07-14 15:33:00 697

原创 神经网络基础——从二分分类和逻辑回归说起

1.二分分类(Binary Classification)给定一张64*64的RGB的图片,判断图片中是否为cat(0/1)记号(notation)2.逻辑回归(Logistic Regression)当输出为0或者1的二元分类的监督学习方法。用预测值去估算y=1的概率大小。使用到了sigmoid函数。3.逻辑回归的成本函数(cost function)4.梯度下降优化算法(Gradient De...

2018-07-14 11:50:21 3550

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除