- 博客(11)
- 资源 (3)
- 收藏
- 关注
原创 QUASI-HYPERBOLIC (拟双曲线) MOMENTUM AND ADAM FOR DEEP LEARNING——精读
2 PRELIMINARIESPrimitives: L(θ) loss函数; L^(θ)近似器; 函数L的梯度;g; a; s; v; w存储缓冲区,都可以用下标t表示;g动量缓冲;Optimizationalgorithms:词:1.perform a sequence of steps 执行一系列步骤 2.rather than as fullpseudocode 而不是完整的伪代码总体更新规则:SGD: Momentum:,当时,即为SGD优化算法。控制...
2020-07-07 16:00:19 557
原创 引言写的很棒Factors influencing the use of deep learning for plant disease recognition——2018
Abstract:词:1.in-depth analysis 深入分析 2.reproduce 复制 3.dawn曙光,黎明短语:1.substantial economic 实体经济引言:1.apidemics 流行病 2.crop inspection 3.scenario 情景短语:1.Prophylactic actions预防措施 2.consequent application 后续申请 3.training or experience detecting pla...
2020-06-03 14:59:40 171
原创 ADASHIFT: DECORRELATION AND CONVERGENCE OF ADAPTIVE LEARNING RATE METHODS
ADASHIFT: DECORRELATION AND CONVERGENCE OF ADAPTIVE LEARNING RATE METHODS1INTRODUCTION词:1.respect to 关于 2.exponential 指数 3.alleviate 减轻 4.oscillation 震荡 5.counterexamples 反例 6.violation 违反7.subsequently 随后短语:1.the key issue。。。。。 lies in the 关键问...
2020-05-21 09:52:15 228
原创 SGD CONVERGES TO GLOBAL MINIMUM IN DEEP LEARNING VIA STAR-CONVEX PATH
ABSTRACT:词:1.encountered 遇到 2.exploits 利用 3.approximately 大约 4.intrinsically 固有的短语:1. in an intrinsically deterministic manner 以一种固有确定方式1 INTRODUCTION词:1. mission impossible 不可能完成的任务 2.milestones 里程碑 3.first-order 一阶 4.saddle points 鞍点 5.sharp...
2020-05-20 15:55:50 217
原创 AN EXPONENTIAL LEARNING RATE SCHEDULE FOR DEEP LEARNING
题目:1.EXPONENTIAL 指数ABSTRACT:词:1.Intriguing 有趣的 2.exotic 异乎寻常的 3.ubiquitous 无处不在 4.blows up 炸毁短语:1.To the best of our knowledge 据我们所知 2.it is equivalent to 。。。。相当于 1INTRODUCTION词:1.rigorous 严格 2.trajectory轨迹3.invariance 不变性短语:1. it is fall...
2020-05-20 15:19:57 207
原创 A CLOSER LOOK AT DEEP LEARNING HEURISTICS: LEARNING RATE RESTARTS, WARMUP AND DISTILLATION
题目:A CLOSER LOOK AT DEEP LEARNING HEURISTICS: LEARNING RATE RESTARTS, WARMUP AND DISTILLATIONABSTRACT:词:1.heuristics 启发式的 2.knowledge distillation 知识升华 3.underpinnings 基础 4.aid援助 5.empirical 经验 6.linear interpolation and visualizations with dimensio...
2020-05-19 21:29:25 392
原创 ADAPTIVE GRADIENT METHODS WITH DYNAMIC BOUND OF LEARNING RATE
标题:ADAPTIVE GRADIENT METHODS WITH DYNAMIC BOUND OF LEARNING RATEAbstract:1.element-wise scaling term 逐元素缩放项 2.gradual and smooth transition 逐步平稳过渡 3.prototypes 原型4.dominant 优势短语:in spite of its simplicity 尽管很简单...
2020-05-19 16:35:27 181
原创 STOCHASTIC GRADIENT/MIRROR DESCENT: MINIMAX OPTIMALITY AND IMPLICIT REGULARIZATION——ICLR 2019
Abstract:优秀短语:1.SGD have become increasingly popular in optimization2.it is now widely recognized that3.play a key role in reaching "good" solutions that4.In an attempt to shed some light on why this is the case 试图阐明为什么会这样5.we also argue 我们也讨论了..
2020-05-18 21:19:50 398
原创 mask-rcnn中的lableme简要使用步骤
这个的前提是各个软件已经安装完成,就讲一些简要的执行步骤,安装的过程可以参考其他的博客,很全面。1、打开Anaconda Prompt命令工具,并执行conda creat --name=lambelme python=3.5(这个python版本要根据自己的 安装来写,我安装的是3.5)运行成功后会产生labelme文件夹,如图:2、运行成功后,接着继续执行activate labelme命令,...
2018-05-06 15:56:35 1895
原创 caffe windows+visual studio 2013+cuda8.0训练自己的数据经验
我采用的是AlexNet模型做的图像的一个分类,也是在初始阶段,自己积累了一些经验,分享一下。做以下步骤的前提是先将caffe训练成功。一、 建立.bat命令文件,将数据转化为mtraindb文件。(有一个小小的经验,可以自己编一个程序实现自动读取文件夹图片, 并产生txt文档,我用的是matlab编的,省很大的力气,你们可以选择一个自己熟悉的语言啦,python,c++,。。。都是可以的啦)步骤...
2018-05-06 15:37:07 188
原创 关于caffe学习心得
从7月初开始安装配置caffe,我选择的是matlab接口配置caffe,对于编程小白的我来说这一切是十分艰难的,从一开始的软件各种的安装用了两个星期,有时候心烦的想放弃,有时候又激动的想原来都是可以解决的,庆幸我的安装是完成了,庆幸我可以坚持下来。但是这并不代表就可以进行研究了,后面还有一系列的问题,在运行过程中可能会出现各种各样的问题,有时候百度也找不到符合自己问题的答案,无奈之下,很多东西只
2017-08-10 14:51:26 284
adashift_decorrelation_and_convergence_of_adaptive_learning_rate_methods.pdf
2020-05-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人