- 博客(11)
- 收藏
- 关注
原创 JAVA面试题一些整理(持续更新)
Java的finalize,finally,final三个关键字的区别和应用场景:(1)final:可以作为修饰符修饰变量、方法和类,被final修饰的变量只能一次赋值;被final修饰的方法不能够在子类中被重写(override);被final修饰的类不能够被继承。(2)finally用在异常处理中定义总是执行代码,无论try块中的代码是否引发异常,catch是否匹配成功,finally块中的代码总是被执行,除非JVM被关闭(System.exit(1)),通常用作释放外部资源(不会被垃圾回收器.
2020-07-23 21:43:58 156 1
转载 TCP和UDP的区别
https://www.cnblogs.com/fundebug/p/differences-of-tcp-and-udp.html
2020-03-22 16:02:21 117
转载 字节跳动大佬的经验分享
一、导读由于公众号不能放外部链接,一些题目和资料的链接无法访问,可点击阅读全文获得更好阅读体验。据我了解,前端程序员有相当一部分不是科班出身,以至于对“数据结构”和“算法”的基础概念都不是很清晰,这直接导致很多人在看到有关这部分的内容就会望而却步。实际上,当你了解了“数据结构”和“算法”存在的真正意义,以及一些实际的应用场景,对它有了一个整体的认知之后,你可能会对它产生强烈的兴趣。...
2020-03-15 17:09:03 791
转载 支持向量机通俗导论(理解SVM的三层境界)
https://blog.csdn.net/v_JULY_v/article/details/7624837#commentBox
2019-12-24 10:41:21 72
转载 梯度下降法和牛顿法的比较
梯度下降和牛顿法的推导均与泰勒公式有关,所以先介绍泰勒展开公式:基本形式:上面这个迭代形式将应用到下面的梯度下降和牛顿法中。一、梯度下降梯度下降法应用一阶泰勒展开,假设L(θ)代表损失函数,目标:最小化损失函数,θ是需要更新的模型参数。下面公式中alpha是步长(学习率),可以直接赋值一个小的数,也可以通过line search。二、牛顿法牛顿法应用二阶泰勒展开,目标:...
2019-11-30 18:56:11 540
转载 什么是指数加权平均、偏差修正?
指数加权平均在深度学习优化算法中,例如Momentum、RMSprop、Adam,都提到了一个概念,指数加权平均,看了Andrew Ng的深度学习课程后,总结一下什么是指数加权平均。式中v_t可近似代表1/(1-β)个θ的平均值。偏差修正由以上证明可以看出,每个最新数据值,依赖于以前...
2019-11-21 09:05:47 650
转载 【深度学习】深入理解优化器Optimizer算法(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
在机器学习、深度学习中使用的优化算法除了常见的梯度下降,还有 Adadelta,Adagrad,RMSProp 等几种优化器,都是什么呢,又该怎么选择呢?在 Sebastian Ruder 的这篇论文中给出了常用优化器的比较,今天来学习一下:https://arxiv.org/pdf/1609.04747.pdf本文将梳理:每个算法的梯度更新规则和缺点 为了应对这个不足而提出的下一个...
2019-11-21 09:01:05 154
转载 几种常用激活函数的简介
1. sigmod函数函数公式和图表如下图在sigmod函数中我们可以看到,其输出是在(0,1)这个开区间内,这点很有意思,可以联想到概率,但是严格意义上讲,不要当成概率。sigmod函数曾经是比较流行的,它可以想象成一个神经元的放电率,在中间斜率比较大的地方是神经元的敏感区,在两边斜率很平缓的地方是神经元的抑制区。当然,流行也是曾经流行,这说明函数本身是有一定的缺陷的...
2019-11-20 17:51:30 701
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人