算法
mmmaaaggg
爱好游泳(强项),中跑(介于长袍与短跑之间的)
性格内向(不过希望自己外向一点)
喜欢看欧美电影、日本动画(目前一直跟进的有火影、海贼王、鲁鲁修)
工作态度认真努力,力求尽善尽美(虽然软件本身并没有完美的,但求问心无愧)
不抽烟也不喜欢喝酒,生活上对奢侈品没有追求(这些东西对我没吸引力)
展开
-
第七周【任务1】签到作业 过儿--《深度学习》花书训练营【第五期】
b.分析前馈神经网络、卷积神经网络和循环神经网络的异同点。1)前馈神经网络(FNN)是经典感知机算法的进化版本。该网络不考虑输入数据可能具备的任何特定结构。尽管如此,它仍是非常强大的机器学习工具,尤其是与先进的正则化技术一起使用时。这些技术帮助解决人们处理「深度」网络时遇到的训练问题:神经网络有大量隐藏层,隐藏层非常难以训练(梯度消失和过拟合问题)。图:FNN 前向神经网络FNN...原创 2020-05-05 15:58:14 · 366 阅读 · 0 评论 -
第六周【任务1】签到作业 过儿--《深度学习》花书训练营【第五期】
a. 卷积操作的本质特性包括稀疏交互和参数共享,具体解释这两种特性及其作用。稀疏交互(Sparse Interaction) 传统神经网络采用全连接方式,网络层的输入与输出之间的连接关系由一个权值矩阵表示,其中每一个参数表示前后层中某两个神经元节点之间的交互。对于全连接网络,任意一个输入节点均与输出节点产生交互,由此形成稠密的连接关系。而稀疏交互,则是指,任意输出节点至于前一层特...原创 2020-04-28 21:36:59 · 318 阅读 · 0 评论 -
第五周【任务1】签到作业 过儿--《深度学习》花书训练营【第五期】
a. 用公式说明为何L2正则化又常被称作“weight decay”L2 regularization 又被叫做“权重衰减”,主要源于其在代价函数后面增加了一个正则化项。公式如下:导致在L@正则化后,代价函数进行求导如下:可以发现L2正则化对b没有影响,但是对w的更新产生了影响:相比之下,w每次更新都会比没有正则化的情况下小一些,因此起到了权重衰减(weight dec...原创 2020-04-21 17:59:33 · 380 阅读 · 0 评论 -
第四周[任务1] 签到作业 过儿--《深度学习》花书训练营【第五期】
a. 为什么在神经网络中加入非线性是必须的?答:神经网络的每一层主要是由 隐藏+激活函数构成。隐藏:wX+b的形势实现线性变换激活函数如:sigmoid,relu完成非线性变换由于N个线性变换的叠加最终还是线性变换。因此,如果没有激活函数完成非线性变换,则神经网络无法完成对非线性任务的回归及分类任务。b. 写出下列每个激活函数的表达式及其导数。在x∈[−5,...原创 2020-04-14 09:11:13 · 198 阅读 · 0 评论 -
第三周[任务1] 签到作业 过儿--《深度学习》花书训练营【第五期】
1.假设我们要学习一个硬间隔SVM,其线性决策函数为输入特征为,, 标签(分别用和表示). 训练数据如下图所示:i. 根据最大间隔原则在图中标出支持向量,并大致画出对应分割超平面.ii. 若超平面的表达式为,写处超平面的表达式....原创 2020-04-06 16:27:58 · 350 阅读 · 0 评论