深度学习
jiangjiane
起风了,唯有努力生存
展开
-
连续特征的离散化
连续特征的离散化:在什么情况下将连续的特征离散化之后可以获得更好的效果?转载 2021-10-09 11:24:15 · 2718 阅读 · 0 评论 -
深度学习机器学习面试问题准备
转载:点击打开链接第一部分:深度学习1、神经网络基础问题(1)Backpropagation(要能推倒) 后向传播是在求解损失函数L对参数w求导时候用到的方法,目的是通过链式法则对参数进行一层一层的求导。这里重点强调:要将参数进行随机初始化而不是全部置0,否则所有隐层的数值都会与输入相关,这称为对称失效。 大致过程是:首先前向传导计算出所有节点的激活值和输出值, 计算整体损失函数: 然后针对第...转载 2018-05-07 20:17:23 · 299 阅读 · 0 评论 -
机器学习面试问题准备
转载:点击打开链接这部分主要是针对上面问题的一些更细节的补充,包括公式的推倒思路、模型的基本构成、细节问题的分析等等。一、问题杂烩1、PCA的第二主成分 第二个主成分时域第一成分方向正教的差异性次大方向。 2、什么时候用组合的学习模型 只有当各个模型之间没有相关性的时候组合起来是最好用的。但是一般来说,弱相关的模型组合比较好用。 3、多重共线性 多重共线性是指当两个特征的相关性很大的时候,会对参数...转载 2018-05-07 20:18:55 · 182 阅读 · 0 评论 -
yaml文件
转载:https://blog.csdn.net/zhengxiangwen/article/details/70042514yaml的语法:1、在yaml里面,结构通过缩进来表示,连续的项目(如:数组元素、集合元素)通过减号“-”来表示,map结构里面的键值对(key/value)用冒号“:”来分割。yaml也有用来描述好几行相同结构数据的缩写语法,数组用“[]”包括起来,hash用“{}...转载 2018-11-29 11:31:13 · 5490 阅读 · 0 评论 -
tf.Variable、tf.get_variable、tf.variable_scope、tf.name_scope关系
转载自:https://www.cnblogs.com/MY0213/p/9270864.html1. tf.Variable与tf.get_variabletensorflow提供了通过变量名称来创建或者获取一个变量的机制。通过这个机制,在不同的函数中可以直接通过变量的名字来使用变量,而不需要将变量通过参数的形式到处传递。TensorFlow中通过变量名获取变量的机制主要是通过tf.g...转载 2019-04-25 18:55:28 · 117 阅读 · 0 评论 -
RNN, LSTM, GRU, RCNN
RNN && LSTMhttp://lawlite.me/2017/06/14/RNN-%E5%BE%AA%E7%8E%AF%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E5%92%8CLSTM-01%E5%9F%BA%E7%A1%80/RNN && LSTM && GRUhttps://blog.csdn.n...原创 2019-04-28 16:03:19 · 482 阅读 · 0 评论 -
NLP学习资源链接
https://blog.csdn.net/yaohaishen/article/details/87537773转载 2019-06-01 09:56:15 · 487 阅读 · 0 评论 -
Github下载单个文件或单个文件夹
1、进入这个网站(需要科学上网才能打开):DownGit2、复制需要下载文件的页面的浏览器上面的网址,即可打包下载。原创 2019-08-07 21:05:50 · 470 阅读 · 0 评论