Deep learning
菜鸟小韩
这个作者很懒,什么都没留下…
展开
-
RNN & BRNN & LSTM & Bi-LSTM
转自:http://blog.csdn.net/jojozhangju/article/details/519822541. Recurrent Neural Network (RNN)尽管从多层感知器(MLP)到循环神经网络(RNN)的扩展看起来微不足道,但是这对于序列的学习具有深远的意义。循环神经网络(RNN)的使用是用来处理序列数据的。在传统的神经网络中模型中,层与层之间是全连接的,每层之间...转载 2018-03-20 22:49:33 · 11376 阅读 · 0 评论 -
Bi-LSTM + CRF 命名实体识别
https://www.cnblogs.com/Determined22/p/7238342.html转载 2018-03-21 23:16:22 · 1628 阅读 · 0 评论 -
CNN中 dropout 简介
转载自:http://blog.csdn.net/stdcoutzyx/article/details/49022443理解dropout注意:图片都在github上放着,如果刷不开的话,可以考虑翻墙。转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/49022443开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单...转载 2018-04-16 14:13:42 · 2797 阅读 · 0 评论 -
卷积神经网络 CNN
https://blog.csdn.net/yunpiao123456/article/details/52437794转载 2018-04-12 16:32:43 · 163 阅读 · 0 评论 -
欠拟合与过拟合、正则化方法介绍
1. 欠拟合欠拟合一般由于选取的特征太少导致模型的表达能力差,捕捉信息能力不足,而不是说训练数据太少解决方法:1)添加其他特征2)转换为多项式模型3)当出现欠拟合时,减少正则化参数(正则化是用来防止过拟合的)。2. 过拟合过拟合就是模型把数据学习的太彻底,把噪声数据的特征也学习了,模型泛化能力太差。解决方法:1)重新清洗数据,减少噪音数据2)增大数据的训练量,防止训练数据占总数据的比例过小。3)采...原创 2018-05-31 15:55:31 · 752 阅读 · 0 评论