算法
文章平均质量分 77
聂小闲
用技术改变命运实现梦想
展开
-
训练集loss不下降
转载 https://blog.ailemon.me/2019/02/26/solution-to-loss-doesnt-drop-in-nn-train/训练集loss不下降训练集的loss在训练过程中迟迟不下降,一般是由这几个方面导致的,这一点在我之前的文章《深度学习:欠拟合问题的几种解决方案》中基本都涉及到了,详细内容可以查看原文,本文中,将这些内容面再做一个扩充。1.模型结构和特征工程存在问题如果一个模型的结构有问题,那么它就很难训练,通常,自己“自主研发”设计的网络结构可能很难适应实际问转载 2021-12-23 15:14:50 · 1964 阅读 · 0 评论 -
问答
转载::::https://github.com/zhaoyingjun/chatbot转载 2020-06-03 14:53:22 · 171 阅读 · 0 评论 -
转载::客流量lstm
转载::https://blog.csdn.net/wenshijie123/article/details/88764036转载 2019-11-11 13:30:49 · 238 阅读 · 0 评论 -
SVM与LR区别
1.损失函数不一样,逻辑回归的损失函数是log loss,svm的损失函数是hinge loss2.损失函数的优化方法不一样,逻辑回归用剃度下降法优化,svm用smo方法进行优化3.逻辑回归侧重于所有点,svm侧重于超平面边缘的点4.svm的基本思想是在样本点中找到一个最好的超平面。5对非线性问题的处理方式不同,LR主要靠特征构造,必须组合交叉特征,特征离散化。SVM也可以这样,还可以通过kern...原创 2018-08-30 22:34:09 · 262 阅读 · 0 评论 -
rnn自动生成诗句
转载一篇文章 ::: http://blog.topspeedsnail.com/archives/10542转载 2018-08-31 08:53:38 · 2023 阅读 · 0 评论 -
构造LSTM超长简明教程
转载一篇比较好的文章 :::https://blog.csdn.net/xierhacker/article/details/78772560转载 2018-08-31 14:25:12 · 558 阅读 · 0 评论 -
rnn循环神经网络进行自动生成诗歌等
转载一篇比较实用的rnn诗歌自动生成代码:: https://zhuanlan.zhihu.com/p/28196873转载 2018-08-31 23:55:48 · 2208 阅读 · 0 评论 -
自动生成详细讲解
转一篇非常有用的rnn循环网络的预测和自动生成。 https://zhuanlan.zhihu.com/p/27087310转载 2018-09-01 01:26:59 · 148 阅读 · 0 评论 -
attention 机制
转载 https://blog.csdn.net/weixin_38569817/article/details/79882265转载 2018-09-01 20:08:22 · 141 阅读 · 0 评论 -
Attention 注意力机制编写
注意力机制::: https://github.com/bojone/attention转载 2018-09-01 20:12:09 · 699 阅读 · 0 评论 -
词与词性相结合的lstm
转载一篇超级实用的文章,适合于做词性与词相结合的分析::::https://blog.csdn.net/android_ruben/article/details/80206792转载 2018-09-01 22:36:49 · 303 阅读 · 0 评论 -
rnn
转载一篇不错的rnn 解释性 文章:::https://blog.csdn.net/qq_40027052/article/details/78652311转载 2018-09-02 17:57:10 · 223 阅读 · 0 评论 -
初学者学习lstm与rnn
转载一篇适合初学这学习的文章::https://blog.csdn.net/roslei/article/details/61912618转载 2018-09-06 15:35:19 · 139 阅读 · 0 评论 -
lstm
http://www.360doc.com/content/17/0705/23/99071_669193597.shtml转载 2018-09-06 16:37:29 · 212 阅读 · 0 评论 -
pytorch中bilstm-crf
转载一篇pytorch进行实体识别的文章https://blog.csdn.net/appleml/article/details/78579675转载 2018-09-30 09:46:29 · 1407 阅读 · 0 评论 -
文本情感分类
转载一篇文本分类https://blog.csdn.net/kwame211/article/details/78222143转载 2018-09-30 09:52:02 · 172 阅读 · 0 评论 -
转载一篇特别有用的attention
转发 https://blog.csdn.net/malefactor/article/details/50550211转载 2018-10-25 11:22:32 · 133 阅读 · 0 评论 -
attention+分类文章
文本分类:::https://blog.csdn.net/fkyyly/article/details/82501126转载 2018-10-25 12:03:17 · 424 阅读 · 0 评论 -
word2vec大牛讲解
转载:::https://blog.csdn.net/itplus/article/details/37999613转载 2018-10-25 13:52:33 · 804 阅读 · 0 评论 -
LSTM和GRU介绍
转载::::https://blog.csdn.net/hjimce/article/details/51234311转载 2018-10-25 18:25:28 · 483 阅读 · 0 评论 -
attention 注意力机制的好文章
转载一篇大牛的文章 :::https://zhuanlan.zhihu.com/p/37835894转载 2018-10-24 15:17:10 · 304 阅读 · 0 评论 -
attention+seq2seq
转载一篇::::https://blog.csdn.net/guotong1988/article/details/74571569转载 2018-11-01 19:55:00 · 143 阅读 · 0 评论 -
介绍相关深度学习
转载::https://blog.csdn.net/c602273091/article/details/78940207转载 2018-11-09 10:03:32 · 105 阅读 · 0 评论 -
非常通俗易懂的深度学习文章
转载::http://m.elecfans.com/article/792089.html转载 2018-11-09 10:04:44 · 607 阅读 · 0 评论 -
word2vec词向量
转载:::http://www.sohu.com/a/218985465_642762转载 2018-11-10 14:46:02 · 172 阅读 · 0 评论 -
attention 机制
转载::https://blog.csdn.net/fkyyly/article/details/82501126转载 2018-11-10 14:46:28 · 169 阅读 · 0 评论 -
attention 清华大学讲解
转载:::https://www.sohu.com/a/213397190_206784转载 2018-11-10 16:06:55 · 203 阅读 · 0 评论 -
attention 讲解
转载:::http://xiaosheng.me/2018/01/13/article121/转载 2018-11-10 16:54:21 · 187 阅读 · 0 评论 -
attention
https://blog.csdn.net/mpk_no1/article/details/72862348原创 2018-11-10 17:01:52 · 116 阅读 · 0 评论 -
自言语言中attention
转载::::https://blog.csdn.net/hahajinbu/article/details/81940355转载 2018-11-10 17:07:45 · 84 阅读 · 0 评论 -
attention 讲解
转载:::https://blog.csdn.net/qq_42606051/article/details/81476962转载 2018-11-10 18:07:15 · 165 阅读 · 0 评论 -
Attention 文章
转载一篇文章:::https://www.jianshu.com/p/3f2d4bc126e6转载 2018-11-05 14:08:38 · 161 阅读 · 0 评论 -
Attention all you need
转载:::https://yq.aliyun.com/articles/342508?utm_content=m_39938转载 2018-11-05 14:30:02 · 135 阅读 · 0 评论 -
LASSO 回归
转载::::https://cosx.org/2016/10/data-mining-1-lasso/转载 2018-11-05 15:28:33 · 192 阅读 · 0 评论 -
Spark讲解
转载:::https://blog.csdn.net/u012185296/article/details/76855770转载 2018-11-05 15:55:14 · 100 阅读 · 0 评论 -
Attention 编写
转载::https://blog.csdn.net/yiyele/article/details/81393229转载 2018-11-05 16:57:53 · 159 阅读 · 0 评论 -
有用的Attention讲解
转载:::https://cuiqingcai.com/5873.html转载 2018-11-05 17:10:55 · 125 阅读 · 0 评论 -
回归实现
转载:::https://blog.csdn.net/hzw19920329/article/details/77200475转载 2018-11-13 14:36:21 · 114 阅读 · 0 评论 -
线性模型
https://blog.csdn.net/weixin_38285131/article/details/79787115转载 2018-11-13 15:36:02 · 200 阅读 · 0 评论 -
好的学习资源
转::https://blog.csdn.net/q361239731/article/details/81012904转载 2018-11-13 15:43:46 · 435 阅读 · 0 评论