- 博客(8)
- 资源 (3)
- 收藏
- 关注
原创 Understanding LSTM Networks(笔记)
Understanding LSTM NetworksRecurrent Neural Networks允许信息传递,传统的神经网络做不到LSTM NetworksLSTMs are explicitly designed to avoid the long-term dependency problem.遗忘门输出一个介于0和1之间的数字。 1表示“完全保留这个”,而0表示“完全摆脱这个”。、下...
2018-03-20 22:44:25 531
原创 回文串个数
import java.util.*;public class Main { public static void main(String[] args) { // TODO Auto-generated method stub Scanner input = new Scanner(System.in); while(inp...
2018-03-12 10:16:22 344
转载 Ensemble几种方式原理
kaggle-ensembling guideblendnigstacking代码模型融合接口常见的 Ensemble 方法有这么几种:Bagging:使用训练数据的不同随机子集来训练每个 Base Model,最后进行每个 Base Model 权重相同的 Vote。也即 Random Forest 的原理。Boosting:迭代地训练 Base Model,每次根据上一个迭代中预测错误的情况修...
2018-03-12 10:07:47 10363 1
原创 稀疏自动编码器一点知识
1. 了解稀疏编码器的原理,以下是收获:l 本身就是一种BP神经网络。它是一种无监督学习算法。l 神经网络目标值等于输出值x,也就是模拟一个恒等函数。这样做的好处是,网络的隐含层能够很好的代替输入的特征,因为它能够比较准确的还原出那些输入特征值。网络结构图如下所示:自编码器要求输出尽可能等于输入,并且它的隐藏层必须满足一定的稀疏性,即隐藏层不能携带太多信息。所以隐藏层对输入进行了压缩,并在输...
2018-03-11 22:15:11 2167
原创 House Prices: Advanced Regression Techniques资料链接
Comprehensive data exploration with PythonA study on Regression applied to the Ames datasetRegularized Linear ModelsStacked Regressions : Top 4% on LeaderBoard
2018-03-11 17:04:55 575
转载 哈佛研究:一个人没有出息的9大根源
来源考虑一千次,不如去做一次!犹豫一万次,不如实践一次!华丽的跌倒,胜过无谓的徘徊!据哈佛大学研究:一个人没出息一定有以下这九大根源。1.犹豫不决:比鲁莽更糟糕的是犹豫不决。像墙头草一样摇摆不定的人,无论其他方面多么强大,在生命的竞赛中总是容易被那些坚定地人挤到一边。雷厉风行难免会犯错,但比什么也不敢做强。怀特·黑德说:“畏惧错误就是毁灭进步。”2.拖延:计划很丰满,执行很骨感。很多时候拖延就是逃...
2018-03-11 16:57:16 4261
原创 python读取文件夹下所有csv文件
### 读取文件夹下的所有csv文件import os# 输出文件夹下的所有文件os.listdir('../data/simulation_data_generation/pdata2_1000')'1+0.1+139+0.6.csv', '1+0.2+290+0.6.csv', '1+0.5+411+0.8.csv', '1+0.9+62+0.5.csv', '10+0.4+4...
2018-03-11 16:56:00 24606 4
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人