- 博客(9)
- 收藏
- 关注
转载 回归-分类
最小二乘法 上图是数据点 x⃗ ,y⃗ \vec x, \vec y 大致满足线性关系 y=ax+by = a x + b,在生成过程中加入了随机噪声,具体生成代码如下。请使用最小二乘法拟合出参数 a,ba, b 的值来。![]a = 0.5; b = 2n_samples = 50x = np.linspace(0, 10, n_samples)y = a * x + b + np.ran
2016-12-27 09:55:06 308
原创 machine-learning
machine-learning fig. 1 fig. 2 end-to-end model. deep learning algorithm is to compute feature representation. The first end is the data that can be obtained as easy as possible; and the second on
2016-11-11 17:56:06 338
原创 LSTM
(Fig. 1)Fig.1 是一张展开的LSTM模型的示意图,绿色的模块表示隐藏层记忆单元,每个记忆单元都有三个输入,两个输出(虽然图中有三个输出箭头,但其中两个输出都是h(t)h(t)),因此,tt 时刻记忆单元的输入、输出分别为 x(t),h(t−1),s(t−1)x(t), h(t-1), s(t-1) 和 h(t),s(t)h(t), s(t)模型的计算公式如下: g(t)i(t)f(t)
2016-10-09 22:30:04 3268
原创 BPTT-应用于简单的循环神经网络
上面是一组序列变量,即四个变量 z1,z2,z3,z4z_1, z_2, z_3, z_4 中的任一 ziz_i 的值均依赖于它前面的变量 z1,z2,..,zi−1z_1, z_2, .., z_{i-1},且有 z2=2∗z1z_2 = 2 * z_1 z3=3∗z2+z1z_3 = 3*z_2 + z_1 z4=4∗z3+2∗z2+z1z_4 = 4*z_3 + 2*z_2 + z_1
2016-10-01 21:19:11 568
原创 多层感知器模型(MLP)
需要训练的模型参数(parameters)num_hidden:隐藏层节点数目 activation func:隐藏层/输出层节点的激发函数 weights/biases:连接权重/偏置 * 构造成本函数 训练模型的目的就是降低C值的大小。由于每一层激发函数的输出a_j是权重(weight)和偏置(bias)的函数,因此C也是权重和偏置的函数。训练模型的过程就可以转化成寻找权重和偏置的最
2016-09-24 22:56:36 19797
原创 数据集
Public dataset for machine learning http://homepages.inf.ed.ac.uk/rbf/IAPR/researchers/MLPAGES/mldat.htm ![public dataset for machine learning](http://obmpvqs90.bkt.clouddn.com/Public dataset for mac
2016-09-23 22:40:28 4674
原创 装饰器-decorator
def memo cache = {} @wraps(func) def wrapper(*args): if args not in cache: cache[args] = func(*args) return cache[args] return wrapper我们定义如下函数,将输入参数乘2并返回def f(x): '''
2016-09-22 20:20:56 199
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人