- 博客(6)
- 资源 (12)
- 收藏
- 关注
原创 python pickle的用法实例代码
import pickle a1 = ‘apple’ b1 = {1: ‘One’, 2: ‘Two’, 3: ‘Three’} c1 = [‘fee’, ‘fie’, ‘foe’, ‘fum’] f1 = open(‘temp.pkl’, ‘wb’) pickle.dump(a1, f1, True) pickle.dump(b1, f1, True)
2017-11-15 14:43:25 339
原创 深度学习:多层感知机MLP数字识别的代码实现
深度学习我看的是neural network and deep learning 这本书,这本书写的真的非常好,是我的导师推荐的。这篇博客里的代码也是来自于这,我最近是在学习Pytorch,学习的过程我觉得还是有必要把代码自己敲一敲,就像当初学习机器学习一样。也是希望通过这个代码能够加深对反向传播原路的认识。在下面的代码中,比较复杂的部分就是mini_batch部分了,我们一定要有清晰的认识,我们在
2017-11-06 18:13:05 1801
原创 python the method of super function
class C: def init(self): print(‘enter C’) print(‘leave C’) class A: def init(self): print(“enter A”) print(“leave A”) class B(A): # A –...
2017-11-04 22:40:27 207
原创 深度学习:反向传播与基本原理
我们要证明得是这四个公式 有了这个四个公式,我们得反响传播就可以递推得到。 BP1公式: 这个是输出层误差方程,这个方程好像没啥好说的BP2公式 从这个公式我们可以通过高阶层的误差,通过的递推的方式求出每一层的误差BP3公式 BP4公式 从BP4公式我们可以看到,如果前一层的输出函数过于小的话 w参数学习就会变慢。
2017-11-04 20:56:56 1616
原创 Python处理时间
from dateutil.parser import parse a = parse(‘2011-01-03’) print(a) from dateutil.parser import parse a = parse(‘Jan 31,1997 10:45 PM’) print(a) from dateutil.parser import par...
2017-11-03 21:44:47 452
原创 Adaboost
这个是周志华老师的机器学习书里面的公式,表明如果基础分类器是弱分类器的 情况下,集成之后效果的效果会更好,因为我们从公式中可以看到,基分类器的数目T增长的时候,错误率是指数级下降的。 这个公式是怎么来的呢? 这个是周志华老师机器学习里的课后习题,现在咱们就来证明一下 到此我们对集成的直观理解是,如果我们有很多基分类器,他们之间独立,让他们各自预测之后,通过投票产生结果,如果数量足够多,那我们正确
2017-11-03 18:50:38 382
推荐系统实践
2017-06-24
斯坦福机器学习讲义
2017-04-30
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人