- 博客(4)
- 收藏
- 关注
原创 远程访问服务器上的jupyter和tensorboard
一、基本方法这里主要是通过ssh端口转发的方式实现。二、服务器端启动服务nohup jupyter-notebook --notebook-dir notebook data dir> --no-browser --port jupyter port> --ip server ip> > jupyter.log 2>&1 &三、建立ssh隧道nohup ssh -i
2018-01-22 16:38:48 1870
原创 机器学习boosting算法—梯度提升树(GBDT)
1 回归树算法分析Adaboost算法是提升树的特殊情况,主要用于分类问题,对于回归问题怎么处理呢?? 已知一个训练数据集T={(x1,y1),(x2,y2),...,(xN,yN)}T=\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\},假设输入空间为χ\chi,如果将输入空间划分为J个互不相交的区域R1,R2,...,RJR_1,R_2,...,R_J并在每个区域
2018-01-19 15:20:58 976
原创 机器学习boosting算法—Adaboost之示例解析
boosting方法是一种常用的统计学习方法,应用广泛且有效,在分类问题中,它通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类的性能,这里我们通过Adaboost算法的示例分析来了解boosting方法的基本思路。Adaboost算法1 Adaboost算法流程图 左边是训练数据集,其中直方图的不同长度表示每个样例的权重。在经过一个分类器之后,加权的预测结
2018-01-19 15:01:35 2532
原创 机器学习Boosting算法—AdaBoost前向分步解释
算法分析 在Adaboost算法的示例解释中的算法流程中,给出了分类器权重、分类误差以样本权重的更新公式,这一部分从前向分步算法的角度来解释这些公式的由来。 1) 每个分类器的权重计算公式: αm=12ln1−emem\alpha_{m}=\frac{1}{2}ln \frac{1-e_m}{e_m} 2)分类误差的计算公式 em=P(Gm(xi)≠yi)=∑i=1NwmiI(Gm(x
2018-01-04 17:20:25 1452
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人