- 博客(6)
- 资源 (1)
- 收藏
- 关注
原创 机器学习教程之3-逻辑回归(logistic regression)的sklearn实现
0.概述---**线性回归**不仅可以做**回归**问题的处理,也可以通过与**阈值**的比较转化为**分类**的处理,但是其**假设函数**的输出范围没有限制,这样很大的输出被分类为1,较少的数也被分为1,这样就很奇怪。而**逻辑回归**的**假设函数**的输出范围是0~1。当数据集中含有误差点时,使用**线性回归**相应的误差也会很大。
2017-04-29 23:30:04 16607 1
原创 机器学习教程之2-线性回归(linear regression)的sklearn实现
0.概述线性回归属于机器学习中的回归问题,因为线性回归是根据数据预测一个准确的输出值,而不是分类结果。 注意:”机器学习教程之1”里的感知器讲的是分类问题,它是寻找超平面将数据分为正、负两类。优点:非常简单、易于建模、应用广泛缺点:1.模型表示 数据集:数据的集合监督学习:从已有数据中发现关系:由多个输入映射一个输出。并用数学模型表示,将新数据用这数学模型运算得到新的输出。监督学习的方式:回归问
2017-04-26 21:26:19 3500
转载 vim如何添加或删除多行注释
http://jingyan.baidu.com/article/9c69d48f43ed6d13c8024e7b.html
2017-04-18 21:09:10 490
原创 GPU计算能力和性能指标
体现GPU计算能力的两个重要特征: 1)CUDA核的个数; 2)存储器大小。 描述GPU性能的两个重要指标: 1)计算性能峰值; 2)存储器带宽。
2017-04-14 16:41:20 27857
原创 CUDA优化策略之-achieved occupancy
占用率的定义/*SM(Streaming Multiprocessor,流式多处理器):构成GPU的基本硬件单元; multiprocessor:在CUDA里概念和SM一样; 激活warp:在warp中的所有线程在核函数中从开始执行到全部结束的过程; 在每个SM中存在允许最大激活warp的数量; */ 占用率(occupancy):在SM上实际激活warp数量与理论最大激活warp数量之比
2017-04-14 15:50:35 1306
原创 CUDA优化策略概述
原始的代码通常无法获得最佳的性能,这时就需要借助CUDA提供的两个基本的性能剖析工具:nvvp,一个独立的视觉性能分析器(visual profiler)和nvprof,一个命令行性能分析器。 优化CUDA代码需要测量的几个问题: 1)应用程序空间(内存)或时间的复杂度 2)特殊指令的使用 3)函数调用的频率和持续的时间 限制核函数性能的三个因素: 1)存储器带宽 2)计算资源
2017-04-09 11:12:05 372
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人