机器学习
文章平均质量分 82
_忽如远行客
人一能之,已百之;人十能之,己千之.果能此道矣,虽愚必明,虽柔必强。
展开
-
dataframe删除某列
#bodyType为待删列的列名 data.drop(columns=['bodyType'],axis=1) 但是要注意的是,data.drop()会将删除列后的dataframe返回,data本身是不会有变化的! 因此可以写成 #bodyType为待删列的列名 dataAfter=data.drop(columns=['bodyType'],axis=1) dataAfter 同样...原创 2019-10-19 22:52:03 · 2311 阅读 · 0 评论 -
【实习日志】TSN 网络学习与实验记录/Constructor returned NULL && protobuf import error
实验目标:复现TSN网络结果 代码:https://github.com/yjxiong/temporal-segment-networks TSN介绍:https://zhuanlan.zhihu.com/p/32777430 到video-level testing这一步时: python tools/eval_net.py ucf101 1 rgb FRAME_PATH \ ...原创 2018-08-16 10:25:06 · 1953 阅读 · 2 评论 -
清华AI自强计划作业2实验—逻辑回归模型
问题: 运行模型输出loss值为NAN, nan nan的数据类型为float, not a number 的缩写。python中判断是否为nan类型的方法,使用math库中的*isnan()*函数判断: from math import isnan import numpy as np res = np.nan print (isnan(res)) 无法确定运算结果时会返回nan结果. 回...原创 2018-11-25 13:23:50 · 986 阅读 · 2 评论 -
【清华AI自强计划-计算机视觉课程-第三讲课程笔记2】
神经网络为什么有效? 神经网络有一个性质:Universality,“全包了”,即可代替所有的函数画出决策边界的普遍性。 简化模型到只有w和b两个参数,激活函数为sigmoid函数,激活函数的跳变点和-b/w有关。 如果启用隐藏层神经元,w1和w2的绝对值相等,符号相反,并且s1和s2设置为不同取值,则就会出现方波信号。 而再扩展一步,隐藏层每2个神经元可以画出一个形似方波信号的函数图像,并且...原创 2018-11-26 21:31:03 · 1652 阅读 · 0 评论 -
【清华AI自强计划-计算机视觉课程-第三讲课程笔记1】
【清华AI自强计划】-第三讲课程笔记 闲话: 课程初衷设计目标是把课程讲得通俗易懂,让更多人接触机器学习,更好上手,确实是这样,但我一个科班的更要多学了。 正题: 归一化中的“一”是什么意思? 将不同变量的量纲都转化为1,消除单位的影响。 ...原创 2018-11-26 22:25:15 · 559 阅读 · 1 评论 -
文本分类之模型初探
这里写自定义目录标题逻辑回归模型逻辑回归模型介绍逻辑回归模型应用合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入 逻辑回归模型 回...原创 2019-04-11 21:59:55 · 451 阅读 · 1 评论 -
达观杯智能文本处理挑战赛-模型优化
网格搜索法 网格搜索法是一种通过遍历给定的参数组合来优化模型的算法。针对每个参数组合来测试时,要对模型的表现进行量化,从而最后选出分数最高的参数组合。 实现网格搜索法: class sklearn.model_selection.GridSearchCV(estimator, param_grid, scoring=None, fit_params=None, n_jobs=None, i...原创 2019-04-16 09:56:59 · 232 阅读 · 0 评论 -
LightGBM介绍与实践
LightGBM介绍 LightGBM是一个梯度Boosting框架,使用基于决策树的学习算法。 LightGBM的优点: 1)更快的训练效率 2)低内存使用 3)更高的准确率 4)支持并行化学习 5)可以处理大规模数据 参数设置: task:默认值=train,可选项=train,prediction;指定我们希望执行的任务,该任务有两种类型:训练...原创 2019-04-13 20:14:14 · 2354 阅读 · 0 评论