机器学习
文章平均质量分 74
totobey
这个作者很懒,什么都没留下…
展开
-
python处理大数据集的7个技巧(内存有限)
How to Work with BIG Datasets on 16G RAM (+Dask)本文为转载,原文链接:How to Work with BIG Datasets on 16G RAM (+Dask) | Kaggle本文有精简。TIP 1 - Deleting unused variables and gc.collect()if you used up a dataframe (or other variable), get in the habit of deleti转载 2022-04-17 18:59:37 · 1097 阅读 · 0 评论 -
python三种编码OneHotEncoder,LabelEncoder,OrdinalEncoder对比
1.LabelEncoder# LabelEncoder:Encode target labels with value between 0 and n_classes-1# This transformer should be used to encode target values *i.e.* `y`, and not the input `X`.#1.LabelEncoder用来给lable编码(而不是特征),编码后的值为 0 and n_classes-1#2.如果transform的时原创 2022-04-09 22:15:00 · 5505 阅读 · 1 评论 -
Hyperopt调参,返回值注意事项(坑),为什么num_leaves和max_depth会显示0?Python
关于Hyperopt的使用可以参考以下几篇文章,本文不做解释:(4条消息) Hyperopt入门_浅笑古今的博客-CSDN博客_hyperopt使用 Hyperopt 进行参数调优(译) - 简书 (jianshu.com)本文主要说明一下返回值的坑!调LightGBM的时候:fmin函数↓搜索空间↓坑来了!最终返回结果是这样(仅做示例):{'bagging_fraction': 4, 'feature_fraction': 2, 'max_depth': ..原创 2022-02-22 22:49:15 · 1404 阅读 · 3 评论 -
欧氏距离、余弦相似度、Jaccard相似度、皮尔逊的Python代码与实例
首先是一段计算三个相似度的Python代码。需要注意的是,进行归一化操作后,三个函数取值范围都是0-1,而且都是数值越大表示相似性越高,数值为1代表完全相似。import numpy as npdef EuclideanDistance(dataA,dataB): '''【目的】计算欧氏距离(对应值的差平方之和再开方),注重数据之间的绝对位置而不是方向 【输入】np.array 【输出】已进行归一化,取值(0,1],数值越大表示相似性越高,数值为1代表完全相似原创 2022-02-02 17:21:17 · 3322 阅读 · 0 评论 -
吴恩达机器学习作业(无答案与有答案各一版)与个人笔记
此资源为本人去年在网易云课堂学习吴恩达机器学习课程时所用资料。此资源包含:(1)AndrewNg吴恩达机器学习的课后编程作业。包括:1.无答案版本。2.有答案版本(octave三版,python一版,其中octave第三版为本人实操时所写,其余版本为网络上搜集)。3.作业题目合并版pdf,可直接打印。(2)课堂讲义pdf。(3)个人笔记(中文版),可直接打印。下...原创 2020-04-01 14:12:58 · 721 阅读 · 0 评论 -
衡量预测变量/自变量重要性
一、响应变量为数值型,预测变量为数值型1.1 Pearson相关系数衡量线性关系1.2 Spearman相关系数变量之间近线性或者曲线相关不适用于变量间的复杂关系1.3 loess局部加权回归非线性关系采取一系列多项式回归分别对一系列的小区域建模二、响应变量为数值型,预测变量为分类型2.1 标准t统计量比较两组均值,本质为信号与噪音的比例(均...原创 2020-03-31 14:45:53 · 5015 阅读 · 0 评论 -
吴恩达机器学习编程作业无法暂停pause问题解决
吴恩达机器学习的编程作业需要暂停,虽然原始代码中有 pause ,但是发现实际在octave(5.1.0)运行时,代码无法暂停。编程作业代码:fprintf('Program paused. Press enter to continue.\n');pause;经过搜索,知乎有同志提出了解决方案具体链接见:https://www.zhihu.com/question/34559...原创 2019-11-09 12:04:25 · 669 阅读 · 0 评论