![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
徐亦快
种树。
展开
-
bp神经网络详解 图文
@徐亦快bp神经网络详解首先,要学会它,我们要先在战略上鄙视它。它到底是个什么东西呢。先抽出来看看它。我们说它的自变量是权重w,在通过一系列的操作后,一个合适的w能让输出o与实际相对接近。x - f(w) - o将o与实际T的差距称为E。也就是说,E为一个自变量为x的函数,随着w的变化不断变化。说到这里,你便能知道bp就是那个如何找到较优解w,使得E最小的算法。从...原创 2020-03-08 15:09:26 · 1992 阅读 · 0 评论 -
DBSCAN可视化展示网站推荐
一个参数可调的DBSCAN聚类算法的可视化展示网站https://www.naftaliharris.com/blog/visualizing-dbscan-clustering/是一个国外的大佬写的先选择数据集的类型 比如选择 Smiley Face 左下角可以调节领域半径以及领域密度阈值。橙红色的圆圈方便我们根据数据集选择恰当的参数。 h...原创 2018-11-01 17:25:19 · 3243 阅读 · 2 评论 -
机器学习_随机数据生成
FROM: https://www.cnblogs.com/pinard/p/6047802.html在学习机器学习算法的过程中,我们经常需要数据来验证算法,调试参数。但是找到一组十分合适某种特定算法类型的数据样本却不那么容易。还好numpy, scikit-learn都提供了随机数据生成的功能,我们可以自己生成适合某一种模型的数据,用随机数据来做清洗,归一化,转换,然后选择模型与算法做拟...转载 2018-10-27 11:42:43 · 788 阅读 · 0 评论 -
sklearn_Feature selection(特征选择)
From: http://sklearn.apachecn.org/cn/0.19.0/modules/feature_selection.html#feature-selectionhttps://www.jianshu.com/p/b3056d10a20f目录 1.13. 特征选择1.13.1. 移除低方差特征1.13.2. 单变量特征选择1.13.3. 递...转载 2018-09-06 19:48:48 · 5652 阅读 · 0 评论 -
潜在语义分析Latent Semantic Analysis (LSA)
FROM: https://blog.csdn.net/zhzhji440/article/details/47193731目录目录 概述 Tutorial LSA的工作原理 How Latent Semantic Analysis Works 实例A Small Example Part 1 - Creating the Count Matrix Python - ...转载 2018-09-04 19:58:27 · 2729 阅读 · 0 评论 -
模型融合(集成)方法
FROM : https://blog.csdn.net/sinat_29819401/article/details/71191219本文是《KAGGLE ENSEMBLING GUIDE》一文的阅读笔记,忽略了一些不感兴趣的内容,原文请阅:https://mlwave.com/kaggle-ensembling-guide/ 模型融合是kaggle等比赛中经常使用到的一个利器,...转载 2018-09-04 17:08:13 · 8645 阅读 · 1 评论 -
理解K-means聚类算法及Python,Java实现
K-means聚类算法简介举个栗子图一有ABCDE这五个点。我们先随机选择两个点作为我们的初始聚类中心(簇中心点),标记为红点和黄点。开始第一次聚类。对于所有点分别计算其到红点和黄点的距离,我们发现AB点到红点距离更近,而CDE三个点到黄点的距离更近。于是,AB为一簇,CDE为一簇。然后对于这两簇,分别计算簇内各点的均值,标记为新的红点和黄点(图三)。开始第二次聚类。我...原创 2018-08-03 13:20:04 · 611 阅读 · 0 评论 -
Python-sklearn库简介
来源 mooc python机器学习 sklearn库的基本功能 内置数据集示例原创 2018-08-03 11:12:13 · 893 阅读 · 0 评论 -
决策树原理实例(python代码实现)
From https://blog.csdn.net/csqazwsxedc/article/details/65697652决策数(Decision Tree)在机器学习中也是比较常见的一种算法,属于监督学习中的一种。看字面意思应该也比较容易理解,相比其他算法比如支持向量机(SVM)或神经网络,似乎决策树感觉“亲切”许多。优点:计算复杂度不高,输出结果易于理解,对中间值的缺失值不敏感...转载 2018-08-12 13:14:40 · 598 阅读 · 1 评论 -
从0到1,用python实现K-NN算法
1. KNN(k-Nearest Neighbor)k-Nearest Neighbor,即k个相对距离最小的临近点。举个栗子,对于下图的这个绿色的圆来说,它到底是属于红色的三角一方,还是属于蓝色的矩形一方。面对如此虎视眈眈的两边,小圆需要立刻表明自己的立场。这次,它使用了KNN算法,它在心里盘算:1. 就看距离我最近的这三个家伙的来历吧(取k=3),两个是红方(2/3),一个是蓝方(...原创 2018-07-30 19:13:17 · 1615 阅读 · 0 评论 -
理解DBSCAN密度聚类算法
DBSCAN密度聚类算法简介DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是一个比较有代表性的基于密度的聚类算法。与划分和层次聚类方法不同,它将簇定义为密度相连的点的最大集合,能够把具有足够高密度的区域划分为簇,并可在噪声的空间数据库中发现任意形状的聚类。DBSCAN一般假定类别可以通过样本分布的紧密程...原创 2018-08-03 16:20:02 · 1042 阅读 · 0 评论