- 博客(5)
- 收藏
- 关注
原创 DBSCAN与KMeans对比
DBSCAN也是基于密度的聚类算法超参数:EPS领域半径Mmpts 核心点领域内点个数的阈值核心概念:核心点:一个对象在其半径内含有>Mmpts数目的点,则该点为核心点边界点:一个对象在其半径内含有<Mmpts数目的点,但改对象落在核心点的领域内,则该点为边界点噪音点:既不是核心点,也不是边界点的点。import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasets.
2020-05-26 18:22:11 3747
原创 关联规则分析
#关联规则from apyori import aprioristore_data = pd.read_csv(r'D:/Download/apriori算法示例及数据/apriori算法示例及数据/store_data.csv', header=None).fillna('')store_data.head()#读取csv文件,将每一行按逗号分割存成一个List,然后整体存储成List,类似这种形式List[[],[],[]]# records = []# with open(r'D:/D
2020-05-26 15:43:40 817
原创 networkx网络关系图
import networkx as nximport matplotlib.pyplot as pltfrom networkx.algorithms.community import k_clique_communitiesG = nx.read_gml(‘D:\Download\dolphins\dolphins.gml’)klist = list(k_clique_communities(G,5))#plottingpos = nx.spring_layout(G)plt.clf()
2020-05-19 17:01:44 2200 2
原创 Wrapper递归特征消除 (Recursive Feature Elimination)
特征选择三法宝:过滤法(Filter)、包裹法(Wrapper)、嵌入法(Embedding)过滤法(Filter):按照发散性或者相关性对各个特征进行评分,设定阈值或者待选择阈值的个数,选择特征包裹法(Wrapper):根据目标函数,每次选择若干特征或者排除若干特征,直到选择出最佳的子集。嵌入法(Embedding):先使用某些机器学习的算法和模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。类似于Filter方法,但是是通过训练来确定特征的优劣。递归消除特征法使用一个基模型.
2020-05-12 17:39:52 1444
原创 python-余弦相似度
余弦相似度相关系数import jiebaimport mathimport numpy as np#——————————————————————————创建样本与分词———————————————————————————————————————s1='本周末去钓鱼's1_cut=[i for i in jieba.cut(s1,cut_all=True)]s2='下周去花卉市场买花's2_cut=[i for i in jieba.cut(s2,cut_all=True)]wor
2020-05-11 16:08:09 1731
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人