机器学习
文章平均质量分 66
weixin_41724971
保密
展开
-
2022年4月12日 概率和似然-极大似然估计MLE
rf:极大似然估计(MLE)推导与3D可视化 - 知乎 概率密度函数 概率密度函数用来描述某个随机变量取某个值的时候,取值点所对应的概率(probability)的函数, 举个例子, 我们现在有一个概率分布, 属于正态分布: 其中是均值,是标准差. 如果你不熟悉正态分布, 我们简单回顾一下指的是均值, 在下图中, 均值是0则正态分布的概率在均值处概率最高, 以均值为中心两边是对称的,是标准差, 标准差控制着概率分布偏离均值的程度, 标准差越大概率分布越扁平, 越小的话, 概率分布越...原创 2022-04-12 11:37:58 · 111 阅读 · 0 评论 -
2021-10-20 LDA降维python代码应用详解
用scikit-learn进行LDA降维 在线性判别分析LDA原理总结中,我们对LDA降维的原理做了总结,这里我们就对scikit-learn中LDA的降维使用做一个总结。 1.对scikit-learn中LDA类概述 在scikit-learn中, LDA类是sklearn.discriminant_analysis.LinearDiscriminantAnalysis。那既可以用于分类又可以用于降维。当然,应用场景最多的还是降维。和PCA类似,LDA降维基本也不用调参,只需要指定.原创 2021-10-20 10:54:22 · 2730 阅读 · 0 评论 -
2021-09-23 2022年2月17日修改 随机森林调参&参数说明
scikit-learn随机森林调参小结 - 刘建平Pinard - 博客园原创 2022-02-17 22:26:20 · 204 阅读 · 0 评论 -
2021年8月13日 StandardScaler进行数据标准化
from sklearn.preprocessing import StandardScaler data = [[0, 0], [0, 0], [1, 1], [1, 1]] print(data) scaler = StandardScaler() print(scaler.fit_transform(data)) x = scaler.fit_transform(data) # x是array格式原创 2021-08-13 15:25:55 · 868 阅读 · 0 评论 -
画ROC为什么clf.predict_proba(X_train)[:, 1] 而不是[:,0]?
y_train_prob = clf.predict_proba(X_train)[:, 1] 这行代码让我疑惑,它究竟是什么意思呢? print(clf.predict(x_test)) #返回预测标签 就是预测值是哪些 print(clf.predict_proba(x_test)) #返回预测属于某标签的概率 就是属于某类预测值的概率是多少 而对于[:,1] 是取二维数组中第二维的所有数据 举个例子: y_train_prob = clf.pred...原创 2021-08-11 11:29:19 · 1194 阅读 · 0 评论 -
2021年8月11日 记录5个模型(逻辑回归、SVM、决策树、随机森林、XGBOOST)关于ACCURACY、PRECISION,RECALL和F1-SCORE、AUC值的评分表格,并画出ROC曲线。
数据集下载地址: 链接:https://pan.baidu.com/s/1eAxEpYv5jtZahDuGCIkGrw提取码: 1024 import pandas as pd import numpy as np from sklearn.impute import SimpleImputer from sklearn.preprocessing import OrdinalEncoder from sklearn.model_selection import train_test_split f..原创 2021-08-11 11:19:53 · 427 阅读 · 0 评论 -
随机森林matlab实现
疑问:随机森林如何设置需要的分类总数? 本文摘自:https://www.cnblogs.com/txg198955/p/4658549.html 代码:http://blog.csdn.net/ice110956/article/details/10049149 其实,之前就接触过随机森林,但仅仅是用来做分类和回归。最近,因为要实现一个idea,想到用随机森林做ensemble learning才具体的来看其理论知识。随机森林主要是用到决策树的理...原创 2021-07-06 16:06:26 · 1916 阅读 · 0 评论