机器学习
m0_46675687
这个作者很懒,什么都没留下…
展开
-
KPCA的可视化(高斯核)
前言结合大佬博客还有B站视频,KPCA原理我是看懂了,但变换效果感觉一脸蒙蔽,不太理解,感觉实际应用只能瞎子摸象,试参数看效果,如果哪位小伙伴有更好KPCA的案例,麻烦评论区共享一下,谢谢!源码from sklearn.datasets import make_moonsfrom sklearn.datasets import make_circlesfrom sklearn.decomposition import PCAfrom sklearn.decomposition import Ke原创 2020-05-27 14:35:51 · 1140 阅读 · 1 评论 -
Python线性回归与回归分析(支持多元)
前言回归写完了,但分析还没写完,只计算方差,其它的乱西八糟的检验以后用到了再写,想补充的小伙伴可以评论区留言,我把你的加上去源码import matplotlib.pyplot as plt# plt.style.use('ggplot')from matplotlib.font_manager import FontProperties # 解决中文字符显示不全import numpy as npfont = FontProperties(fname=r"c:\windows\fonts\s原创 2020-05-25 14:32:17 · 333 阅读 · 0 评论 -
基于matplotlib的Adaboost可视化展示(2D+3D)
前言看了几遍西瓜书,感觉还是似懂非懂,自己手编一下感觉清晰多了,有兴趣的朋友可以看一眼,然后自己独立编一下源码import matplotlibfrom matplotlib import cmimport matplotlib.pyplot as pltimport numpy as npfrom sklearn.datasets import make_moonsfrom sklearn.tree import DecisionTreeClassifierclass Adaboost原创 2020-05-24 10:07:33 · 632 阅读 · 0 评论 -
SVR高斯核效果
源码import matplotlibimport matplotlib.pyplot as pltimport numpy as npfrom sklearn import svmplt.figure(figsize=(5, 4), dpi=140)plt.subplot(1, 1, 1)n = 100x = np.linspace(0,6,n)x.resize((n,1))y = 0.6*x*x*np.sin(x*3) + 6*x + 1 + np.random.rand(n,1原创 2020-05-21 14:58:37 · 638 阅读 · 0 评论 -
最简单的pytorch回归应用源码
说明该网络只有三层,但包含了大部分网络搭建流程,很适合入门者参考。源码import torchimport torch.nn.functional as F # 激励函数都在这import matplotlib.pyplot as pltplt.ion() # 画图plt.show()x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) # x data (tensor), shape=(100, 1)y = x.p原创 2020-05-20 17:00:53 · 151 阅读 · 0 评论 -
SVC中线性核和高斯核的效果展示
源码import matplotlib.pyplot as pltimport matplotlibimport numpy as np from sklearn.datasets import make_blobsfrom sklearn import svm plt.figure(figsize=(5, 4), dpi=140)plt.subplot(1, 1, 1) X, y = make_blobs(n_samples=200, n_feat原创 2020-05-20 12:20:27 · 1197 阅读 · 0 评论