机器学习
文章平均质量分 65
Johnnay_Song
流水不争先
展开
-
【4】np.linalg.eig()和np.linalg.svd()区别
【1】np.linalg.eig()函数输入:计算奇异值和右奇异值的方阵输出:特征值和特征向量计算过程:(1)输入计算的矩阵;(2)矩阵每个维度减去均值;(3)计算矩阵的协方差矩阵;(4)eig分解参考代码:def SVDInArray(sitk_img): numpy_img=sitk.GetArrayFromImage(sitk_img) numpy_img[numpy_img<0]=0 sitk_ex=sitk.GetImageFr原创 2021-11-14 14:54:33 · 3255 阅读 · 0 评论 -
【3】机器学习中高斯混合模型的求解
【1】机器学习中的函数GaussianMixture求解各个模型的分量【1.1】GaussianMixture参数解释可参考文献:【sklearn篇】mixture.GaussianMixture各参数详解以及代码实现_Yakuho的博客-CSDN博客_gaussianmixture【1.2】代码from matplotlib import colorsimport numpy as npimport matplotlib.pyplot as pltfr...原创 2021-10-23 13:11:09 · 1622 阅读 · 0 评论 -
【1】Haar和Adaboost人脸识别
1 python图像处理源码# -*- coding: utf-8 -*-import cv2import numpy as np#加载xml文件#绝对路径加载 相对路径加载会报错pathj='F:\\machinelearning\\HaayiandAdaboost\\face.jpg'pathf='F:\\machinelearning\\HaayiandAdaboost\...原创 2020-02-23 11:43:31 · 133 阅读 · 0 评论 -
【2】监督学习之线性回归
线性回归的概述【1】最小二乘法(ordinary least squares,ols)基于均方误差最小化来进行模型求解的方法缺点:维数过多时容易出现过拟合【2】岭回归(rideg regression)在ols的基础上引入L2范数正则化的参数越大,回归参数越小,模型越平稳缺点:回归参数的模型值很小,但是很难达到0值;【3】loss回归(lasso)在...原创 2019-10-16 16:40:42 · 127 阅读 · 0 评论