机器学习
文章平均质量分 70
零点呀
有事没事敲敲代码。事忙,不怎么玩博客。
展开
-
找不到conda可执行文件:解决方法
1.在新版本的pycharm出现的问题如下:2.解决方法:2.1 将anaconda\Scripts\conda.exe选中2.2选择自己的anconda自己的环境,之后就可以正常创建conda环境原创 2023-10-23 21:07:45 · 1805 阅读 · 2 评论 -
MIoU认识
MIoU是指平均交并比(Mean Intersection over Union),也称为平均IoU(Intersection over Union)。它是一种常用的评估指标,用于衡量语义分割任务。在语义分割任务中,每个像素都被赋予一个特定的类别标签,我们可以将预测结果和真实标签分别视为两个二值图像。交并比是通过计算预测结果和真实标签之间的重叠区域与它们的并集之间的比例来度量它们的相似程度。具体地,对于每个类别,我们可以计算该类别的交并比(IoU)并取其平均值,得到MIoU。原创 2023-07-04 09:49:33 · 3277 阅读 · 0 评论 -
learning_curve()详解
learning_curve() 是一个可视化工具,用于评估机器学习模型的性能和训练集大小之间的关系。它可以帮助我们理解模型在不同数据规模下的训练表现,进而判断模型是否出现了欠拟合或过拟合的情况。该函数会生成一条曲线,横轴表示不同大小的训练集,纵轴表示训练集和交叉验证集上的评估指标(例如准确率、损失等)。通过learning_curve() 可以直观地了解模型的性能和训练集规模之间的关系,可以帮助我们进行模型选择、调优、判断是否需要增加更多的数据来改善模型性能。原创 2023-07-03 17:30:31 · 647 阅读 · 0 评论 -
DecisionTreeRegressor()作用详解
用于构建回归树模型。回归树是基于决策树算法的一种模型,用于解决回归问题,即预测连续型变量的值。DecisionTreeRegressor()类的主要作用是通过输入的训练数据,构建一个回归树模型,然后可以使用该模型对新的数据进行预测。它使用了以为准则的分裂策略来生成树,并对节点的最优划分进行决策。通过调用fit(X, y)方法,其中X是训练样本的特征矩阵,y是对应的目标值(标签),来拟合(训练)回归树模型。通过调用predict(X)方法,其中X是测试样本的特征矩阵,来进行预测。原创 2023-07-03 17:02:08 · 735 阅读 · 0 评论 -
sklearn 中ShuffleSplit()函数详细解
ShuffleSplit()函数是交叉验证中的一种分割数据集的方法。它的作用是将原始数据集随机打乱,并按照指定的比例将数据集划分为训练集和测试集。具体来说,ShuffleSplit()函数会将数据集中的样本随机打乱,并根据设定的参数生成多个不重叠的训练集和测试集拆分。每次拆分都会返回一个新的拆分器。原创 2023-07-03 16:03:15 · 875 阅读 · 0 评论 -
机器学习模型的评估
在训练数据上训练模型。在验证数据上评估模型。模型准备上线之前,在测试数据上最后测试一次原因在于开发模型时总是需要调节模型配置,比如确定层数或每层大小[这些叫作模型的超参数(hyperparameter),以便与参数(权重)区分开]。这个调节过程需要使用模型在验证数据上的表现作为反馈信号。该过程本质上是一种学习过程:在某个参数空间中寻找良好的模型配置。因此,基于模型在验证集上的表现来调节模型配置,很快会导致模型在验证集上过拟合,即使你并没有在验证集上直接训练模型。原创 2023-05-14 11:43:00 · 308 阅读 · 1 评论 -
决策树与随机森林
决策树解决回归问题时进行平均数计算。原创 2023-05-13 13:02:18 · 531 阅读 · 0 评论 -
卷积神经网络详解
1.padding为VALID情况output_width=(in_width-filter_width + 1)/strides_ width(结果向上取整)output_height=(in_height-filter_height+1)/strides_height(结果向上取整)● 输入的尺寸中高和宽定义成in_height、in_width。● 卷积核的高和宽定义成filter_height、filter_width。原创 2023-05-02 16:14:55 · 3326 阅读 · 1 评论 -
详解正则化
防止过拟合现象,通过降低模型在训练集上的精度来提高其泛化能力,从而增加正则项。原创 2023-05-01 17:45:42 · 734 阅读 · 0 评论 -
线性分类算法:逻辑回归和Softmax回归
逻辑回归不是一个回归的算法,逻辑回归是一个分类的算法,因为逻辑回归算法是基于多元线性回归的算法。而正因为此,逻辑回归这个分类算法是线性的分类器,所以为有监督的。逻辑回归一般用于o-1分布的有监督分类问题,softmax用于多项式分类。逻辑多项式回归一般用于医疗影橡,如病例所属的类,可将不同的病例分到不同类中,一种病例可以分多次;而softmax则是归为一类。由 GLM 可知,LinearRegression,LogisticRegression,SoftmaxClassification。原创 2023-04-13 15:28:58 · 755 阅读 · 0 评论 -
梯度下降法
1.之前利用θ的解析解公式求解出来的解我们就直接说是最优解的一个原因是因为 MSE这个损失函数是凸函数,但是如果我们机器学习的损失函数是非凸函数的话,设置梯度为 0会得到很多个极值,甚至是极大值都有可能。是一个通用的优化算法来帮助一些机器学习算法求解出最优解的,用于以最快的速度把模型参数θ求解出来。2. 之前利用θ的解析解公式求解的另一个原因是特征维度并不多,当维度多时计算复杂。原创 2023-04-10 19:19:31 · 72 阅读 · 0 评论