机器学习
文章平均质量分 53
潮阿景
等风来不如追风去
展开
-
机器学习:聚类,Sklearn
本次实验基本完成,难度适中,对k-means聚类算法的原理,高斯混合模型聚类算法的原理,sklearn如何实现聚类有了更深的了解,但相关代码的具体作用还需要理解消化。随即中心点的初始点选择是不确定的,可能会导致最后模型的结果不稳定。当每个混合模型没有足够的点时,估算协方差变得困难起来,同时算法会发散并且找具有无穷大似然函数值的解,在计算机上验证和测试k-means聚类和高斯混合模型聚类实验,sklearn的相关聚类算法。高斯混合模型的计算量大,可以看作是KMeans的推广,除非人为地对协方差进行正则化。原创 2022-11-14 17:06:25 · 391 阅读 · 0 评论 -
机器学习实验之线性回归实验
2.请参考线性回归.pdf,同时对比,线性回归,线性回归+多项式特征,以及KNN回归,贝叶斯回归,决策树回归和支持向量SVR回归,六个回归算法对步骤1中的样本数据的回归曲线的差异,哪个回归算法R方分数高(调用score函数)。在计算机上验证和测试最小二乘法和线性回归实验,sklearn的线性回归算法。由最后得分可知,回归算法中,线性svm加入rbf核函数的回归效果最好;4、掌握KNN,贝叶斯,决策树和SVM如何进行线性回归。3、掌握线性回归评价指标和多项式特征算法;2、能够理解线性回归和多元线性回归算法;原创 2022-11-05 20:36:16 · 485 阅读 · 0 评论 -
机器学习实验之线性回归实验
2.请参考线性回归.pdf,同时对比,线性回归,线性回归+多项式特征,以及KNN回归,贝叶斯回归,决策树回归和支持向量SVR回归,六个回归算法对步骤1中的样本数据的回归曲线的差异,哪个回归算法R方分数高(调用score函数)。在计算机上验证和测试最小二乘法和线性回归实验,sklearn的线性回归算法。由最后得分可知,回归算法中,线性svm加入rbf核函数的回归效果最好;4、掌握KNN,贝叶斯,决策树和SVM如何进行线性回归。3、掌握线性回归评价指标和多项式特征算法;2、能够理解线性回归和多元线性回归算法;原创 2022-11-05 20:35:43 · 745 阅读 · 0 评论 -
机器学习实验之神经网络基础实验
当x小于0的时候,那么从此流过的神经元的梯度都变成0,这个时候ReLU单元在训练中将死亡(参数无法更新),造成了数据多样化的丢失。Sigmoid缺点:激活函数计算量大,反向传播求梯度时,求导设计除法 反向传播,在饱和区两边导数容易为0,即容易出现梯度消失的情况,从而无法完成训练。在计算机上验证和测试多层神经网络的原理和算法实现,测试多层神经网络的训练效果,同时查阅相关资料。Sigmoid函数反向传播时,容易出现梯度消失的情况,造成信息的丢失,无法完成分类。激活函数的作用:为了增加神经网络模型的非线性。原创 2022-11-05 20:33:31 · 583 阅读 · 0 评论