![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
python算法合集
文章平均质量分 60
普普通通研究生学代码
希望可以多一些人一起学习,菜鸟记录自己代码生活。
展开
-
深度学习高阶篇----学习率调度
深度学习高阶篇----学习率调度交流学术思想,加入Q群 号:815783932找到一个好的学习率非常重要,设置过高,会导致训练发散,设置过低,会导致收敛到最优解,但是花费时间刚长,更新较慢。1、幂调度将学习率设置为迭代次数t的函数,公式如下:其中初始学习率是η0,幂c一般设置为1,步骤s为超参数。根据迭代次数t可知,每一次epoch都会下降,下降为一开始迅速下降,最后越来越慢。利用keras 实现 幂调度十分简单。##幂调度optimizer=keras.optimizers.SGD(le原创 2022-05-06 18:36:22 · 940 阅读 · 1 评论 -
python XGboost回归预测 算法实现和原理讲解(比赛青睐)
对经典问题 波士顿房价进行回归预测一、加载波士顿数据集并观察数据的shape。from sklearn.model_selection import train_test_splitdef del_data(): #建立处理数据集的方法,便于直接带入xgboost算法 (train_data, train_targets), (test_data, test_targets) = boston_housing.load_data() print(train_data.shape)原创 2021-10-18 10:57:01 · 38891 阅读 · 3 评论 -
KNN k近邻算法(聚类算法),一篇文章搞懂(通俗解释)
KNN 聚类算法通俗定义,物以类聚,人以群分。将数据代入算法,距离较近的就是同一类,对真实的数据进行聚类。KNN的算法原理:欧几里得原理其实就是多维数据之间的绝对距离计算公式,距离近的话就会被划分为一个类别。 k值是可变的,表示投票权重,就是概率问题,算法根据概率做选择。 KNN 算法优缺点 缺点: 时间和空间复杂度太高了, 不适合训练数据过大的。 优点:理解起来很简单,入门就能学会使用。代码实现简单一点的。举一个简单的电影多分类问题根据特征。import numpy as原创 2021-03-30 21:49:31 · 2376 阅读 · 0 评论 -
特征筛选,归一化操作(SelectKBest,随机森林)PCA降维
特征筛选,归一化操作(SelectKBest,随机森林)SelectKBest和卡方检验,随机森林算法降维,归一化操作。(1)读取数据,分为特征和label值。from sklearn.feature_selection import SelectKBestfrom sklearn.feature_selection import chi2import pandas as pdcontent=pd.read_csv('dynamic.csv')x=content.iloc[:,0:-1]原创 2021-03-28 23:38:35 · 6015 阅读 · 0 评论