Pytorch and Sklearn
文章平均质量分 95
这里主要记录PyTorch、TensorFlow、Sklearn等机器学习框架的学习过程。
长路漫漫2021
I confess that I have been blind as a mole, but it is better to learn wisdom late than never to learn it at all.
展开
-
sklearn基础篇(十)-- 非负矩阵分解与t-SNE
本篇主要介绍降维里经常使用的非负矩阵分解与t-SNE,本篇主要讲解两种算法的原理和sklearn实现。原创 2022-12-16 22:30:00 · 1112 阅读 · 1 评论 -
sklearn基础篇(八)-- 网格搜索与随机搜索
网格搜索适用于三四个(或者更少)的超参数(当超参数的数量增长时,网格搜索的计算复杂度会呈现指数增长,这时候则使用随机搜索),用户列出一个较小的超参数值域,这些超参数至于的笛卡尔积(排列组合)为一组组超参数。网格搜索算法使用每组超参数训练模型并挑选验证集误差最小的超参数组合。原创 2022-12-14 21:30:00 · 3728 阅读 · 0 评论 -
sklearn基础篇(七)-- 随机森林(Random forest)
随机森林就是通过集成学习的思想将多棵树集成的一种算法,它的基本单元是决策树,而它的本质属于机器学习的一大分支——集成学习(Ensemble Learning)方法。原创 2022-11-16 22:21:09 · 9761 阅读 · 0 评论 -
sklearn基础篇(六)-- 决策树(decision tree)
决策树是广泛用于分类和回归任务的模型。本质上,它从一层层的if/else问题中进行学习,并得出结论。决策树学习算法包括3部分:特征选择、树的生成和树的剪枝。常用的算法有ID3、C4.5和CART。原创 2022-11-15 22:30:00 · 3685 阅读 · 0 评论 -
sklearn基础篇(五)-- 线性模型
本篇主要学习用于回归和分类的线性模型,包括普通最小二乘法、岭回归、Lasso正则化、Logistic回归、线性支持向量机,通过调节参数对比模型的学习能力。原创 2022-11-10 22:38:33 · 2202 阅读 · 0 评论 -
sklearn基础篇(四)-- k近邻算法
K近邻算法既能够用来解决分类问题,也能够用来解决回归问题。本篇主要学习k近邻算法原理,模型、KD树、ball树的实现,最后总结算法的优缺点。原创 2022-11-08 14:29:06 · 1863 阅读 · 0 评论 -
sklearn基础篇(三)-- 鸢尾花(iris)数据集分析和分类
本文是基于《Python机器学习基础教程》第一章学习的总结,主要是基于iris数据集进行探索数据分析和不同分类模型的对比,从而熟悉使用sklearn的模型进行机器学习。原创 2022-10-28 08:00:00 · 86272 阅读 · 12 评论 -
学习率设置
本篇主要学习神经网络超参数学习率的设置,包括人工调整和策略调整学习率。在模型优化中,常用到的几种学习率衰减方法有:分段常数衰减、多项式衰减、指数衰减、自然指数衰减、余弦衰减、线性余弦衰减、噪声线性余弦衰减。......原创 2022-07-14 19:35:51 · 16396 阅读 · 0 评论 -
sklearn基础篇(二)-- 交叉验证评估模型性能
本节主要介绍使用留出法、K折交叉验证、留一法进行模型性能评估,以及在sklearn里如何快如使用交叉验证。原创 2022-10-20 21:45:33 · 4769 阅读 · 0 评论 -
sklearn基础篇(一)-- datasets数据集
本篇主要结合学习的内容,整理了sklearn中的datasets数据集,包括加载数据集、数据集分割、查看数据集分布,并介绍了通用数据集、真世界中的数据集、并介绍如何生成数据和导入本地数据。原创 2022-10-19 18:41:19 · 11604 阅读 · 1 评论 -
PyTorch基础(八)-- 常用函数
在PyTorch编程中会遇到各种张量的操作,这里主要整理了torch.cat()、torch.split()、torch.chunk()、torrch.stack()、torch.unsqueeze()、torch.squeeze()、torch.gather()、torch.where()、torch.norm()、torch.cumsum()、torch.sort()原创 2022-10-25 22:26:45 · 929 阅读 · 0 评论 -
PyTorch基础(七)-- 小结
本节主要对前面内容进行总结,并介绍权值初始化、训练与评估以及随机种子的使用,有了这些基础就可以搭建简单的网络。原创 2022-06-15 20:29:11 · 348 阅读 · 0 评论 -
PyTorch基础(六)-- optim模块
PyTorch的optim是用于参数优化的库(可以说是各种梯度下降的变种),optim文件夹主要包括1个核心的父类(optimizer)、1个辅助类(lr_scheduler)以及10个常用优化算法的实现类。optim中内置的常用算法包括adadelta、adam、adagrad、adamax、asgd、lbfgs、rprop、rmsprop、sgd、sparse_adam。本文主要整理了这些优化算法的主要思想,使用方法,以及在训练过程中的优缺点。...原创 2022-03-20 23:37:47 · 3954 阅读 · 0 评论 -
PyTorch基础(五)-- 损失函数
这里将列出PyTorch中常用的损失函数(一般通过torch.nn调用),并详细介绍每个损失函数的功能介绍、数学公式和调用代码。当然,PyTorch的损失函数还远不止这些,在解决实际问题的过程中需要进一步探索、借鉴现有工作,或者设计自己的损失函数。...转载 2022-06-14 21:24:22 · 6077 阅读 · 0 评论 -
PyTorch基础(四)-- 模型构建
在模型实现上,由于深度神经网络层数往往较多,同时会有一些用于实现特定功能的层(如卷积层、池化层、批正则化层、LSTM层等),因此深度神经网络往往需要“逐层”搭建,或者预先定义好可以实现特定功能的模块,再把这些模块组装起来。本篇蛀牙介绍常见层的构建,并最后通过nn.Module和nn.functional进行LeNet和Alexnet网络结构的实现。...原创 2022-06-14 17:52:00 · 1047 阅读 · 0 评论 -
PyTorch基础(三)-- 数据处理
PyTorch数据读入是通过Dataset+DataLoader的方式完成的,Dataset定义好数据的格式和数据变换形式,DataLoader用iterative的方式不断读入批次数据。原创 2022-06-13 17:14:07 · 1615 阅读 · 1 评论 -
PyTorch基础(二)-- 张量与梯度
Pytorch中的计算最终都可以归结为Tensor即张量的计算,所以有必要详细学习PyTorch中张量属性与运算梯度。原创 2022-06-12 17:18:37 · 2110 阅读 · 1 评论 -
PyTorch基础(一)-- Anaconda 和 PyTorch安装
本篇主要介绍Anaconda+Pytorch的安装,内容包括创建虚拟环境、换源、查看GPU和PyTorch的在线、离线下载。原创 2022-06-08 20:38:10 · 2736 阅读 · 0 评论