pytorch--学习记录
文章平均质量分 69
小户爱
这个作者很懒,什么都没留下…
展开
-
对于生成式ai个人一些看法+Gan生成对抗网络+代码(pytorch)
生成对抗网络,顾名思义。主打的就是一个对抗的思想,这个理论也符合自然界的情况“物竞天择,适者生存” 高中生物有这么一个例子 猎豹追捕🦌,🦌为了生存锻炼出了强大有力的肢体从而可以跑的更快以逃脱追捕,而猎豹为了还能捕猎到跑的更快的🦌,它也会变得越来越快,当然这是宏观感受,毕竟自然选择是基因突变自然进行淘汰筛选,只不过单就结果论是这么个感受,你可以类比成神经网络也自然选择也就是不适应进化的神经元死掉喽。(具体的后面讲)原创 2023-07-12 14:55:19 · 306 阅读 · 0 评论 -
pytorch 卷积神经网络-MNIST数据集
【代码】pytorch 卷积神经网络-MNIST数据集。原创 2023-07-06 21:55:10 · 193 阅读 · 0 评论 -
Pytorch-多分类问题-MNIST数据集
自动将64*1*28*28 的转化成64*784 -1 是自动计算的意思。1.利用transform进行张量化以及标准化处理。对于这个数据集加入冲量突破鞍点是一个很重要的点😂。原创 2023-07-06 16:15:44 · 46 阅读 · 0 评论 -
泰坦尼克生存预测--神经网络
代码使用的是pytoch库,但大体思路都差不多目前得分是0.7751,还可以优化这里的代码只是第一版。原创 2023-07-04 14:52:14 · 311 阅读 · 2 评论 -
pytorch 分批次训练
batch_size=32 这个是分的批次大小 ,我这里选择每批次32,shuffle=True 是否随机打乱 num_workers=2 表示加载时使用多少个子进程这个根据自己的配置自行选择。之前那种我们会发现运行的速度反而会较之前慢一些 因为还进行了分批次等操作 同时也没有特别好的运用 GPU并行能力,之前的都是使用直接训练虽然它有它自己的优点但分批次训练也是一种重要的方法。使用的数据集依然是8个特征的糖尿病预测二分问题数据集的获取,见我之前文章。数据集的引入 因为要分批次所以要写几个魔法函数。原创 2023-07-01 18:21:46 · 1623 阅读 · 0 评论 -
pytorch --关于libiomp5md.dll的初始化报错的解决方式
直接输入上述代码: 他的作用就是无视出现的问题继续运行程序,虽然看起来有点像c语言 解决scanf 警报的问题, 但二者的本质大相径庭 这个问题其实很大 是因为 你的 环境里出现了两个或多个libiomp5md.dll 文件, 在跑程序的时候你的程序中链接了多个OpenMP运行时库,导致冲突和不稳定, 也就是说你的电脑不知道使用这两个哪个比较好。下一步很重要 如图 不要碰torch 库里面的那个 ,把环境里面多出来那个 重命名就好了,右下角找你的环境 当前解释器为: 不啦不啦一大串。原创 2023-06-29 20:08:02 · 1079 阅读 · 0 评论 -
pytorch-- 多维特征处理
1 . 全连接层的设置这三行代码是在定义模型的三个全连接层,每个层都有一个输入维度和一个输出维度。全连接层的作用是将输入的特征向量映射到一个新的空间,从而提取更高层次的特征。这里的维度选择是根据数据集的特点和模型的复杂度来确定的,一般来说,输出维度越小,模型越简单,但也可能损失一些信息。输入维度越大,模型越复杂,但也可能导致过拟合。形象点来说的话:假设你要预测一个人是否患有糖尿病,你有八个输入特征,比如年龄、体重、血压等,你的输出是一个二分类的标签,0表示没有糖尿病,1表示有糖尿病。原创 2023-06-29 19:56:09 · 373 阅读 · 0 评论 -
Pytorch --分类问题(二分)Logistic Regression 介绍
假设我们有一个硬币,我们想要估计它正面朝上的概率p。其中,xi=1表示第i次试验正面朝上,xi=0表示第i次试验反面朝上。因此 ,也就是说要根据实际情况来具体分析, 需要通过机器学习来分析数据的才适合跑模型,接下来要我们预测 第11,或12次也就是说求 出它的概率来说明是否是一个公平的硬币。因此改一下例题 ,也是抛硬币但这个不是常规的硬币可以通过熟练度来 稳定抛出正面。结果99991 0.0518462248146534。这才是一个简单的适合跑逻辑斯蒂模型的数据。解得 p = 0.5。原创 2023-06-28 20:07:22 · 86 阅读 · 1 评论 -
Pytorch --线性模型
最开始是跟着 Aladdin Persson 学的但是 不知道为什么有一组数据集完全导入不了所以换了一个老师 从头跟着学 但我还是非常推荐 Aladdin Persson的课的因为讲的非常实用。也就是要求出w ,和 d ,但老师的讲解就做了w的。我整理了一下最后是加上b的版本。要找评估模型 也就是loss。原创 2023-06-23 20:51:56 · 99 阅读 · 0 评论 -
Pytorch --梯度下降算法
梯度下降算法是一种常用的最优化算法,它的目的是找到一个函数的最小值点,或者说是使得函数值尽可能地小。梯度下降算法的基本思想是,从一个初始点开始,沿着函数的负梯度方向(即函数下降最快的方向)不断地更新点的位置,直到达到一个局部最小值或者满足一定的停止条件。梯度是一个向量,它表示了函数在某一点处的方向导数最大的方向,也就是函数上升最快的方向。负梯度则表示了函数下降最快的方向。梯度的大小反映了函数变化的速率,梯度越大,说明函数变化越快,梯度越小,说明函数变化越缓慢。公式:权重-=学习率*loss函数的导数。原创 2023-06-24 20:12:04 · 306 阅读 · 1 评论 -
pytorch -- 反向传播
哔哩哔哩《Pytorch深度学习实践》课程合集 笔记原创 2023-06-25 21:18:26 · 185 阅读 · 0 评论 -
Pytorch--实现线性回归模型
更具体地说optimizer.zero_grad()的作用是把梯度清零,也就是把loss关于weight的导数变成0. 这样做的目的是为了避免梯度在每个batch累加,导致梯度更新不准确。如果不使用optimizer.zero_grad(),那么反向传播计算得到的梯度会和之前的梯度相加,这样会影响模型训练效果。x_data = torch.Tensor([[1.0], [2.0], [3.0]]) # 二维张量。这里的1,1 指的传入和传出的元素,并不是训练数据的大小而是每个训练数据的元素。原创 2023-06-27 23:17:47 · 122 阅读 · 0 评论