深度学习
文章平均质量分 54
FrenchOldDriver
这个作者很懒,什么都没留下…
展开
-
三种实现模型可视化的方式(print, torchinfo, tensorboard)
深度学习模型可视化原创 2023-04-13 20:12:04 · 998 阅读 · 1 评论 -
直方图均衡化实现暗光增强
直方图均衡化,暗光增强原创 2023-04-13 16:38:36 · 634 阅读 · 0 评论 -
显著性检测saliency detection代码实现
显著性检测原创 2023-03-01 14:51:05 · 601 阅读 · 0 评论 -
pytorch训练过程中存图片的一种方式
pytorch训练过程中存储图片原创 2023-02-28 22:08:44 · 208 阅读 · 0 评论 -
【踩坑指南】Stable Diffusion 服务器端部署笔记
https://github.com/CompVis/stable-diffusion 这个网址,下载压缩包解压,也可以用git clone下载。下载地址:https://huggingface.co/CompVis/stable-diffusion-v-1-4-original。文件中自带瑟图检测,如果触发了会生成一张全黑图片或者是其他和谐图替代。其实在代码中可以注释掉。随便选一个就行,下载了之后放到stable-diffusion 文件夹中的。其他有啥漏掉的包基本直接pip就行。就不会触发安全检测了。原创 2023-02-22 14:45:38 · 4998 阅读 · 6 评论 -
pytorch几种learning rate的使用方式
pytorch的学习率都在torch.optim.lr_scheduler里面使用方式基本一致,都需要和optimizer配合使用。说一下几个常用的。原创 2022-09-14 14:37:50 · 1031 阅读 · 0 评论 -
Pytorch深度学习(2):图像处理入门+MNIST实战
本文将通过一个经典的Kaggle比赛:MNIST手写字识别来进行简单的图像处理入门。该Kaggle竞赛链接并且会用到很常见的CNN模型。首先导入数据,做好前期准备:import pandas as pdimport numpy as nptrain_data = pd.read_csv('./train.csv')test_data = pd.read_csv('./test.csv')简单查看一下可以发现,该数据中,训练集里是包含label的,在其数据的第一位,而测试集没有。并且他的数据原创 2022-05-24 23:02:09 · 916 阅读 · 0 评论 -
Pytorch神经网络入门(1)参数的手动更新和自动更新
Pytorch 作为深度学习届两大扛把子框架之一(另一个是Tensorflow),一直都受着AI炼丹师们的喜爱。这里将简单介绍一下神经网络参数的手动更新和自动更新。首先来说手动更新,可能很多初学者随便打开一本pytorch书或者教程,发现他们的梯度更新方式都大同小异,都是那几句话,但他其中的具体步骤究竟是怎样的,还是有必要了解一下。一般情况下,神经网络都是有隐藏层的,当然也可以像上图左边那样,只有输入输出。神经网络的循环过程如下:1,输入进来,前向传播,先用初始化的矩阵将输入转换成和输出类似的形原创 2021-03-23 15:58:21 · 10651 阅读 · 0 评论 -
pytorch张量拼接与切分
拼接第一种方法 cat在指定维度上拼接t = torch.ones((3,2))res = torch.cat([t, t], dim=0)res按行拼接,会生成一个(6,2)的张量如果dim=1就是按列拼接,生成(3,4)的张量如果是三维张量:t = torch.ones((2,3,2))res = torch.cat([t, t], dim=0)res这个时候dim=0是针对第三维的个数, dim=1,2才分别是行,列第二种方法stack在新创建的维度上拼接t原创 2020-08-01 10:02:48 · 1450 阅读 · 0 评论 -
Cousera吴恩达深度学习第二次编程作业
第二次编程作业出现在第三周,下载链接如下:https://mp.csdn.net/console/upDetailed(6月13日上传,如果看不到可能还在审核)原创 2020-06-13 11:34:09 · 298 阅读 · 0 评论 -
Cousera笔记(1):通过逻辑回归认识神经网络,含吴恩达deep learning第一次编程作业及答案
前言在cousera这个课中(需要科学上网),吴恩达通过Logistic Regression来介绍神经网络的过程,感觉比较形象,适合深度学习入门。原创 2020-04-23 20:39:25 · 323 阅读 · 0 评论