- 博客(19)
- 收藏
- 关注
原创 diffusion模型
通过增加更多的噪声来扩展自动编码器(AE)的编码空间,以覆盖更多的区域。在传统的自动编码器中,编码空间通常是离散的,由一组特定的编码点组成。然而,通过引入更多的噪声,可以使得每个输入样本的编码不再是离散的点,而是一个连续的分布,通常是接近正态分布的。因此可以加入噪声解码空间变为连续的,圆月的解码空间为5为均值的正态分布,半月就解码为7为均值的正态分布,[7]就被覆盖到了。本来解码空间是离散的比如编码到了[5]这个值解码出圆月,编码到了[10]这个值解码出半月。常见概率分布及其图像。
2024-03-28 19:17:59 299
原创 StyleGAN理解和隐变量latent space
Style mixing 的本意是去找到控制不同style的latent code的区域位置,具体做法是将两个不同的latent code z1和 z2 输入到 mappint network 中,分别得到 w1 和 w2 ,分别代表两种不同的 style,然后在 synthesis network 中随机选一个中间的交叉点,交叉点之前的部分使用 w1 ,交叉点之后的部分使用 w2 ,生成的图像应该同时具有 source A 和 source B 的特征,称为 style mixing。
2024-03-26 19:38:26 399
原创 nn.CrossEntropyLoss 输入为[n,class_num,H,W]
【代码】nn.CrossEntropyLoss 输入为[n,class_num,H,W]
2023-11-02 18:40:15 269
原创 2D numpy的蒙皮算法
自己制作一个rest_post 是等边三角形 poses 为一个直角三角形和一个钝角三角型。这副图是由等边三角形驱动生成。可以直接运行观察效果。
2023-10-28 01:12:14 115 1
原创 numpy pytorch索引
代表切(不会变维度,只会变大小[5,6]->[2,4]),数字代表选,[]:相当于多选,比选多一维罢了。numpy python 索引实在是精妙,本文记录遇到的索引逻辑比较好的代码和问题。
2023-10-27 23:16:02 43 1
原创 TPS变换实现波浪线文字效果
img图片连接:img.png https://www.aliyundrive.com/s/ggPzS39y94D 点击链接保存,或者复制本段内容,打开「阿里云盘」APP ,无需下载极速在线查看。
2023-10-26 19:53:39 79
原创 torch.permute torch.reshape
重构数据维度 data_permute=torch.permute(data,(0,2,3,1))冒昧用for循环来实现一下,源码肯定不是这么写的,理解这个函数功能就好。torch.shape:相当于把data先线性排列然后再组装。torch.permute相当于对内存排布进行调整,
2023-10-20 09:23:08 106 1
原创 pytorch nn.CrossEntropyLoss 源代码复现
nn.CrossEntropyLoss 会对x_output在1维度上进行一个softmax,因此先写一个softmax函数。源码可能不对x_target 进行one_hot,但是我进行了,帮助诸位看官理解一下就好。x_output代表模型的输出它的大小为[2,3],2代表批次,3代表维度(3分类任务)x_target代表真值,大小为[2],代表每一个批次的真实输出。最后才是交叉熵损失函数。希望可以帮助大家理解代码。
2023-10-19 17:43:21 561
原创 pytorch 环境安装
2.2不推荐conda离线下载,原因pytorch会给你新的渠道优先级高于导致离线下载的包,使得离线下载的包没用。如果有下不了的包考虑离线下载,离线下载步骤将下载不了包的网站复制到浏览器命令行下载。1.1在线直接复制pytorch官网OSX,下的命令,换成清华源配置。1.2离线安装(pip 换源之后速度较快一般用不到)2.1在线直接复制命令。
2023-10-14 19:33:28 114
原创 pytorch框架 request_grad属性 简单易懂
尽管 x1 是一个叶子节点(因为你明确地设置了 requires_grad=True),但是 y1 是一个不需要梯度的张量,即它的 requires_grad 默认为 False。当你将两个张量相加时,结果张量 z1 将不再被视为叶子节点,因为它依赖于不需要梯度的张量 y1,如果要保存记得使用retain_grad()。换言之,只有被声明的变量才会被看作叶子节点会被保留梯度。在PyTorch的自动求导(autograd)系统中,只有叶子节点才会保存梯度信息,而非叶子节点的梯度信息通常是不被保存的。
2023-10-10 09:39:09 174
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人