![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
笔记
shelly_fun
这个作者很懒,什么都没留下…
展开
-
Softmax Loss(Cross Entropy) 与 MLE
Softmax Loss等价于在负对数方向上极小化MLE。 设总体(X,Y)~P,为概率密度分布,为从总体X中抽取的样本,对应于类,我们希望在给定样本条件下,使得最大,也即此时为属于各类的概率,为真实在各类上的概率,注意,此时为one-hot编码。所以,我们求其似然函数有: ...原创 2021-10-29 10:21:23 · 335 阅读 · 0 评论 -
关于nn.Sequential()参数访问
《dive into deep learning》chapter 3.3 Concise Implementation of Linear Regression中对于简单线性回归问题用torch API编写中,一个简单的线性最小二乘回归等价于一个全连接网络,在其中关于网络模型构件中使用的是:trainer = torch.optim.SGD(net.parameters(), lr=0.03)其中优化器的第一个输入是net.parameters(),此时查看已创建的net有Input:net原创 2021-10-27 15:30:36 · 3900 阅读 · 0 评论 -
tensor类型对应以及转换
pytorch中有torch.float32等的数据类型,主要的对应关系及转化有:short————————torch.int16转化:tensor.short()或tensor.type(torch.int16)int—————————torch.int32转化:tensor.int()或tensor.type(torch.int32)long————————torch.int64转化:tensor.long()或tensor.type(torch.int64)float————————to原创 2021-10-21 14:46:17 · 3686 阅读 · 0 评论 -
torch.cat/stack,np.concatenate/stack区分
torch.stack与np.concatenate均是在已有的基础上创建一个新的维度,因此要求提供的矩阵/张量具有相同的维度。torch.cat与np.stack则都是在已有的行列上进行拼接,必须保证需要拼接的方向具有相同的大小。...原创 2021-10-19 10:21:49 · 942 阅读 · 0 评论 -
图像处理对数变换以及对数变换的拉伸
这篇仅当作随手小记,可能不对,请各位及时指正。在学习图像处理的基本知识的时候,我们常常能听到诸如由于对数本身上凸的性质,它可以把低灰度(较暗)部分的亮度提高。由对数函数的性质,确实能将暗部提高,亮部压缩。但是凡事都有限度的。诸如一个前100行为0.0001,102行为0.00000000001,102到200行为0.0002,300到400行为10等,也即是HDR图像的标配,此时常规的对数变换还是无法得到良好的对比度的,原因在于log(1+0.00005)=4.999e-5,而log(20+1)=3原创 2021-10-11 21:27:39 · 1738 阅读 · 0 评论 -
Numpy中图像数据的储存与Tensor转化
在写网络时,常常要自己导入数据和预处理,其中很关键的一点就是要将Numpy数据转化到torch.tensor,这里就牵扯到一个问题,在Np.array中,一张RGB图像的储存是按照[H,W,C]进行存储的,而在Torch中,图像是按照[C,H,W]进行存储,而且在进行torchvision.transforms.ToTensor中会自动将文件转存为[C,H,W], 我的疑问是:1.Numpy中数据是如何储存又该如何去读? 2. ToTensor操作后的数据和在Numpy中自行reshape为...原创 2021-09-26 16:51:08 · 526 阅读 · 0 评论 -
直方图均衡与直方图匹配的实现过程
直方图均衡没什么说的,唯一要强调的一点是直方图匹配是以直方图均衡为桥梁的,直方图均衡将不同分布统一映为uniform原创 2021-09-07 09:48:17 · 97 阅读 · 0 评论