自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(37)
  • 收藏
  • 关注

原创 Glow模型【图解版加代码】

论文:Glow: Generative Flow with Invertible 1x1 Convolutions正版是TensorFlow版本 openai的需要先看一下b站的Flow的讲解P59。

2024-06-02 16:17:47 860 2

原创 zlib.compress()的用法

1 (Z_BEST_SPEED)是最快的,产生的压缩最少,9 (Z_BEST_COMPRESSION)是最慢的,产生的压缩最多。0 (Z_NO_COMPRESSION)表示没有压缩。默认值是-1 (Z_DEFAULT_COMPRESSION)。Z_DEFAULT_COMPRESSION表示速度和压缩之间的默认妥协(目前相当于级别6)。如果发生任何错误,则引发error异常。其中参数data为要压缩的字节,压缩data中的字节,返回一个bytes对象。为zlib库中的一个函数,用于实现字节的压缩。

2023-10-17 18:54:59 552

原创 QIM以及DC-QIM解读

图中为最接近x的点“x”。随着信号x的变化,s从一个点“x”(m=1)到另一个点“x”或者从一个点“o”(m=2)到另一个点“o”,但是不可能会在“x”和“o”之间变化。m)函数集合,如果集合中的函数“挨得太近”,就无法仅仅依据s来确定m,即使没有信道干扰,也无法进行正确解码。例如,m为1或者2,因此,我们需要两个量化器,x-量化器和o-量化器,图中为量化后的点分别用用“x”和“o”表示,QIM的想法是 依据m来构造索引量化器(不连续的)来量化x得到信号s,使得能够仅仅从s解码出m,从而实现嵌入。

2023-10-12 12:40:44 745

原创 JPEG压缩过程原理

先将图像从RGB空间映射到YUV空间下采样UV,有损压缩进行DCT变换,得到DCT系数通过量化表留低频去高频进一步编码压缩有什么不对的还望指正!

2023-10-11 15:25:04 1263

原创 Win安装pytorch==1.0.0 pip conda 都失败

出错:'Adam' object has no attribute 'defaults'官网链接从里面直接找对应版本(

2023-10-08 20:24:35 164

原创 《信息论与编码》曹雪虹

分组码(块码):每个符号序列Xi按照固定的码表映射一个码字Yi。例如:码1,2,3,4定长码与不定长码:例子都为不定长非奇异码:信源符号和码字是一一对应的。例如,码234;反之,为奇异码。例如,码1唯一可译码:码元序列被唯一分割。例如{0,10,11},码34显然,奇异码不是唯一可译码,非奇异码中有非唯一可译码,也有唯一可译码。唯一可译码又分为非即时码、即时码(异前缀码):可以不可以即时译码。例如码3、4分别对应。码树:用来表示码字的构成。r进码树,n级节点有r^n个。

2023-10-04 21:46:33 1505 1

原创 BatchNorm2d()参数及用法

-track_running_stats(bool,默认值:"True"):当设置为"True"时,该模块跟踪运行平均值和偏差,当设置为" False "时,该模块不跟踪此类统计,并将统计缓冲区:otr: 'running_meon'和:attr: 'running_vor'初始化为"None"当这些缓冲区为"None"时,该模块始终使用批量统计。--monentun(默认值:0.1):动量参数,用于running_mean and running_var计算的值,可以设置为None,简单的平均值。

2023-09-30 14:44:50 731

原创 Conv2d()的参数及用法

-padding_mode(str,可选, 默认值:'zeros'):``'zeros'``, ``'reflect'``, ``'replicate'`` or ``'circular'``.--padding (int, tuple或str,可选,默认:0):填充到'输入'的所有四个边(一圈)。--dilation (int或tuple,可选,默认值:1):内核元素之间的间距,即卷积核的膨胀率。--bias (bool,可选,默认值:true):如果为“True”,则在输出中添加可学习的偏差。

2023-09-30 14:09:01 1196

原创 Generative Steganography via Auto-Generation ofSemantic Object Contours【文章学习】

引言部分不赘述,这篇主要关注怎么实现的。

2023-09-28 17:06:00 140

原创 Linear()参数以及用法

-bias【默认true】:如果设置为“False”,层将不会学习加性偏差b。--out_features:每个输出样本的大小。--in_features:每个输入样本的大小。--weight:线性权重 形状为。,U分布为标准正态分布,其中,--bias:b的形状为。

2023-09-26 22:06:47 1007

原创 DataLoader()的参数及用法

默认None】:如果不是' ' None ' ',则RandomSampler将使用此RNG来生成随机索引和多处理以为worker生成' base_seed '。,默认None】 :如果不是None,将在每个worker子进程上以worker ID作为输入,在seeding之后,在data loader之前。,默认false】:如果为true,则如果数据中最后一个batch不完整则丢弃。,默认0】:如果为正,则从worker收集一个batch的超时值,应该为非负。,默认0】:要是用多少子进程来加载数据。

2023-09-26 20:05:08 1341

原创 python __all__的作用

【代码】python __all__的作用。

2023-09-26 12:10:27 32

原创 DA-CS代码解读(1)

好文不应该被埋没,应该被更多的人所熟知!转载:https://blog.csdn.net/zyh19980527/article/details/107206483/相信大家在很多场合特别是写神经网络的代码的时候都看到过下面的这种代码:import torchimport torch.nn as nnimport torch.nn.functional as Fclass Net(nn.Module): def __init__(self): super(Net_super( ,self)__init。

2023-09-25 18:09:53 96

原创 构造式隐写文章学习

秘密信息--生成轮廓(解耦特征)--构造图像:基于图像轮廓线自动生成的图像生成式隐写框架。此篇文章也有一篇母版前人工作:自适应图像隐写:基于生成对抗网络GAN的失真函数学习框架【10】。但是残留的修改痕迹很容易被Rich Model【13】以及XuNet【14】等隐写分析工具成功检测。为了提高隐写的安全性,提出了构造式隐写的全新思路【15-16】,以隐写信息为驱动直接构造出一幅全新的图像(含密):基于纹理、指纹,但是不常见,我们更加追求真实自然的图像。

2023-09-18 18:15:58 125

原创 第一章 最优化简介

最优化计算方法。

2023-09-17 21:46:57 132

原创 DeepLearning-EnabledSemanticCommunicationSystems WithTask-UnawareTransmitterandDynamicData【文章学习】

语义通信的目的是 “达意”来提高通信效率,关注数据的含义。特定任务:2019年,Bourtsoulatze等[10]提出了一种用于无线图像传输的联合信源信道编码方案。该方案利用卷积神经网络提取语义特征并直接编码为信道输入符号,与JPEG和JPEG2000相比更适应低信噪比(SNR, Signal-to-Noise Ratio)场景,而且不会受到“悬崖效应”的影响。广义任务:在文献[16]中,Zhang等考虑了这一点,然后设计了一种用于图像传输的语义通信方案。

2023-09-14 21:42:35 270

原创 Cover-Lossless Robust Watermarking【文章学习】

无损鲁棒水印---在无攻击的条件下恢复原始的图像(再也不用担心加水印而丢失图像了!

2023-09-11 18:47:25 242 2

原创 LSB(最低有效位隐写)方法以及python实现

来源为微信公众号 隐者联盟 的中的一篇极简综述01.JPEG早期的隐写基本来源为LSB(最低有效位)方法?

2023-09-04 19:41:46 1208

原创 基于重构损失的方法——自编码器

自编码器就是——将输入映射到某个特征空间,再从这个特征空间映射回输入空间进行重构。最简单的自编码器由三层组成:1个输入层、1个隐藏层、1个输出层。表示学习方法有两种典型的,一个是基于重构损失的方法,另一个是基于对比损失的方法。基于重构损失的方法——自编码器。

2022-12-21 16:05:59 4302

原创 表示学习(就是特征)

如,AlexNet,它以原始图像作为输入,而不是特征工程得到的特征,输出直接是预测的类型,这种学习方式称为端到端学习(end-to-end learning)。也就是低层的提取低层次的特征,而高层的提取高层次的与任务相关的特征。一个好的表示首先要尽可能的包含更多数据的本质信息,并且这个表示能直接服务于后续的具体任务。可以基于深度学习的这个特征进行迁移学习,迁移学习是指将已经学过的知识迁移到到新的问题上,最典型的应用就是调参。浅粉色:(255,192,203)深粉色:(255,20,147)

2022-11-21 12:26:52 458

原创 几种典型的图像分类框架【VGG、Inception、ResNet】

首次使用了并行的结构,使用多个大小不同的卷积核,可以提取到不同类型的特征,可以获得多尺度的特征,最后再将这些特征拼接起来。其中a就是V2中提到的,而b是用一个1xn和一个nx1的卷积代替nxn的卷积,这种方式是一种横纵方向上的信息解耦,分两次而不是一次性提取特征。在训练集以及测试集上,56层的网络比20层的网络效果更差,不是过拟合导致的,而是由于优化困难,这种问题称为,模型退化问题。V2是针对V1的基础上又进行了改进,将大尺寸的卷积进行分解,减少参数,降低计算复杂度。具体(将5x5用两个3x3代替)

2022-11-18 16:30:17 2084

原创 特殊的卷积形式

转置卷积,假设输入为2x2,卷积核大小为3x3,转置卷积相当于自动补充了padding=2,然后再进行标准卷积,输出为4x4,。转置卷积可以设置padding和stride,如果设置了p,那么填充的0为k-1-p层,如果设置了s,那么就在卷积元素之间插入s-1个0。相比较于标准卷积,减少了参数量,因为只有一个卷积了,以及降低了计算量,提高了运算效率。卷积核大小为1x1;(C1/g=1) 卷积,这个时候,进行卷积,通道之间的信息是没有融合的,卷积过后想要融合,就要加上一个1x1的卷积来增加通道间的信息。

2022-11-18 11:02:32 359

原创 卷积神经网络

全连接层,将卷积的输出。

2022-11-17 11:40:48 1050

原创 卷积与池化--初步理解

卷积”来源于信号处理领域。在图像处理中的卷积:先将卷积核先转180度,然后在输入中的对应位置取出一个大小为卷积核大小的区域,然后与旋转后的卷积求内积,得到对应位置的输出。这里用到了两个例子,一个是一阶算子Sobel以及二阶算子Laplacian。不同的卷积可以提取到不一样的特征。

2022-11-16 11:56:24 1205 1

原创 训练神经网络

神经网络的运行分为:前向传播、反向传播、参数更新:前向传播:给定参数后,直接进行计算,输出预测结果;反向传播:基于上一步的预测结果,计算损失函数值,然后计算相关参数的梯度;参数更新:使用上一步计算得到的梯度进行更新,重复上述过程,直到收敛。

2022-11-15 20:27:58 245

原创 激活函数的简单认识

激活函数,神经网络中的非线性变换,它可以使得神经网络几乎可以任意逼近任何非线性函数。如果没有激活函数,只剩下线性变换,那么,无论叠加多少层,神经网络还是一个线性变换模型。

2022-11-14 19:51:45 183

原创 神经网络的初步认识

也称为前反馈神经网络,也包括三个部分:输入层,隐藏层、输出层,其中隐藏层可以单层或者多层。其中f1的结果是隐藏层的输出,隐层的输出同单层一样,就是对输入进行线性变换和非线性变换后得到的。l表示层数,W,b都是可训练的。MLP逐层传递消息,得到输出,整个网咯可以看做是一个复杂的复合函数,其中参数为W,b。其中,输入和输出的神经元的个数往往是确定的,而隐藏层中的神经元个数以及使用的层数都是超参数。其中,xj是输入信号,wij是权重,zi是线性组合的结果,b是偏置,激活函数是σ(),最后σi是输出信号。

2022-11-14 19:15:24 289

原创 梯度下降法

原理(这里写的超级简单,本来也是一个简单的理解):目标:优化损失函数,最小化损失函数。方法:利用梯度信息来寻找合适解。而这个梯度是一个周围的局部信息,而这个梯度是小于0的时候,沿着这个梯度的方向走,就可以使这个函数值变小。如果我们需要优化的参数是x的话,那么我们更新这个参数,改变量为:其中,△x是>0的,而α是大于0的,是一个超参数,用于调整每一次更新的步长,称为学习率。过程:1.先给参数赋予初始值,作为优化的起点;2.计算损失函数值;3.求导,确定梯度;

2022-11-14 17:31:26 150

原创 交叉熵损失(cross entropy)

其中,p,q分别表示数据标签的真实分布和预测出的分布,也就是p(yi|xi)表示样本xi的真实分布。具体一点,样本xi是属于某个类别ck,那么,p(yi=ci|xi)=1,其他都为0.类比,q(y^i|xi)表示样本xi在各个类别上的概率分布,此时,预测的概率处于【0,1】之间,当然y^i跑遍所有类别后,和为1.yi属于{0,1},那么样本xi属于类别1的概率为:q(yi=1|xi),样本xi属于0的概率为:1-q(yi=1|xi)这样,本质上就变成了,

2022-11-14 14:40:47 1003

原创 pytorch随机种子

随机种子对于结果影响较大。在代码中固定了随机种子,固定随机种子主要用于调整超参数、改进模型结构、优化算法:为什么使用相同的网络结构,跑出来的效果完全不同,用的学习率,迭代次数,batch size 都是一样?

2022-11-11 14:20:48 3027

原创 Jupyter notebook 上无法使用argparse.parse_args()

别看长,其实就三步,导入包,定义参数,运行,具体 argparse的介绍,请看别人的。只需要在 parser.parse_args()中加入args=[]参数就可以了!具体原理传参数问题!

2022-11-11 11:32:07 456 1

原创 文件和用户管理(补)【Linux】

vim 未正常关闭,系统给你保存的临时文件 /.1.txt.swap 需要删除 才可以进行正常的编辑 但是我们在终端正常 ls 显示不出来被隐藏起来了。../ 表示上一个路径 touch ../../../1.txt 在上三级创建一个文件。:1,5 s/22/66/g (替换 将1到5行中的所有22替换为66。:set nonu (取消显示行号)相对路径 (./或者不打)我一般都选择不打 比较方便。:q (直接退出,跳出提示):set nu (显示行号):w 路径(另存为)...

2022-08-16 10:30:11 146

转载 配色【PPT】

其中明度就是在原本的色相上加上白色或者黑色,饱和度就是在色相的基础上加上灰色。色相环则是选择辅助色来丰富画面、衬托主色。方法1:主色+色相环 其中主色主要从LOGO色、行业色、产品色出发。1.优秀的配色往往是多色系的,专业来说就是主色、辅助色、强调色构成。色相环选择方式很多:邻近色、类似色、对比色、互补色等。2.配色注重情绪性(由颜色的色调,色相、冷暖决定)色彩三要素改变画面的气质(色相、明度、饱和度)1.配色注重规律性:色相环确立色彩搭配的规律。分别对应确定基调、丰富画面、区分强调的功能。......

2022-08-11 19:38:18 192

原创 文件和用户管理以及上一篇的问题【Linux】

文件管理命令

2022-08-11 15:36:03 310 1

原创 走进linux【Linux】

包含liunx虚拟机的安装

2022-07-25 20:33:02 416

原创 In silico saturation mutagenesis of cancer genes 解读

摘要尽管已经存在癌症基因目录(The COSMIC Cancer Gene Census、IntOGen),但是识别驱动基因的特定突变还是一个问题。文章提出了测试突变在个体和组织中复刻的致癌能力,来解决癌症基因突变是否致癌的问题。引言肿瘤遵循达尔文进化论,是体细胞变异和选择之间相互作用的结果。但是,在肿瘤中观察到大约90%的癌症基因突变对恶性肿瘤的发展具有未知的意义。确定突变与细胞转化的相关性是关键。然而,由于每种癌症基因和组织的肿瘤发生的分子机制不同,需要特定的模型来描述定义驱动突变的特征

2021-09-04 21:39:41 1858 2

原创 假设检验学习【合集】(一)

为什么要假设检验?为了推断某些总体未知的特性,提出某些关于总体的假设。(条件:总体的分布未知或者只知其形式)并根据样本对所提出的假设作出是接受还是拒绝的决策。经典例题【测量净重来检测机器知否有故障】产品的净重是一个随机变量,它服从正态分布(只知总体的分布形式);当机器正常,产品均值为0.5kg,标准差为0.015kg。某日,我们想知道机器是否正常?随机抽取9个产品,净重分别为(0.497 0.506 0.518 0.524 0.498 0.511 0.520 .0515 0.512)我们单纯的

2021-07-06 11:44:19 367

LSB python实现 UI

不是很完美,但能运行,(选择图片可以不点)先选择嵌入信息,后提取!!!

2023-09-04

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除