自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 【轩说Java】JavaSE知识点难点汇总

装箱:将基本数据类型转换为包装类类型拆箱:将包装类类型转换为基本数据类型Java1.5 之前//手动装箱 int b = a . intValue();//手动拆箱Java1.5 之后//自动装箱 int b = a;//自动拆箱自定义的注解需要配合后续的信息处理流程(使用反射)才有意义。框架 = 注解+反射+设计模式通过反射可以获得注解信息注解只有成员变量,没有方法。注解的成员变量在注解的定义中以“无形参的方法”形式来声明,

2023-03-21 10:47:38 450

原创 【轩说Pytorch】朴素GAN 代码实战(2gpu数据并行+tqdm可视化)

最朴素的GAN。D_optim = torch . optim . Adam(D . parameters() , lr = 0.0002) G_optim = torch . optim . Adam(G . parameters() , lr = 0.0002) criterion = nn . BCELoss() #二元交叉熵损失函数 batch_size = args . batchsizek = 1。

2023-03-06 19:41:16 658

原创 【轩说Pytorch】用GPU训练模型

这里显然,我们的模型和数据都是在cuda:0上的,但是数据并行是在2卡和3卡上的,且要求里必须在并行计算前,模型和数据是放在device_ids[0]=“cuda:2"上的。,即device_ids[0]等于0,也就是逻辑上的第0张GPU,物理上对应的就是第2号卡,device_ids[1]等于1,逻辑上对应的是第1张卡,物理上对应的就是第3号卡。当你添加前两行代码后,那么device_ids[0]默认的就是第2号卡,你的模型也会初始化在第2号卡上了,而不会占用第0号卡了。module即表示你定义的模型;

2023-03-06 15:44:37 1113

原创 【轩说Pytorch】卷积神经网络项目 动物识别系统 图片分类系统(附源码)

加载已经训练好的模型参数,并调用test来测试图片分类结果。随机给照片,让其分类,把照片放入demo/input中,我们从demo/output/result.csv中输出对应照片的分类结果。.在pytorch的optim优化器中,可以传入权重衰减的权重,配置文件里给到了0.00001,可见,虽然进行权重衰减,但是不宜太过。通过遍历数据集来检测并删除错误的数据(有可能看起来是正常的图片,但是读到网络里就会有异常抛出)–dirs 返回的是一个列表list,是该文件夹中所有的目录的名称(但不包括子目录名称)

2023-03-04 21:59:08 1342

原创 【轩说Pytorch】逻辑回归

构建模型,本例不用卷积,将图片视为28*28=784维度向量,放入神经网络中运算.nn.Flatten会将tensor第一维度不动,后面全部拉平:(batchsize,channel,w,h)->(batchsize,-1)预测分布和真实概率的差异可以看作是“损失函数值”,通常用“交叉熵”来做。但如果loss=nn.CrossEntropyLoss(reduction=None),则不会最终求均值,返回的是。比如图片分类、恶意软件分类、文字分类问题。写出y值和图片类别的对应函数,用于最后测试。

2023-03-02 20:51:20 90

原创 【轩说Pytorch】线性回归

笔者在学习过程中,总结了一些不成熟的经验。高等数学线性代数概率论与数理统计吴恩达深度学习课程前置内容指的是,系统学习过,可能会遗忘,但是大体上不对后续造成影响,一旦需要深挖理论,随时回去看视频课来补充一遍。

2023-03-02 12:11:03 63

原创 【轩说AI】基于GAN模型的异常检测

但如果换了AE,也不好,VAE起码对没见过的图片能够重构,虽然“没有修复”,但是AE的隐空间有很大的空缺部分,连重构都做不到,会非常模糊。目的在于:原本的Z的各个维度的取值对X的影响是不确定的,而加上classifier后,Generator不仅要保证X尽可能符合Pdata,而且需要从X中提取出信息“C”,也就是c必须对x的取值有着明确的influence,并且是每个维度都需要有influence,比如c[0]代表显示内容,c[1]表示角度,c[2]表示明暗,等等。(最佳修补指的是,仅对异常部分进行修复)

2023-02-28 11:12:06 2271

原创 【轩说AI】转置卷积

可见由于卷积的性质,有“下取整”的存在,会导致多个n1对应到同一个n0,这也就说明,当我们做转置卷积时,由n0计算得到的n1是所有【经过卷积得到n0的n1中,最小的那个(也就是能整除的那个)】。这里的output-padding不乘2,是为了“细致修改”,如果乘2,那就每次加偶数个填充了,依然会有取不到的n1值。计算机可以用计算“卷积”的方式来计算“转置卷积”,假设s为步长,p为单侧padding长度,k为kernel边长。卷积不会增大输入的高和宽,通常要么不变,要么减半。

2023-02-27 13:05:36 100

原创 【轩说AI】自监督学习 + BERT

监督学习的部分则作为网络的下游,将Bert的输出作为Linear层的输入,再输出得到分类结果class,与真实的词性label求loss,做参数优化。如图将[cls]+qestion+[sep]+document输入BERT,然后随机初始化两个和bert输出的vector同维度的vector,如图红色和蓝色的vector,然后做类似attention的Q*K的操作,将得到的一组和document同等长度的inner product值过softmax,红色向量求出s的值,蓝色向量求出e的值。

2023-02-27 13:01:55 536

原创 【轩说AI】贝叶斯统计+概率图模型

MAP是只需要求出P(θ|X)取得最大值时θ的值(众数),而标准的贝叶斯估计需要完整的求出后验概率P(θ|X)的函数表达式。P(A|B)警报响了是因为车被砸了的概率=P(A)车被砸了的概率×P(B|A)车被砸了时警报会响的概率÷P(B)警报响了的概率。MAP和MSE的不同在于,MAP考虑了先验概率的作用,θ的取值不仅需要让“似然函数”,θ本身的概率也要高。我们要估计的是在已知实验结果情况下,概率模型参数的取值,也就是我们需要求出使P(θ|X)最大的θ的值。在已知𝑋2 和𝑋3 时,𝑋4 也和𝑋1 独立。

2023-02-27 11:13:31 352

原创 【轩说AI】生成模型(2)—— GAN生成对抗网络 + WGAN + Conditional GAN + Cycle GAN

根据《从概率分布的角度去理解“生成”一张图片》可知,我们想要生成一张图片,就是要想办法生成一个分布函数P(X),让他尽可能的拟合真实世界中的分布。神经网络NN,即使一个function。对于线性回归问题, 拟合出一条直线,通过样本的feature和label去优化这个Neural Network中的参数,最终使得:输入一个新的(testing&validation)的X(feature),能够输出一个“预测”的Y,并且这个Y要尽可能的“合理”,即从样本中归纳出的经验要能够成功的指导当网络遇见没见过的输入时,

2023-02-27 10:47:40 464

原创 【轩说AI】生成模型(1)——自编码器AE+变分自编码器VAE

不同于AE的Encoder只产生一个vector,VAE的Encoder产生一个两倍dimension的vector,并将前1/2看做产生的分布的“均值”,后1/2看做产生的分布的“方差的以e为底的对数”。在上面图片中,我们在code(隐空间)中取出一个介于满月和圆月的code-x,然后想要送入decoder,可惜,这个decoder并不能把它映射为一个比较”合理“的”3/4月亮“,同时,在Gaussian Mixture后的P(X)中,我们在3/4月亮对应的分布处的概率密度也是几乎为0。

2023-02-27 10:07:43 855

原创 【轩说AI】无监督特征学习——主成分分析、稀疏编码、自编码器

主成分分析(Principal Component Analysis,PCA)是一种最常用的数据降维方法,使得在转换后的空间中数据的方差最大。将高维度的数据降维到低维度。比如一张32*32的图片,每一个pixel都是一个随机变量,那这张图就是1024维度的随机向量,每个像素都有自己的分布,我们想找寻这张图的联合分布f(x1,x2,x3…,x1024)并不容易,这些随机变量间也是具有冗余性的。“维度灾难”

2023-02-24 22:42:25 470 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除