自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

滢滢码仔

人生在世,俯仰之间,唯有追求卓越,求尽所能。

  • 博客(15)
  • 收藏
  • 关注

原创 行人重识别数据集生成算法

如果横过来看,每一行,使用的是相同的appearance code,我们使用老师-学生模型Lprim来挖掘相似的外表信息。而看每一列,虽然人换了不同的衣服,我们仍旧可以从中挖掘一些细粒度的信息如身材等,即Lfine。生成器,首先我们定义一个3D网络中的一个2D平面作为原始的基础平面Sori,我们分别旋转3d网络,并且继续随机选择一个二维投影作为一个新的平面Snew。一种为外表特征,一种为结构特征。生成不同颜色与纹理的行人图像数据,同时将其与行人重识别模型融合,同时提升行人生成的质量和行人重识别的精度。

2024-04-25 17:06:39 242

原创 【宝塔+Typecho+Cuteen搭建博客】建了个博客耶

1.以阿里云为例,登录阿里云后台,选择云服务器ECS 2.选择网络与安全中的安全组 3.选择配置规则 4.点击快速创建规则 5.填写规则信息 端口填 8888/8888,不要只填8888,会报错的,我就是犯了这个错误。Nginx 是一款高性能的 HTTP 网页服务器和反向代理服务器,它的执行效率极高,配置相比 Apache 也较为简单,所以在短时间内被国内外很多大型公司所采用,大有取代 Apache 的势头(目前还是以 Apache 为主流的)。

2024-01-26 17:23:55 920 2

原创 HuggingFace中Transformers库

自回归就是预测下一个词,自编码就是还原出本身,seq2seq比如机器翻译摘要等从一个文本序列到另一个。我是CV领域的,但最近在做多模态,感觉必须了解一下NLP领域啊,推荐B站学习视频。HuggingFace中提供了很多的NLP的。用户可以按照自身任务需求从下载部署模型。

2024-01-22 22:21:42 389

原创 LIMoE:稀疏化专家混合模型(Sparse Mixture-of-Experts Models)

它们在模型内部设置了很多“专家”,每个“专家”只需处理对应部分的输入,根据任务情况按需使用“专家”就好,但也不是完全割裂开来,模型内部仍有可共享的部分。这里的“专家”,也就是模型内部的不同子模型。缺点:任务太多时不如针对每个任务训练一个模型,又或者随着新任务的增加而导致模型对之前任务的作用效果变差,从而表现出灾难性遗忘现象。不是对每个输入都使用模型的每个部分进行处理,而是采用条件计算学习将输入路由到巨大网络中的不同“专家”处。优点:“专家”在专注于不同的任务或数据类型时,仍然可以使用模型的共享部分。

2024-01-22 16:12:55 497

原创 扩散模型Diffusion Model

扩散模型的灵感来自于非平衡热力学。他们定义了一个扩散步骤的马尔可夫链,慢慢地向数据中添加随机噪声,然后学习反向扩散过程,从噪声中构建所需的数据样本。与VAE或流动模型不同,扩散模型的学习过程是固定的,潜在变量具有高维性(与原始数据相同)。

2023-03-03 16:11:32 605

原创 Kaggle 上传数据集报错 maximum number of processes (1000) 上传数据集文件数超出1000

Kaggle 上传数据集报错 maximum number of processes (1000) 上传数据集文件数超出1000;若还是报错,说上传出错,可能是本天多次上传被限

2022-11-12 10:41:41 1169

原创 AutoGluon

模型自动调参

2022-10-13 21:38:59 459

原创 FID和LPIPS

FID和LPIPS的代码、实现、计算方式

2022-09-15 18:22:07 1231

原创 【深度学习中常出现的参数与术语】

batchsize:一批的大小。即每一次训练在训练集中取batchsize个样本训练;iteration:1个iteration等于使用batchsize个样本训练一次;epoch:1个epoch等于使用训练集中的全部样本训练一次;-----------------------------------------增大batchsize的好处有三点:内存的利用率提高了,大矩阵乘法的并行化效率提高。 跑完一次epoch(全数据集)所需迭代次数减少,对于相同的数据量的处理速度进一步加快。.

2022-05-06 16:10:52 1592

转载 【cycleGAN代码学习笔记】

cycleGAN是一种由Generative Adversarial Networks发展而来的一种无监督机器学习,是在pix2pix的基础上发展起来的,主要应用于非配对图片的图像生成和转换,可以实现风格的转换,比如把照片转换为油画风格,或者把照片的橘子转换为苹果、马与斑马之间的转换等。因为不需要成对的数据集就能够转换,所以在数据准备上会简单很多,十分具有应用前景。

2022-05-06 15:58:19 837

原创 【Unsupervised Image-to-Image Translation with Generative Prior 生成性先验引导的无监督的图像转换 (GPUNIT) 】 阅读笔记

尽管图像转换有了发展,但要实现巨大的视觉差异还是较为困难。本文提出一个新框架,可以用先验引导的无监督的图像转换。Generative Prior guided UNsupervised Image-to-image Translation (GPUNIT)。实现提升图像转换算法的质量与适用性。...

2022-05-06 11:34:43 3068

原创 【GAN实战项目:DCGAN in Tensorflow生成动漫人物头像】代码学习

DCGAN in Tensorflow生成动漫人物头像,DCGAN的原理和GAN是一样的,只是把G和D换成了两个卷积神经网络(CNN)。但不是直接换就可以了,DCGAN对卷积神经网络的结构做了一些改变,以提高样本的质量和收敛的速度。对DCGAN in Tensorflow生成动漫人物头像的代码中出现的问题进行修改。

2022-05-02 22:58:55 3477 1

原创 【Image Processing Using Multi-Code GAN Prior 多码先验GAN】学习笔记

为了恢复目标图像而寻找合适的噪音空间z,image->z;使用给定做逆映射的GAN模型,将噪声z生成多个特征图(映射到生成器G中的某个中间层);计算生成的多个特征图的重要系数,并组合生成目标图像

2022-04-28 01:09:31 2519

原创 【Large Scale Adversarial Representation Learning 大规模对抗学习(BigGAN) 】学习笔记

BigGAN 在 SAGAN 的基础上架构模型,同样采用 Hinge Loss、BatchNorm 和 Spectral Norm 和一些其它技巧。新思路: Batch size 的增大、“截断技巧”和模型稳定性的控制。

2022-04-27 19:00:01 617

原创 【Generative Adversarial Nets 生成对抗网络(GAN) 】学习笔记

生成模型(造假者):抓住整个数据的分布,对分布进行建模;尽量使得数据分布靠近,尽量使辨别模型犯错。一个多层神经网络MLP,输入随机的噪音,MLP把产生噪音的分布(常为一个高斯分布)映射到想要去拟合的目标分布。辨别模型(警察):判别模型是真实数据还是生成数据也为一个多层神经网络MLP。最后目标:生成模型生成的数据让判别模型无法分出真假,生成真实一样的数据...

2022-04-26 00:16:01 3006 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除