![](https://img-blog.csdnimg.cn/9e9468e525154fdd9cc0314f83f79c34.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
AI文章阅读与复现
文章平均质量分 94
一些CV、NLP、语音以及其他相关领域AI文章阅读的笔记,持续更新。这个系列的质量应该挺高的,喜欢的盆友可以关注一波,持续白嫖 -_-...
留小星
持续更新 CV、NLP、语音、地震学领域深度学习相关阅读和学习笔记、手动实现各类深度学习网络结构(CNN、Transformer、GAN、DDPM、LLM)
展开
-
DIP: NAS(Neural Architecture Search)论文阅读与总结(双份快乐)
NAS-DIP就是用了一个RNN controller 强化学习模块搜索最合适的DIP网络架构:提供的两个网络模块搜索空间是Upsampling方法和大小Upsampling 分解和权重共享总结网络结构对传统DIP的效果有影响,搜索一个合适的网络结构可能对网络效果有很大的影响定性分析上采样结构、skip connection结构对DIP的影响很大,设置了搜索空间(包括upsampling方法、结构和skip connection结构等)提出了一种基于强化学习的网络结构搜索方法问题。原创 2023-08-12 09:31:46 · 1423 阅读 · 1 评论 -
DIP:《Denoising and Regularization via exploiting the structural Bias of Convolutional 》经典文献阅读总结与实现
重复一下贡献分析提出:Convolution Generator(无参数数量限制的Deep Decoder)能够解决逆问题的核心原因在于有固定的卷积核,bilinear upsampling可以看作是固定核的卷积利用NTK理论计算得到了网络去噪效果的上界,并通过上界公式中的迭代次数证明了过参数化网络可以通过 early stopping方法去噪NTK:描述无限宽深度神经网络在梯度下降训练过程中演化的核利用NTK理论证明了一个 双层convolution generator。原创 2023-08-11 13:02:24 · 239 阅读 · 0 评论 -
DIP:《Deep Decoder: Concise Image Representation from Untrained Non-convolut》文献阅读与总结
ICLR 2019工作 Deep Decoder只使用Encoder-Decoder结构中的Decoder进行探索对DIP的影响,分析了DIP结构对高频噪声的屏蔽效果,同时分析了使用欠参数网络模型对图片进行构造是可行的,一定程度上可以解决DIP训练效率低的问题。同时欠参数化的模型对于early stopping的需求没有那么强了,可以一定程度上解决DIP固有的这个问题。原创 2023-08-10 14:10:54 · 311 阅读 · 0 评论 -
DIP:《Deep Image Prior》经典文献阅读总结与实现
Deep Image Prior经典文献,利用CNN/网络的低频响应特征恢复信号过滤噪声。这种单张图片无监督方法去噪,脱离了海量数据需求,适应于那种稀有数据去噪、恢复、超分辨率等等类型的工作。除此之外这种方法为图像处理提出了新的解决思路(反演)。原创 2023-08-09 23:18:23 · 2127 阅读 · 1 评论 -
自监督去噪:Blind2Unblind原理分析与总结
CVPR 2022 Blind2UnBlind 自监督去噪文件原理分析与总结,基于Noise2Void,Noise2Self等方法提出的盲点网络方法,提出了循环损失函数和正则化方法,解决了盲点本身带来的信息丢失等问题。原创 2023-08-07 11:25:03 · 971 阅读 · 2 评论 -
自监督去噪:Recorrupted-to-Recorrupted原理分析与总结
Recorrupted-to-recorrupted 子监督去噪方法原理推导,这种方法基于单张含噪图片进行采样,在已知噪声模式的条件下可获得相对较好的去噪效果。提供了一种用于去噪的思路。原创 2023-08-06 10:35:52 · 990 阅读 · 0 评论 -
自监督去噪:Neighbor2Neighbor原理分析与总结
Neighbor2Neighbor: 基于Noise2Noise自监督方法加入额外的正则化,从单张图片中采样噪声对进行训练。原创 2023-08-05 13:29:54 · 1105 阅读 · 0 评论 -
自监督去噪:Noise2Self原理分析及实现 (Pytorch)
Noise2Self文章原理理解和代码解读,提供了一种盲点网络的思路用于无监督去噪原创 2023-08-04 15:00:27 · 2663 阅读 · 0 评论 -
自监督去噪:self2self 原理及实现(Pytorch)
自监督去噪算法,self2self的原理及实现原创 2023-07-29 17:49:55 · 2461 阅读 · 0 评论 -
自监督去噪:Noiser2Noise原理分析
基于Noise2Noise,使用从单张噪声图片中采样的方法获取噪声对进行深度学习去噪原创 2023-08-03 09:23:06 · 2508 阅读 · 0 评论 -
自监督去噪:Noise2Void原理和调用(Tensorflow)
Noise2Void 原理推导,调用Tensorflow官方代码进行测试原创 2023-08-02 11:38:09 · 2672 阅读 · 3 评论 -
自监督去噪:Noise2Noise原理及实现(Pytorch)
noise2noise 不需要干净训练样本的去噪方法,原理解析及 pytorch实现原创 2023-07-30 19:45:30 · 4695 阅读 · 2 评论 -
文章阅读总结:视频理解论文串讲(Li Mu+ Yi zhu)
根据B站Li Mu 和YI Zhu 大神的文章阅读精讲所作的笔记,同时包含有一些个人的理解。对于很多领域都可能会用到视频理解领域的技术,通过了解整个视频理解技术框架的形成与发展也可以更好地将其中地精华部分迁移到各自对应地领域之中。可以少踩很多坑...原创 2022-07-13 15:19:28 · 594 阅读 · 0 评论 -
文章阅读总结:OpenAI-Codex
简单总结OpenAI利用GPT3做出的工作:CodeX原创 2022-07-09 15:58:27 · 2120 阅读 · 0 评论 -
文章阅读总结:GPT
GPT发展及重要点的提取:GPT1提出使用Transformer解码器进行无监督预训练,开启大模型训练潮流;GPT2提出新的思考点:zero-shot,直接使用预训练模型进行有监督任务;GPT3继续提高网络的参数量,达到恐怖的1700亿,大力出奇迹,获得了非常好的效果,后来人也在GPT3的基础上玩儿出了花!...原创 2022-07-08 16:00:44 · 1803 阅读 · 0 评论