![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
智能图像压缩
文章平均质量分 94
基于端到端的智能图像压缩方法
叶笙箫
image compression
展开
-
端到端图像压缩《Checkerboard Context Model for Efficient Learned Image Compression》
提出一种两阶段的Checkerboard Context Model,重新定义了端到端图像压缩的解码顺序。原创 2022-07-27 23:21:06 · 3162 阅读 · 3 评论 -
端到端图像压缩《Asymmetric Gained Deep Image Compression With Continuous Rate Adaptation》
提出了一种连续速率可调的学习图像压缩框架,即非对称增益变分自动编码器(AGVAE)。AG-VAE利用一对增益单元在一个模型中实现离散速率自适应,而额外的计算可以忽略不计。并且通过使用指数插值,在不影响性能的情况下实现连续速率自适应。除此之外,部署了非对称的熵模型提高模型的性能增益。......原创 2022-07-23 15:03:12 · 1456 阅读 · 1 评论 -
端到端的图像压缩《Learning Scalable constrained Near-lossless Image Compression via Joint Lossy Image cmp》
Learning Scalable ∞-constrained Near-lossless Image Compression via Joint Lossy Image and Residual Compression一. 简介二.内容2.1 现有方法缺陷2.2 整体框架流程2.3 量化工作2.4 量化2.5 熵模型2.6 反量化三.配置四. 实验结果论文地址:https://openaccess.thecvf.com/content/CVPR2021/papers/Bai_Learning_Scala原创 2022-02-24 14:18:07 · 4106 阅读 · 3 评论 -
端到端的图像压缩----《End-to-End Optimized Versatile Image Compression With Wavelet-Like T ransform》论文笔记
End-to-End Optimized Versatile ImageCompression With Wavelet-Like T ransform一. 简介二 内容2.1 现有方法缺陷2.2 端到端新框架2.2 编码变换2.3 量化Compression With Wavelet-Like T ransform)论文地址:https://ieeexplore.ieee.org/document/9204799代码地址:https://github.com/mahaichuan/Versatil原创 2021-08-25 13:36:40 · 3462 阅读 · 4 评论 -
端到端的图像压缩----《Channel-wise Autoregressive Entropy Models For Learned Image Compression》论文笔记
Channel-wise Autoregressive Entropy Models For Learned Image Compression一. 简介二 内容2.1 现有方法缺陷2.2 改善方法论文地址:https://arxiv.org/abs/2007.08739代码地址:https://github.com/tensorflow/compressionMinnen google大神,他们实验室应该是这个方面,最牛逼的实验室了吧=-=一. 简介 &nb原创 2021-04-02 12:13:20 · 3738 阅读 · 6 评论 -
端到端的图像压缩----《CompressAI: a PyTorch library for image research》论文笔记
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar原创 2021-01-11 18:10:24 · 7108 阅读 · 67 评论 -
图像压缩-《Learned Image Compression with Discretized Gaussian Mixture Likelihoods and Attention Modules》
Learned Image Compression with Discretized Gaussian Mixture Likelihoods and Attention Modules简介内容论文地址:https://arxiv.org/abs/2001.01568代码地址:https://github.com/ZhengxueCheng/Learned-Image-Compression-with-GMM-and-Attention 基于论文《Join原创 2020-12-30 11:13:21 · 3890 阅读 · 8 评论 -
端到端的图像压缩----《Joint Autoregressive and Hierarchical Priors for Learned Image Compression》 论文笔记
Joint Autoregressive and Hierarchical Priors for Learned Image Compression一 简介二 内容2.1 创新内容2.2 框架细节2.3 性能论文地址:https://arxiv.org/abs/1809.02736?context=cs.CV代码地址:无PixCNN 论文地址:https://arxiv.org/abs/1601.06759v3PixCNN 代码地址:https://github.com/carpedm20/pixe原创 2020-12-14 09:02:43 · 6137 阅读 · 21 评论 -
端到端的图像压缩----《Variational Image Compression With A Scale Hyperprior》论文笔记
Variational Image Compression With A Scale Hyperprior一 简介二 内容2.1 现有方法缺陷2.2 数据流程2.3 变分自编码器性能结论论文地址:https://arxiv.org/abs/1802.01436代码地址:https://github.com/tensorflow/compressionBalle google大神,入门必读。该文章仅供本人笔记用,如果问题欢迎讨论。一 简介  原创 2020-12-12 13:13:00 · 16282 阅读 · 90 评论 -
端到端的图像压缩------《End-to-end optimized image compression》笔记
End-to-end optimized image compression1.简介2.整体算法1.简介整体算法分为三个部分:非线性分析变换(编码器),均匀量化器和非线性合成边变换(解码器),在整个训练框架上联合优化整个模型的率失真性能。在某些条件下,松弛损失函数可以解释为由变分自动编码器实现的生成模型的对数似然,即和变分自编码器的损失函数某种情况下有点像。另外,每一个折衷参数对应一个压缩模型,所以整个R-D曲线是由模型构成的R-D点形成的。2.整体算法整体算法结构以及流程如下:xxx 与 x^原创 2020-12-05 15:08:38 · 11234 阅读 · 17 评论 -
端到端的图像压缩----码率估计
端到端的图像压缩----码率控制前言超先验架构1.VARIATIONAL IMAGE COMPRESSIONWITH A SCALE HYPERPRIOR(Johannes Ballé---纽约大学)2.3.A Hybrid Architecture of Jointly Learning Image Compression and Quality Enhancement with Improved Entropy Minimization(Jooyoung Lee--早稻田)前言本文是基于Johann原创 2020-05-29 17:28:20 · 5485 阅读 · 8 评论