用神经网络进行文件无损压缩:斯坦福大学提出DeepZip

斯坦福大学研究者利用循环神经网络(RNN)开发了一种名为DeepZip的无损压缩技术,尤其适用于文本和基因组数据。DeepZip在捕捉长期依赖关系上表现出优势,为大数据时代的高效压缩提供了新思路。通过RNN概率评估器和算术编码模块,DeepZip在某些数据集上展示了优于传统方法的性能。
摘要由CSDN通过智能技术生成

神经网络不仅可以分析、识别特征,提出预测,还可以压缩文件。斯坦福大学的研究者们最近提交的论文中,循环神经网络捕捉长期依赖关系的优势被用于无损压缩任务中,这种被称为DeepZip的技术已在文本和基因组数据文件中得到了实验。研究人员称,其结果颇具潜力。


正在进行的大数据变革让我们收集了大量不同类型的数据,如图像、文本和音频等;新类型的数据如3D VR数据、用于自动驾驶的点云数据、不同类型的基因组数据等,占据着巨量的存储空间。因此,人们对于统计模型和适用于各种数据格式的高效压缩方法有着很大的需求。


近50年来,无损压缩技术已经历了很多重要的发展。在克劳德·香农的一个经典研究中,这位先驱者指出,熵率是给定数据源可能达到的最佳压缩比,同时也给出了一种实现方法(尽管不甚实际)。J. Rissanen提出了算术编码,这是一个实现已知分布熵边界的有效方法。对于未知分布的数据源(如文本和DNA),他还设计了算术编码的自适应变体,它可以通过尝试学习条件k-gram模型的分布来进行压缩。尽管这种过程的复杂度会随k的变化而呈指数级增长,通常上下文会被限制在k=20符号。这会导致压缩比例的显著损失,因为模型无法捕捉长期依赖关系。我们都知道基于循环神经网络(LSTM/GRU)的模型善于捕捉长期依赖关系,同时可以较准确地预测下一个字母/单词。如此一来,能否使用基于RNN的框架来用于压缩任务?在斯坦福大学的一份研究中,研究人员探索了使用基于RNN的语言模型及算术编码来提升无损压缩的性能。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值