我试图更好地理解压缩算法的输出 - 如zlib - 如何与一个人的理论预期相比较 . 所以我有几个问题 .
(1)首先,我想检查一下我是否正确计算了压缩率 . 假设我想压缩1000个数组,我可以执行以下操作
# encode the array such that len(s) == 1000 bytes
s = np.ones(1000, dtype='uint8').tostring()
# compress using the python zlib (deflate)
comp_s = zlib.compress(s, 9)
# giving comp_s = 'x\xdacd\x1c\x05\xa3`\x14\x0cw\x00\x00\xa7e\x03\xe9'
comp_ratio = len(comp_s)/len(s)
# giving 17/1000
因此我的第一个问题是: comp_s 编码使得它的长度对应于字节数?我无法弄清楚这个字符串是如何编码的 . 如果我做 sys.getsizeof(comp_s) 我发现它的大小是54字节而不是17字节?因为 getsizeof 返回python对象的大小所以它肯定高估了字符串的大小,我是否正确假设 sys.getsizeof(s) - sys.getsizeof('') 是正确的方法?它似乎至少产生与 len() 相同的结果 .
(2)压缩序列的大小应大于(或等于)其香农熵 . 对于以50:50概率发生的1 's and 0' s的随机二进制序列,每个数字的信息数是1位(根据定义 h = - p log p - (1-p)log(1-p) ) . 由于真正的随机序列是不可压缩的,如果我生成一个长度为 n 的随机二进制序列,我希望通过添加一个随机数字,得到的 n+1 长序列在压缩后平均会大1位 .
当我做以下
rawsize = range(1, 100000, 1000)
compsize = []
for l in rawsize:
s = np.random.randint(0, 2, l, dtype='uint8').tostring()
comp_s = zlib.compress(s, 9)
# note: I compress again to achieve better compression when l is large
comp_s = zlib.compress(comp_s, 9)
compsize.append(len(comp_s))
如果我绘制 compsize / rawsize ,我发现曲线接近 0.155 周围的常数值(如果我正确解释),通过添加一位数,信息量增加 0.155 -bits . 我不明白这一点,因为看起来压缩比理论预期要好得多 .
为了进一步理解这一点,我还比较了压缩的字符串大小,对于1 's and 0' s的二进制序列的情况,其中1的概率发生在概率 0
显然有一些我没有考虑的标准化因素,但我无法弄清楚它的基本原理 . 我还尝试使用 16 , 32 和 64 位无符号整数对原始序列进行编码,发现比率 compsize / rawsize 分别大致为 0.176 , 0.2 , 0.23 ,所以看起来像是在1 's and 0' s的表示中添加一个字节我们贡献了大约 0.25 位的额外信息,这也很奇怪 .
任何建议都非常有用!