前段时间使用berkeley时,初次尝试小数据量的添加和读取,100W左右的短数据,平均每条value大概20-50个汉字,性能是很不错的。
要比mysql快很多,特别是插入速度。单条读取速度也很满意。
结合lucene使用也是非常方便。
但是同时发现一个问题。同样的数据,当设置不同的log日志切分大小后,存储的文件大小相差很多。
最多大概相差了大概1/5 .虽然能通过设置减少log的大小,但是默认的设置不是令人满意。日志和数据是混在一起的,感觉不是很好控制。
后来使用berkeleydb存储500W的长文本文件,value大概2000-1w汉字,插入速度和读取速度就都一般了,虽然数据量不是很大,但是已经能感觉到berkeleydb不是很轻松的应付。读取速度15ms左右。
http://hi.baidu.com/shepherdnewage/blog/item/95f0c182e57d902f67096edc.html
今天看了上面的文章,也描述了berkeleydb数据膨胀的问题,所以建议数据量不是很大的情况下,berkeleydb还是比较好的
选择,毕竟简单快速,但是大数据量时,就不推荐使用了。