pg和MySQL读性能_[评测]低配环境下,PostgresQL和Mysql读写性能简单对比

原文链接:https://www.cnblogs.com/blog5277/p/10658426.html

原文作者:博客园--曲高终和寡

*******************如果你看到这一行,说明爬虫在本人还没有发布完成的时候就抓走了我的文章,导致内容不完整,请去上述的原文链接查看原文****************

由于最近经过朋友启发,又有了一个写个人项目的小想法,在这次个人项目中准备学习并使用一些之前自己没有掌握的新技术,其中,在项目准备的时候,准备爬一些数据做储备。

过去的项目,都对数据写入没有硬性要求,所以之前就是写了爬虫放那不管了,这次由于项目的需求,需要大量快速的爬取/复制/写入数据,我就发现我现在用的Mysql并不能满足我的需求,奇慢无比。经过对比评测,初步决定选用PostgresQL替换掉Mysql。

〇:先摆结论

写入速度:

Mysql:  8.5/s

PostgresQL:   800/s

读取速度:

待Mysql龟速插完100W条数据后再说,要不然不公平

一:前期调查

如果一个市场占有率小的数据库(根据谷歌趋势),口碑/媒体评测/个人评测都不如Mysql的话,那就不用考虑了。

经过调查,不管是百度、谷歌搜出来的绝大部分结果都是PostgresQL强得多,也符合我自己的评测结果。

有一个关于PostgresQL的负面新闻是,Uber从PostgresQL转为Mysql,但是经过更多的调查发现,这并不完全是PostgresQL的问题,比如如下文章:

http://www.sohu.com/a/108363951_465959

https://m.aliyun.com/yunqi/articles/79658

就解释了这个问题,我个人经过调研是更倾向于PostgresQL的

二:准备工作

1.一台阿里云服务器,1核2G1M带宽I/O优化硬盘(应该是SSD)

2.Mysql 5.7,PostgresQL 11(Mysql版本低是因为我看宝塔推荐Mysql 8.0需要有2G内存最好,可是我这辣鸡服务器总共内存才2G,所以不考虑8.0,更何况从最后的测试结果来看,我不相信换成8.0能弥补这个差距),全部采用安装时的默认配置,不做任何优化(因为我不会),这样也可以看数据库自身,最大众的情况下的调教能力(在找借口),两台都部署在上述那台服务器上

3.建表和字段:

字段

Mysql格式

PostgresQL格式

id(uuid)

char(36)

char(36)

gmt_create

datetime

timestamp without timezone

gmt_modified

datetime

timestamp without timezone

content

varchar(20)

text

在id,gmt_create,content分别加了单索引

说明一下,PostgresQL的text属性是可无限填数据的,Mysql用的的可变字符varchar(20),而不是longtext,应该已经算优待Mysql了吧

4.数据插入方法:

模拟真实脚本环境,采用springboot+spring-data-jpa 造假数据插入,jpa开启批量插入设置,并可控制batch大小,经过多次测试找出最适合数据库的batch size大小。

为了避免服务器/运行环境资源争抢,一次只运行单个数据库的数据插入方法,下面是批量插入核心代码

20190405142040241987.png

20190405142040655046.png

三:测试插入

Mysql:

经过测试,Mysql入库速度大约是每秒10条左右,所以batch大小我设置为了5。

设置100会导致8秒1插(一开始数据库数量很少的时候,后面多了肯定还是会降),设置1000会抛异常,连接超时/重置/未响应等异常,这里不是我不给它设置大的,一开始设置了1000它真的扛不住!!!

以下是插入的时候控制台信息:

20190405142040977291.png

以下是workbench里面筛选1分钟录入数据的值:

20190405142041359103.png

这是只有40多万数据的时候的值,后面会更慢的,实在是懒得等了先把这部分先写了,所以得出结论:

Mysql的写入速度为:510 / 60 = 8  条数据每秒

PostgresQL:

经过测试,PostgresQL入库速度大约为每秒不到1000条,所以batch大小我设置了500。

以下是插入的时候控制台信息:

20190405142041665724.png

以下是pgadmin里面筛选1分钟录入数据的值:

20190405142042018240.png

所以得出结论:

PostgresQL的写入速度为:  48000 / 60 = 800  条数据每秒

这差距也太大了。。。大到我都不想再测100W条数据后,查数据的速度了。。。

还是等吧,我等到Mysql龟速插完100W条数据以后再来更新吧

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值