MySQL百万级/千万级数据存储解决方案

                               MySQL 百万级/千万级数据存储解决方案

百万级、千万级数据处理,个人认为核心关键在于数据存储方案设计,存储方案设计的是否合理,直接影响到数据CRUD操作。总体设计可以考虑一下三个方面进行设计考虑:

  1. 数据存储结构设计
  2. 索引设计
  3. 数据主键设计
  4. 查询方案设计

百万级数据处理方案:

数据存储结构设计

表字段设计

  1. 表字段 not null,因为 null 值很难查询优化且占用额外的索引空间,推荐默认数字 0。
  2. 数据状态类型的字段,比如 status, type 等等,尽量不要定义负数,如 -1。因为这样可以加上 UNSIGNED,数值容量就会扩大一倍。
  3. 可以的话用 TINYINT、SMALLINT 等代替 INT,尽量不使用 BIGINT,因为占的空间更小。
  4. 字符串类型的字段会比数字类型占的空间更大,所以尽量用整型代替字符串,很多场景是可以通过编码逻辑来实现用整型代替的。
  5. 字符串类型长度不要随意设置,保证满足业务的前提下尽量小。
  6. 用整型来存 IP。
  7. 单表不要有太多字段,建议在20以内。
  8. 为能预见的字段提前预留,因为数据量越大,修改数据结构越耗时。

索引设计

  1. 索引,空间换时间的优化策略,基本上根据业务需求设计好索引,足以应付百万级的数据量,养成使用 explain 的习惯,关于 explain 也可以访问:explain 让你的 sql 写的更踏实了解更多。
  2. 一个常识:索引并不是越多越好,索引是会降低数据写入性能的。
  3. 索引字段长度尽量短,这样能够节省大量索引空间;
  4. 取消外键,可交由程序来约束,性能更好。
  5. 复合索引的匹配最左列规则,索引的顺序和查询条件保持一致,尽量去除没必要的单列索引。
  6. 值分布较少的字段(不重复的较少)不适合建索引,比如像性别这种只有两三个值的情况字段建立索引意义不大。
  7. 需要排序的字段建议加上索引,因为索引是会排序的,能提高查询性能。
  8. 字符串字段使用前缀索引,不使用全字段索引,可大幅减小索引空间。

查询语句优化

  1. 尽量使用短查询替代复杂的内联查询。
  2. 查询不使用 select *,尽量查询带索引的字段,避免回表。
  3. 尽量使用 limit 对查询数量进行限制。
  4. 查询字段尽量落在索引上,尤其是复合索引,更需要注意最左前缀匹配。
  5. 拆分大的 delete / insert 操作,一方面会锁表,影响其他业务操作,还有一方面是 MySQL 对 sql 长度也是有限制的。
  6. 不建议使用 MySQL 的函数,计算等,可先由程序处理,从上面提的一些点会发现,能交由程序处理的尽量不要把压力转至数据库上。因为多数的服务器性能瓶颈都在数据库上。
  7. 查询 count,性能:count(1) = count(*) > count(主键) > count(其他字段)。
  8. 查询操作符能用 between 则不用 in,能用 in 则不用 or。
    避免使用!=或<>、IS NULL或IS NOT NULL、IN ,NOT IN等这样的操作符,因为这些查询无法使用索引。
  9. sql 尽量简单,少用 join,不建议两个 join 以上。

 

千万级数据处理方案:

  • 4
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
MySQL导入千万级数据可以使用多种方法,以下是两种常用的方法: 1. 使用MySQL自带的导入工具:MySQL提供了多个导入工具,如`mysql`命令行工具和`LOAD DATA INFILE`语句。你可以使用这些工具将数据从文件导入到MySQL数据库中。具体步骤如下: - 将数据保存为文本文件,每行代一条记录。 - 使用`mysql`命令行工具登录到MySQL数据库。 - 创建目标,确保结构与数据文件中的数据一致。 - 使用`LOAD DATA INFILE`语句将数据文件导入到目标中。 例如,假设你有一个名为`data.txt`的数据文件,其中包含千万条记录,你可以使用以下命令将数据导入到MySQL数据库中: ```shell mysql -u username -p password -h hostname -P port dbname LOAD DATA INFILE '/path/to/data.txt' INTO TABLE tablename; ``` 2. 使用第三方工具:除了MySQL自带的导入工具,还有一些第三方工具可以帮助你快速导入千万级数据。例如,`mysqldump`工具可以将数据导出为SQL文件,然后使用`mysql`命令行工具将SQL文件导入到目标数据库中。另外,一些ETL工具(如Talend、Pentaho)也提供了数据导入功能,可以更加灵活地处理大数据量的导入。 请注意,导入千万级数据可能需要较长的时间和较大的系统资源。为了提高导入速度,你可以考虑以下几点: - 使用合适的硬件设备和网络环境,确保数据库服务器具有足够的计算和存储资源。 - 对数据文件进行预处理,如拆分成多个小文件,以便并行导入。 - 调整MySQL服务器的配置参数,如`innodb_buffer_pool_size`、`innodb_log_file_size`等,以优化导入性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

仰望星空@脚踏实地

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值