Mysql大数据量的导入和更新

在工作中有时会遇到有大量需要导入到数据库,如果通过写脚本一条一条的插入到mysql,那么会非常慢的。

之前我有想到一次性插入10000条数据就好了啊,这样确实在大部分情况下都能满足需求了。

但是如果你去多了解一些mysql,会发现其实只需要写一条Sql就可以解决这个问题了,我们就不需要重复制造轮子了。


不过这里需要两个前提,

1、将原始数据转化成为CSV格式的文件

2、mysql客户端连接mysql server时需要加上 --local-infile=1 

(例:mysql -uroot -p -h 127.0.0.1 --local-infile=1,具体原因见: http://dev.mysql.com/doc/refman/5.0/en/load-data-local.html)

3、准备好导入数据的表。(导入的数据会追加到表中,不会覆盖原有的数据)


接下来就是写SQL了

写个例子,具体语法请去mysql官网参考,

 LOAD DATA LOCAL INFILE '/your/file/path'
      INTO TABLE your_table_name
      CHARACTER SET utf8
      FIELDS TERMINATED BY ','
      OPTIONALLY ENCLOSED BY '\"'
      ESCAPED BY '\"'
      LINES TERMINATED BY '\n'
      (@discard_column1 , column2, @discar_column2 , column2 )

@discard_column1,这种前面带有@符号表示变量,在这里也就是这些位置上的数据会被丢弃,不会被导入到数据表中。


上面这种情况只是针对导入新的数据,如果数据中有两部分,a.新的数据和b.已经存在的数据

对于新数据直接插入就好了,对于已经存在的数据,只需要更新其中一些字段,这有什么方法吗?


这时我们可以通过下面的步骤完成(注意,下面所有sql需要写成sql1;sql2;sql3...sqln;的形式,一次性传给mysql,因为使用的是CREATE TEMPORARY TABLE,在执行完以后,这个表会被自动删除,如果你在测试阶段,可以把TEMPORARY先去掉

1、CREATE TEMPORARY TABLE 语法创建临时数据表

2、在临时表中添加字段`to_update` TINYINT(1) NOT NULL DEFAULT 0 ,下面会用到这个字段(这一步可以放到第一步中一起完成) 

2、将所有数据先Load到这张表里

3、使用Update语句,将已经存在的数据进行更新,并set to_update=1。

例:UPDATE 目标数据表  d

JOIN 临时数据表 t ON <判断数据相同的条件>

SET <更新目标数据表d> , t.to_update = 1;

4、剩余的to_update=0的数据需要插入到 目标数据表 中

例:INSERT INTO 目标数据表  d

(d.column1 , d.column2)

SELECT t.column1 , t.column2 FROM  临时数据表 t 

WHERE t.to_update = 0


这样整个过程就结束了,在你有大量数据需要导入到数据库时,他可以帮你节省很多时间,也不会给数据库造成长时间的压力,查询缓存不会被一直刷新。

在你需要这些好处时,能想到这种方式就好了。


感谢我的同事Nash,因为这些是我看到他的代码所学习到的。



### 回答1: MySQL 有多种方法可以用来导入大数据。这里列举几种常见的方法: 1. 导入数据库备份文件:如果你已经有了数据库的备份文件,可以使用 MySQL 的 `mysql` 命令行工具来导入。例如: ``` mysql -u username -p db_name < backup-file.sql ``` 2. 使用 `LOAD DATA INFILE` 语句:这个语句可以快速地将数据从文本文件导入MySQL 表中。例如: ``` LOAD DATA INFILE '/path/to/data.csv' INTO TABLE tbl_name FIELDS TERMINATED BY ',' ENCLOSED BY '"' LINES TERMINATED BY '\n' ``` 3. 使用 `mysqlimport` 工具:这是 MySQL 安装时自带的一个命令行工具,可以用来快速导入 CSV 文件。例如: ``` mysqlimport --ignore-lines=1 --fields-terminated-by=, --local -u username -p db_name /path/to/data.csv ``` 4. 使用 MySQL 工具:如 MySQL Workbench 等工具可以方便地导入数据。这些工具通常都有图形界面,使用起来非常方便。 5. 使用编程语言:你也可以使用编程语言,如 PHP 或 Python 等,来连接 MySQL 数据库,然后执行 SQL 语句来导入数据。 ### 回答2: 在导入大数据MySQL数据库时,可以采取以下几种方法: 1. 使用LOAD DATA命令:该命令可以直接从文件中批导入数据到MySQL。将大数据的数据保存为文本文件(如CSV或TXT),然后使用LOAD DATA命令将数据加载到MySQL中。这种方法适用于数据较大,且文件格式规范的情况。 2. 使用MySQL提供的导入工具:MySQL提供了一些专门用于导入数据的工具,如mysqldump、mysqlimport等。通过使用这些工具,可以将大数据的数据导入MySQL中。这些工具可以根据需求选择不同的导入方式,如单个表导入、整个数据库导入等。 3. 数据拆分导入:如果一次性导入大数据会导致性能问题,可以考虑将数据进行拆分,分批导入MySQL中。这可以通过对数据进行分区、分片、分页等方式进行实现。例如,可以将数据按照时间范围、地理位置等因素进行拆分,然后逐个批次导入。 4. 使用并行导入:在导入大数据时,可以尝试使用并行导入的方式。通过同时使用多个数据库连接,将数据进行分割并同时导入,可以提高导入的效率。使用并行导入需要注意保持数据的一致性,并合理设置导入的并发数。 在进行大数据导入时,还需注意数据库的配置参数,如innodb_buffer_pool_size、innodb_log_file_size等,合理调整这些参数可以提高导入的效率。同时,监控导入过程中的系统资源使用情况,及时调整相关参数。 ### 回答3: MySQL是一种常用的关系数据库管理系统,用于存储和管理大数据。当面临大数据导入的情况时,我们可以采取以下几种方法来提高导入的效率。 第一,使用LOAD DATA INFILE命令。这个命令允许我们从文本文件中导入数据到MySQL数据库中。与使用INSERT语句逐条插入数据相比,使用LOAD DATA INFILE可以大大提高导入速度。我们可以通过制定数据文件的路径,以及指定数据文件的格式和字段分隔符等信息,来导入数据。 第二,使用批插入语句。在插入数据时,使用批插入语句可以减少与数据库之间的通信次数,从而提高导入速度。通过将多条INSERT语句合并成一条,并使用VALUES子句一次性插入多个值,可以有效地将数据批导入MySQL数据库中。 第三,优化数据库配置。在导入大数据之前,我们可以通过调整MySQL的配置参数来提高导入速度。例如,可以增加Innodb_buffer_pool_size参数的值,以提高数据的读取和写入性能。还可以适当调整其他与磁盘读写相关的配置参数,以优化导入过程的性能。 第四,使用并行导入工具。有些第三方工具可以帮助我们在导入数据时实现并行处理,从而提高导入速度。例如,可以使用MySQL的并行复制功能来同时导入多个数据文件,或使用并行导入工具如mydumper等来加速导入过程。 总之,导入大数据MySQL数据库可以采取多种方法来提高导入效率。通过选择合适的导入命令、优化数据库配置、使用批插入语句以及利用并行导入工具等,我们能够更加高效地将数据导入MySQL中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值