1 java实现
package cn.edu.nwsuaf.sheep2.utils;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.SQLException;
import java.util.Date;
/**
* Created by hx on 2018/8/11.
*/
public class InsertInsideCode {
public static void main(String[] args) throws ClassNotFoundException, SQLException {
final String url = "jdbc:mysql://127.0.0.1/sheep2";
final String name = "com.mysql.jdbc.Driver";
final String user = "root";
final String password = "";
Connection conn = null;
Class.forName(name);//指定连接类型
conn = DriverManager.getConnection(url, user, password);//获取连接
if (conn!=null) {
System.out.println("获取连接成功");
insert(conn);
}else {
System.out.println("获取连接失败");
}
}
public static void insert(Connection conn) {
// 开始时间
Long begin = new Date().getTime();
// sql前缀
String prefix = "INSERT INTO sheep_inside_code (id,inside_code) VALUES ";
try {
// 保存sql后缀
StringBuffer suffix = new StringBuffer();
// 设置事务为非自动提交
conn.setAutoCommit(false);
// 比起st,pst会更好些
PreparedStatement pst = (PreparedStatement) conn.prepareStatement("");//准备执行语句
// 外层循环,总提交事务次数
for (int i = 1; i <= 5; i++) {
suffix = new StringBuffer();
// 第j次提交步长
if(i == 1) {
for (int j = 1; j < 10; j++) {
// 构建SQL后缀
suffix.append("(" + j+","+"'0000" +j+"'),");
}
}else if(i == 2) {
for (int j = 10; j < 100; j++) {
// 构建SQL后缀
suffix.append("(" + j+","+"'000" +j+"'),");
}
}else if(i == 3) {
for (int j = 100; j < 1000; j++) {
// 构建SQL后缀
suffix.append("(" + j+","+"'00" +j+"'),");
}
}else if(i == 4) {
for (int j = 1000; j < 10000; j++) {
// 构建SQL后缀
suffix.append("(" + j+","+"'0" +j+"'),");
}
}else {
for (int j = 10000; j <= 99999; j++) {
// 构建SQL后缀
suffix.append("(" + j+","+"'" +j+"'),");
}
}
// 构建完整SQL
String sql = prefix + suffix.substring(0, suffix.length() - 1);
// 添加执行SQL
pst.addBatch(sql);
// 执行操作
pst.executeBatch();
// 提交事务
conn.commit();
// 清空上一次添加的数据
suffix = new StringBuffer();
}
// 头等连接
pst.close();
conn.close();
} catch (SQLException e) {
e.printStackTrace();
}
// 结束时间
Long end = new Date().getTime();
// 耗时
System.out.println("10万条数据插入花费时间 : " + (end - begin) / 1000 + " s");
System.out.println("插入完成");
}
}
2 存储过程实现
DROP PROCEDURE if EXISTS test_insert;
DELIMITER ;
CREATE PROCEDURE test_insert()
BEGIN
DECLARE y BIGINT DEFAULT 1;
WHILE y<100000
DO
INSERT INTO `sys`.`student` (`id`, `age`, `name`, `class`) VALUES (y, y, concat(y,'张三'), concat(y,'班'));
SET y=y+1;
END WHILE ;
-- commit;
END;
3 Mysql千万级别数据批量插入只需三步
第一步:配置my.ini文件
文件中配置
bulk_insert_buffer_size=120M 或者更大
将insert语句的长度设为最大。
Max_allowed_packet=1M
Net_buffer_length=8k
保存
第二步:查看设置的参选有没有生效.
Mysql > SHOW VARIABLES;
Mysql千万级别数据批量插入只需简单三步
bulk_insert_buffer_size默认是8M,我们要把它调成100M或百兆以上,也不要太大。下面看调整个好的,如下图:
Mysql千万级别数据批量插入只需简单三步
第三步:完成设置后,批量插入数据时使用多条模式。
INSERT INTO table (field1,field2,field3) VALUES ('a',"b","c"), ('a',"b","c"),('a',"b","c");
将以上Mysql插入模式用php语言字符串拼接SQL方法如下,你也可转换Java,Python,Golang其它你用的最顺手的语言,将方法转换分享吧:
/**
* 多条数据同时转化成插入SQL语句
* @ CreatBy:IT自由职业者
* @param string $table 表名
* @$arr_key是表字段名的key:$arr_key=array("field1","field2","field3")
* @param array $arr是字段值 数组示例 arrat(("a","b","c"), ("bbc","bbb","caaa"),('add',"bppp","cggg"))
* @return string
*/
function multArray2Insert($table,$arr_key, $arr, $split = '`') {
$arrValues = array();
if (empty($table) || !is_array($arr_key) || !is_array($arr)) {
return false;
}
$sql = "INSERT INTO %s( %s ) values %s ";
foreach ($arr as $k => $v) {
$arrValues[$k] = "'".implode("','",array_values($v))."'";
}
$sql = sprintf($sql, $table, "{$split}" . implode("{$split} ,{$split}", $arr_key) . "{$split}", "(" . implode(") , (", array_values($arrValues)) . ")");
return $sql;
}
以上方法调试过无误的,头条没有代码格式编辑器,所以发代码图。这段代码的返回字符串结果是INSERT INTO table (field1,field2,field3) VALUES ('a',"b","c"), ('a',"b","c"),('a',"b","c") ,做试验时用的普通配置的电脑是每秒1000条批量插入速度,千万条数据写的速度也非常快,新版本PHP语言数据处理能力很强大。如果你的电脑或服务器性能高,你可以调节$arr数组决定你插入多少条数据,灵活使用吧。