Python 读取千万级数据自动写入 MySQL 数据库

Python 读取数据自动写入 MySQL 数据库,这个需求在工作中是非常普遍的,主要涉及到 python 操作数据库,读写更新等,数据库可能是 mongodb、 es,他们的处理思路都是相似的,只需要将操作数据库的语法更换即可。本篇文章会给大家系统的分享千万级数据如何写入到 mysql,分为两个场景,两种方式。

场景一:数据不需要频繁的写入mysql

使用 navicat 工具的导入向导功能。支持多种文件格式,可以根据文件的字段自动建表,也可以在已有表中插入数据,非常快捷方便。

场景二:数据是增量的,需要自动化并频繁写入mysql

测试数据:csv 格式 ,大约 1200万行

1

2

3

import pandas as pd

data = pd.read_csv('./tianchi_mobile_recommend_train_user.csv')

data.shape

打印结果:

方式一:python ➕ pymysql 库

安装 pymysql 命令:

1

pip install pymysql

代码实现:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

import pymysql

# 数据库连接信息

conn = pymysql.connect(

       host='127.0.0.1',

       user='root',

       passwd='wangyuqing',

       db='test01',

       port = 3306,

       charset="utf8")

# 分块处理

big_size = 100000

# 分块遍历写入到 mysql

with pd.read_csv('./tianchi_mobile_recommend_train_user.csv',chunksize=big_size) as reader:

    for df in reader:

        datas = []

        print('处理:',len(df))

#         print(df)

        for i ,j in df.iterrows():

            data = (j['user_id'],j['item_id'],j['behavior_type'],

                    j['item_category'],j['time'])

            datas.append(data)

        _values = ",".join(['%s', ] * 5)

        sql = """insert into users(user_id,item_id,behavior_type

        ,item_category,time) values(%s)""" % _values

        cursor = conn.cursor()

        cursor.executemany(sql,datas)

        conn.commit()

 # 关闭服务

conn.close()

cursor.close()

print('存入成功!')

方式二:pandas ➕ sqlalchemy:pandas需要引入sqlalchemy来支持sql,在sqlalchemy的支持下,它可以实现所有常见数据库类型的查询、更新等操作。

代码实现:

1

2

3

4

5

from sqlalchemy import create_engine

engine = create_engine('mysql+pymysql://root:wangyuqing@localhost:3306/test01')

data = pd.read_csv('./tianchi_mobile_recommend_train_user.csv')

data.to_sql('user02',engine,chunksize=100000,index=None)

print('存入成功!')

总结

pymysql 方法用时12分47秒,耗时还是比较长的,代码量大,而 pandas 仅需五行代码就实现了这个需求,只用了4分钟左右。最后补充下,方式一需要提前建表,方式二则不需要。所以推荐大家使用第二种方式,既方便又效率高。如果还觉得速度慢的小伙伴,可以考虑加入多进程、多线程。

最全的三种将数据存入到 MySQL 数据库方法:

  • 直接存,利用 navicat 的导入向导功能
  • Python pymysql
  • Pandas sqlalchemy

到此这篇关于Python 读取千万级数据自动写入 MySQL 数据库的文章就介绍到这了

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
可以使用Python中的MySQL Connector模块来实现从MySQL数据库读取数据写入数据MySQL数据库。 以下是一个简单的示例代码,说明如何使用Python连接到MySQL数据库读取数据并将其写入另一个MySQL数据库: ```python import mysql.connector # 设置源数据库连接参数 src_db_config = { 'host': 'localhost', 'user': 'root', 'password': 'password', 'database': 'source_db' } # 设置目标数据库连接参数 dest_db_config = { 'host': 'localhost', 'user': 'root', 'password': 'password', 'database': 'destination_db' } # 连接源数据库 src_db = mysql.connector.connect(**src_db_config) # 连接目标数据库 dest_db = mysql.connector.connect(**dest_db_config) # 获取源数据库游标 src_cursor = src_db.cursor() # 获取目标数据库游标 dest_cursor = dest_db.cursor() # 查询源数据库中的数据 src_cursor.execute("SELECT * FROM source_table") # 读取查询结果 results = src_cursor.fetchall() # 将查询结果写入目标数据库 for result in results: dest_cursor.execute("INSERT INTO destination_table (col1, col2, col3) VALUES (%s, %s, %s)", result) # 提交目标数据库更改 dest_db.commit() # 关闭游标和数据库连接 src_cursor.close() dest_cursor.close() src_db.close() dest_db.close() ``` 在上面的代码中,首先设置源数据库和目标数据库的连接参数,然后使用`mysql.connector.connect`方法连接到两个数据库。接下来,使用源数据库游标执行查询,并使用`fetchall`方法读取查询结果。最后,使用目标数据库游标执行插入语句将结果写入目标数据库,并使用`commit`方法提交更改。最后,关闭游标和数据库连接。 请注意,上面的示例代码仅供参考。在实际使用中,您可能需要根据自己的需求进行调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

zxj19880502

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值