mysql数据库参数解析

My.cnf

[client]  

port = 3309

socket = /home/mysql/mysql/tmp/mysql.sock  

[mysqld]  

!include /home/mysql/mysql/etc/mysqld.cnf #包含的配置文件 ,把用户名,密码文件单独存放  

port = 3309

socket = /home/mysql/mysql/tmp/mysql.sock  

pid-file = /longxibendi/mysql/mysql/var/mysql.pid  

basedir = /home/mysql/mysql/  

datadir = /longxibendi/mysql/mysql/var/  

# tmp dir settings  

tmpdir = /home/mysql/mysql/tmp/  

slave-load-tmpdir = /home/mysql/mysql/tmp/  

#当slave 执行 load data infile 时用  

#language = /home/mysql/mysql/share/mysql/english/  

character-sets-dir = /home/mysql/mysql/share/mysql/charsets/  

# skip options  

skip-name-resolve #grant 时,必须使用ip不能使用主机名  

skip-symbolic-links #不能使用连接文件  

skip-external-locking #不使用系统锁定,要使用myisamchk,必须关闭服务器  

skip-slave-start #启动mysql,不启动复制  

#sysdate-is-now  

# res settings  

back_log = 50 #接受队列,对于没建立tcp连接的请求队列放入缓存中,队列大小为back_log,受限制与OS参数  

max_connections = 1000 #最大并发连接数 ,增大该值需要相应增加允许打开的文件描述符数  

max_connect_errors = 10000 #如果某个用户发起的连接error超过该数值,则该用户的下次连接将被阻塞,直到管理员执行flush hosts ; 命令;防止黑客  

#open_files_limit = 10240

connect-timeout = 10 #连接超时之前的最大秒数,在Linux平台上,该超时也用作等待服务器首次回应的时间  

wait-timeout = 28800 #等待关闭连接的时间  

interactive-timeout = 28800 #关闭连接之前,允许interactive_timeout(取代了wait_timeout)秒的不活动时间。客户端的会话wait_timeout变量被设为会话interactive_timeout变量的值。  

slave-net-timeout = 600 #从服务器也能够处理网络连接中断。但是,只有从服务器超过slave_net_timeout秒没有从主服务器收到数据才通知网络中断  

net_read_timeout = 30 #从服务器读取信息的超时  

net_write_timeout = 60 #从服务器写入信息的超时  

net_retry_count = 10 #如果某个通信端口的读操作中断了,在放弃前重试多次  

net_buffer_length = 16384 #包消息缓冲区初始化为net_buffer_length字节,但需要时可以增长到max_allowed_packet字节  

max_allowed_packet = 64M #  

#table_cache = 512 #所有线程打开的表的数目。增大该值可以增加mysqld需要的文件描述符的数量  

thread_stack = 192K #每个线程的堆栈大小  

thread_cache_size = 20 #线程缓存  

thread_concurrency = 8 #同时运行的线程的数据 此处最好为CPU个数两倍。本机配置为CPU的个数  

# qcache settings  

query_cache_size = 256M #查询缓存大小  

query_cache_limit = 2M #不缓存查询大于该值的结果  

query_cache_min_res_unit = 2K #查询缓存分配的最小块大小  

# default settings  

# time zone  

default-time-zone = system #服务器时区  

character-set-server = utf8 #server级别字符集  

default-storage-engine = InnoDB #默认存储  

# tmp & heap  

tmp_table_size = 512M #临时表大小,如果超过该值,则结果放到磁盘中  

max_heap_table_size = 512M #该变量设置MEMORY (HEAP)表可以增长到的最大空间大小  

log-bin = mysql-bin #这些路径相对于datadir  

log-bin-index = mysql-bin.index  

relayrelay-log = relay-log  

relayrelay_log_index = relay-log.index  

# warning & error log  

log-warnings = 1

log-error = /home/mysql/mysql/log/mysql.err  

log_output = FILE #参数log_output指定了慢查询输出的格式,默认为FILE,你可以将它设为TABLE,然后就可以查询mysql架构下的slow_log表了  

# slow query log  

slow_query_log = 1

long-query-time = 1 #慢查询时间 超过1秒则为慢查询  

slow_query_log_file = /home/mysql/mysql/log/slow.log  

#log-queries-not-using-indexes  

#log-slow-slave-statements  

general_log = 1

general_log_file = /home/mysql/mysql/log/mysql.log  

max_binlog_size = 1G

max_relay_log_size = 1G

# if use auto-ex, set to 0  

relay-log-purge = 1 #当不用中继日志时,删除他们。这个操作有SQL线程完成  

# max binlog keeps days  

expire_logs_days = 30 #超过30天的binlog删除  

binlog_cache_size = 1M #session级别  

# replication  

replicate-wild-ignore-table = mysql.% #复制时忽略数据库及表  

replicate-wild-ignore-table = test.% #复制时忽略数据库及表  

# slave_skip_errors=all

key_buffer_size = 256M #myisam索引buffer,只有key没有data  

sort_buffer_size = 2M #排序buffer大小;线程级别  

read_buffer_size = 2M #以全表扫描(Sequential Scan)方式扫描数据的buffer大小 ;线程级别  

join_buffer_size = 8M # join buffer 大小;线程级别  

read_rnd_buffer_size = 8M #MyISAM以索引扫描(Random Scan)方式扫描数据的buffer大小 ;线程级别  

bulk_insert_buffer_size = 64M #MyISAM 用在块插入优化中的树缓冲区的大小。注释:这是一个per thread的限制  

myisam_sort_buffer_size = 64M #MyISAM 设置恢复表之时使用的缓冲区的尺寸,当在REPAIR TABLE或用CREATE INDEX创建索引或ALTER TABLE过程中排序 MyISAM索引分配的缓冲区  

myisam_max_sort_file_size = 10G #MyISAM 如果临时文件会变得超过索引,不要使用快速排序索引方法来创建一个索引。注释:这个参数以字节的形式给出.重建MyISAM索引(在REPAIR TABLE、ALTER TABLE或LOAD DATA INFILE过程中)时,允许MySQL使用的临时文件的最大空间大小。如果文件的大小超过该值,则使用键值缓存创建索引,要慢得多。该值的单位为字节  

myisam_repair_threads = 1 #如果该值大于1,在Repair by sorting过程中并行创建MyISAM表索引(每个索引在自己的线程内)  

myisam_recover = 64K#允许的GROUP_CONCAT()函数结果的最大长度  

transaction_isolation = REPEATABLE-READ  

innodb_file_per_table  

#innodb_status_file = 1

#innodb_open_files = 2048

innodb_additional_mem_pool_size = 100M #帧缓存的控制对象需要从此处申请缓存,所以该值与innodb_buffer_pool对应  

innodb_buffer_pool_size = 2G #包括数据页、索引页、插入缓存、锁信息、自适应哈希所以、数据字典信息  

innodb_data_home_dir = /longxibendi/mysql/mysql/var/  

#innodb_data_file_path = ibdata1:1G:autoextend  

innodb_data_file_path = ibdata1:500M;ibdata2:2210M:autoextend #表空间  

innodb_file_io_threads = 4 #io线程数  

innodb_thread_concurrency = 16 #InnoDB试着在InnoDB内保持操作系统线程的数量少于或等于这个参数给出的限制  

innodb_flush_log_at_trx_commit = 1 #每次commit 日志缓存中的数据刷到磁盘中  

innodb_log_buffer_size = 8M #事物日志缓存  

innodb_log_file_size = 500M #事物日志大小  

#innodb_log_file_size =100M

innodb_log_files_in_group = 2 #两组事物日志  

innodb_log_group_home_dir = /longxibendi/mysql/mysql/var/#日志组  

innodb_max_dirty_pages_pct = 90 #innodb主线程刷新缓存池中的数据,使脏数据比例小于90%  

innodb_lock_wait_timeout = 50 #InnoDB事务在被回滚之前可以等待一个锁定的超时秒数。InnoDB在它自己的 锁定表中自动检测事务死锁并且回滚事务。InnoDB用LOCK TABLES语句注意到锁定设置。默认值是50秒  

#innodb_flush_method = O_DSYNC

[mysqldump]  

quick  

max_allowed_packet = 64M

[mysql]  

disable-auto-rehash #允许通过TAB键提示  

default-character-set = utf8

connect-timeout = 3

 

  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
### 回答1: 可以使用 Python 的 json 和 pymysql 库来实现解析 json 数据并写入到 MySQL 数据库中。 首先,需要安装 pymysql 库,可以使用以下命令进行安装: ``` pip install pymysql ``` 接着,假设我们有一个名为 data.json 的 json 数据文件,其中包含了一些用户信息,如下所示: ``` { "users": [ { "name": "Alice", "age": 25, "email": "alice@example.com" }, { "name": "Bob", "age": 30, "email": "bob@example.com" }, { "name": "Charlie", "age": 35, "email": "charlie@example.com" } ] } ``` 我们可以使用以下代码将其中的用户信息写入到 MySQL 数据库中: ```python import json import pymysql # 读取 json 文件 with open('data.json', 'r') as f: data = json.load(f) # 连接 MySQL 数据库 connection = pymysql.connect(host='localhost', user='root', password='password', database='test') # 获取游标 cursor = connection.cursor() # 遍历用户信息并插入到数据库中 for user in data['users']: name = user['name'] age = user['age'] email = user['email'] sql = f"INSERT INTO users (name, age, email) VALUES ('{name}', {age}, '{email}')" cursor.execute(sql) # 提交事务并关闭连接 connection.commit() connection.close() ``` 在上面的代码中,我们首先使用 json.load() 函数读取 json 文件中的数据,然后使用 pymysql.connect() 函数连接到 MySQL 数据库,接着使用 cursor.execute() 函数执行插入语句将用户信息插入到数据库中,最后使用 connection.commit() 函数提交事务并关闭连接。 需要注意的是,上述代码中使用了字符串插值来构造 SQL 语句,这种方式存在 SQL 注入的风险,应该避免直接使用用户输入的数据来构造 SQL 语句。更加安全的方式是使用参数化查询,如下所示: ```python # 使用参数化查询插入数据 sql = "INSERT INTO users (name, age, email) VALUES (%s, %s, %s)" values = [(user['name'], user['age'], user['email']) for user in data['users']] cursor.executemany(sql, values) ``` ### 回答2: Python可以使用内置的json库来解析json数据,并且可以使用第三方库如`pymysql`来连接和操作MySQL数据库。 首先,我们需要安装`pymysql`库,可以使用以下命令进行安装: ``` pip install pymysql ``` 然后,我们需要导入以下库: ```python import json import pymysql ``` 接下来,我们假设已经有一个名为`data.json`的json文件,其中包含要写入MySQL数据库的数据。我们可以使用以下代码来解析json数据: ```python with open('data.json', 'r') as file: data = json.load(file) ``` 然后,我们需要连接到MySQL数据库。假设MySQL数据库位于本地,并具有以下凭据:主机名为`localhost`,用户名为`root`,密码为`password`,数据库名为`mydatabase`。我们可以使用以下代码连接到数据库: ```python connection = pymysql.connect(host='localhost', user='root', password='password', db='mydatabase', charset='utf8mb4', cursorclass=pymysql.cursors.DictCursor) ``` 接下来,我们可以插入数据到数据库中。假设我们要将数据插入名为`mytable`的表中。我们可以使用以下代码来实现: ```python with connection.cursor() as cursor: for item in data: # 根据数据结构进行修改 sql = "INSERT INTO mytable (column1, column2, column3) VALUES (%s, %s, %s)" cursor.execute(sql, (item['value1'], item['value2'], item['value3'])) connection.commit() ``` 最后,我们需要关闭数据库连接: ```python connection.close() ``` 以上就是使用Python解析json数据并写入MySQL数据库的基本步骤。请根据实际情况修改代码中的数据结构和表名。 ### 回答3: Python解析JSON数据并将其写入MySQL数据库的过程如下: 首先,我们需要导入必要的库:`json`和`mysql.connector`。 接下来,我们打开JSON文件并将其读取为一个字符串。可以使用内置的`open()`函数打开文件,并使用`.read()`方法读取文件内容。得到的结果是一个包含整个JSON数据的字符串。 然后,将字符串解析为JSON对象。使用`json.loads()`函数将字符串作为参数,返回一个JSON对象。这个JSON对象可以像字典一样访问和操作。 接下来,连接到MySQL数据库。使用`mysql.connector.connect()`函数建立与MySQL数据库的连接。需要提供正确的主机名、用户名、密码和数据库名称。 然后,创建一个游标对象。使用连接对象的`cursor()`方法创建一个游标对象。这个游标对象用于执行SQL语句和操作数据库。 接下来,创建一个INSERT查询。将JSON对象中的数据提取出来,并使用`INSERT INTO`语句插入到表中。确保使用正确的表名和列名。 然后,执行INSERT查询。使用游标对象的`execute()`方法执行INSERT查询。 接下来,提交更改。使用连接对象的`commit()`方法提交更改,以保存对数据库的更新。 最后,关闭连接。使用连接对象的`close()`方法关闭与数据库的连接。 在代码的最后,你可以选择将所有的步骤封装在一个函数中,以便更方便地重用和调用。 这就是使用Python解析JSON数据并将其写入MySQL数据库的基本过程。希望对你有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值