mysql 面试问题大全

1、MySQL的复制原理以及流程

基本原理流程

1)3个线程以及之间的关联;

1> 主:binlog线程——记录下所有改变了数据库数据的语句,放进master上的binlog中;

2> 从:io线程——在使用start slave 之后,负责从master上拉取 binlog 内容,放进自己的relay log中;

3> 从:sql执行线程——执行relay log中的语句;

2)MySQL如何保证复制过程中数据一致性及减少数据同步延时

一致性主要有以下几个方面:

(1)在 MySQL5.5 以及之前, slave 的 SQL 线程执行的
relay log 的位置只能保存在文件( relay-log.info)里面,并且该文件默认每执行 10000 次事务做一次同步到磁盘, 这意味着 slave 意外 crash 重启时, SQL 线程执行到的位置和数据库的数据是不一致的,将导致复制报错,如果不重搭复制,则有可能会导致数据不一致。 MySQL 5.6 引入参数 relay_log_info_repository,将该参数设置为 TABLE 时, MySQL 将
SQL 线程执行到的位置存到mysql.slave_relay_log_info 表,这样更新该表的位置和 SQL 线程执行的用户事务绑定成一个事务,这样 slave 意外宕机后, slave 通过 innodb 的崩溃恢复可以把 SQL 线程执行到的位置和用户事务恢复到一致性的状态。

(2)MySQL 5.6 引入 GTID 复制,每个 GTID 对应的事务在每个实例上面最多执行一次, 这极大地提高了复制的数据一致性;

(3) MySQL 5.5 引入半同步复制, 用户安装半同步复制插件并且开启参数后,设置超时时间,可保证在超时时间内如果 binlog 不传到 slave 上面,那么用户提交事务时不会返回,直到超时后切成异步复制,但是如果切成异步之前用户线程提交时在 master 上面等待的时候,事务已经提交,该事务对 master上面的其他 session 是可见的,如果这时 master 宕机,那么到 slave 上面该事务又不可见了,该问题直到 5.7 才解决;

(4) MySQL 5.7 引入无损半同步复制,引入参 rpl_semi_sync_master_wait_point,该参数默认为
after_sync,指的是在切成半同步之前,事务不提交,而是接收到 slave 的 ACK 确认之后才提交该事务,从此,复制真正可以做到无损的了。

(5)可以再说一下 5.7 的无损复制情况下, master 意外宕机,重启后发现有 binlog没传到 slave 上面,这部分 binlog 怎么办?分 2 种情况讨论, 1 宕机时已经切成异步了, 2 是宕机时还没切成异步? 这个怎么判断宕机时有没有切成异步呢? 分别怎么处理?

延时性:

5.5 是单线程复制, 5.6 是多库复制(对于单库或者单表的并发操作是没用的), 5.7 是真正意义的多线程复制,它的原理是基于 group commit,
只要master 上面的事务是 group commit 的,那 slave 上面也可以通过多个 worker线程去并发执行。 和 MairaDB10.0.0.5 引入多线程复制的原理基本一样。

3)second_behind_master是怎么计算出来的?

从库sql线程执行当前event的时间减去主库上产生event的时间

2、MySQL中myisam与innodb的区别,至少5点

(1)、问5点不同;

1>.InnoDB支持事物,而MyISAM不支持事物

2>.InnoDB支持行级锁,而MyISAM支持表级锁

3>.InnoDB支持MVCC, 而MyISAM不支持

4>.InnoDB支持外键,而MyISAM不支持

5>.InnoDB不支持全文索引,而MyISAM支持。

(2)、innodb引擎的4大特性

插入缓冲(insert buffer),二次写(double
write),自适应哈希索引(ahi),预读(read
ahead)

(3)、2者select count(*)哪个更快,为什么

myisam更快,因为myisam内部维护了一个计数器,可以直接调取。

(4)、各种不同 mysql 版本的Innodb的改进

MySQL5.6 下 Innodb 引擎的主要改进:

1>. online DDL

2>.memcached NoSQL 接口

3>.transportable tablespace( alter table discard/import tablespace)

4>.MySQL 正常关闭时,可以 dump 出 buffer pool 的( space, page_no),重启时
reload,加快预热速度

5>.索引和表的统计信息持久化到
mysql.innodb_table_stats 和mysql.innodb_index_stats,可提供稳定的执行计划

6>.Compressed row format 支持压缩表

MySQL 5.7 innodb 引擎主要改进

1>.修改 varchar 字段长度有时可以使用 online DDL

2>.Buffer pool 支持在线改变大小

3>.Buffer pool 支持导出部分比例

4>. 支持新建 innodb
tablespace,并可以在其中创建多张表

5>.磁盘临时表采用
innodb 存储,并且存储在 innodb temp tablespace 里面,以前是 myisam 存储

6>.透明表空间压缩功能

7>.查看索引的使用情况及冗余索引(sys数据库)

schema_index_statistics

schema_redundant_indexes

schema_unused_indexes

(5)、2 者的索引的实现方式

都是 B+树索引, Innodb 是索引组织表, myisam 是堆表, 索引组织表和堆表的区别要熟悉

(6)、MySQL5.7的新特性

(7)、Innodb行格式种类

redundant:

最老的innodb行格式

compact:

从MySQL
5.0.3开始的默认innodb行格式。用位图和数字来分别代表null值和varchar等变长字段长度。

对于varchar列,若列长度<=255字节,用额外1字节保存;否则2字节。

对于BLOB、varchar、text等变长字段,将前768字节存储在原page中,剩余部分存储在溢出页。

dynamic:

把text,blob等大字段直接放在其他page中,只在原page中存储20字节指针

compress:

把数据和索引从16KB压缩到指定大小,压缩效率50%以上

mysql> alter table salaries row_format=compressed;

3、MySQL中varchar与char的区别以及varchar(50)中的50代表的涵义

(1)、varchar与char的区别

在单字节字符集下, char( N) 在内部存储的时候总是定长,
而且没有变长字段长度列表中。 在多字节字符集下面, char(N)如果存储的字节数超过 N,那么 char( N)将和 varchar( N)没有区别。在多字节字符集下面,如果存储的字节数少于 N,那么存储 N 个字节,后面补空格,补到 N 字节长度。 都存储变长的数据和变长字段长度表。 varchar(N)无论是什么字节字符集,都是变长的,即都存储变长数据和变长字段长度列表。

(2)、varchar(50)中50的涵义

5.0版本以上,varchar(50)表示最多存放50个字符,varchar(50)和(200)存储hello所占空间一样,但后者在排序时会消耗更多内存,因为order by col采用fixed_length计算col长度(memory引擎也一样)。在早期 MySQL 版本中( 4.0版本以下 ),
50 代表字节数。

(3)、int(20)中20的涵义

是指显示字符的长度

不影响内部存储,只是影响带 zerofill 定义的 int 时,前面补多少个 0,易于报表展示

INT(3) 和 INT(10)本身没有区别,但是加上(M)值后,会有显示宽度的设置。

int (10) 显示结果为0000000010

int (3) 显示结果为010

例如:

create table t (t int(3) zerofill,id int(3));

insert into t
values(1,1),(10,10),(100,100),(1000,1000),(100000,100000);

select * from t;

±-------±-------+

| t      |
id     |

±-------±-------+

|    001
|      1 |

|    010
|     10 |

|    100 |    100
|

|   1000 |   1000 |

| 100000 | 100000 |

±-------±-------+

就是显示的长度不一样而已 都是占用四个字节的空间

下面的表显示了需要的每个整数类型的存储和范围。

类型

字节

最小值

最大值

(带符号的/无符号的)

(带符号的/无符号的)

TINYINT

1

-128

127

0

255

SMALLINT

2

-32768

32767

0

65535

MEDIUMINT

3

-8388608

8388607

0

16777215

INT

4

-2147483648

2147483647

0

4294967295

BIGINT

8

-9223372036854775808

9223372036854775807

0

18446744073709551615

MySQL的五种日期和时间类型

日期时间类型

占用空间

日期格式

最小值

最大值

零值表示

DATETIME

8 bytes

YYYY-MM-DD HH:MM:SS

1000-01-01 00:00:00

9999-12-31 23:59:59

0000-00-00 00:00:00

TIMESTAMP

4 bytes

YYYY-MM-DD HH:MM:SS

19700101080001

2038 年的某个时刻

0

DATE

4 bytes

YYYY-MM-DD

1000-01-01

9999-12-31

0000-00-00

TIME

3 bytes

HH:MM:SS

-838:59:59

838:59:59

0:00:00

YEAR

1 bytes

YYYY

1901

2155

0

(4)、mysql为什么这么设计

对大多数应用没有意义,只是规定一些工具用来显示字符的个数;int(1)和int(20)存储和计算均一样;

4、问了innodb的事务与日志的实现方式

(1)、有多少种日志;

错误日志:记录出错信息,也记录一些警告信息或者正确的信息。

查询日志:记录所有对数据库请求的信息,不论这些请求是否得到了正确的执行。

慢查询日志:设置一个阈值,将运行时间超过该值的所有SQL语句都记录到慢查询的日志文件中。

二进制日志:记录对数据库执行更改的所有操作。

中继日志:从库的relay log

事务日志:redo和undo

(2)、事物的4种隔离级别

隔离级别

读未提交(RU)

读已提交(RC)

可重复读(RR)

串行

Read Uncommitted:可以读取其他 session 未提交的脏数据。

Read Committed:允许不可重复读取,但不允许脏读取。提交后,其他会话可以看到提交的数据。

Repeatable Read: 禁止不可重复读取和脏读取、以及幻读(innodb 独有)。

Serializable: 事务只能一个接着一个地执行,但不能并发执行。事务隔离级别最高。

不同的隔离级别有不同的现象,并有不同的锁定/并发机制,隔离级别越高,数据库的并发性就越差。

(3)、日志的存放形式

redo:在页修改的时候,先写到
redo log buffer 里面, 然后写到 redo log 的文件系统缓存里面(fwrite),然后再同步到磁盘文件( fsync)。

Undo:在 MySQL5.5 之前, undo 只能存放在 ibdata文件里面, 5.6 之后,可以通过设置 innodb_undo_tablespaces 参数把 undo log 存放在 ibdata之外。

(4)、事务是如何通过日志来实现的,说得越深入越好

基本流程如下:

因为事务在修改页时,要先记 undo,在记 undo 之前要记 undo 的 redo, 然后修改数据页,再记数据页修改的redo。 Redo(里面包括 undo
的修改) 一定要比数据页先持久化到磁盘。 当事务需要回滚时,因为有 undo,可以把数据页回滚到前镜像的状态,崩溃恢复时,如果 redo log 中事务没有对应的 commit 记录,那么需要用 undo把该事务的修改回滚到事务开始之前。 如果有 commit 记录,就用 redo 前滚到该事务完成时并提交掉。

5、问了MySQL binlog的几种日志录入格式以及区别

(1)、binlog的日志格式的种类和分别

(2)、适用场景;

(3)、结合第一个问题,每一种日志格式在复制中的优劣。

Statement:每一条会修改数据的sql都会记录在binlog中。

优点:不需要记录每一行的变化,减少了binlog日志量,节约了IO,提高性能。(相比row能节约多少性能 与日志量,这个取决于应用的SQL情况,正常同一条记录修改或者插入row格式所产生的日志量还小于Statement产生的日志量,但是考虑到如果带条 件的update操作,以及整表删除,alter表等操作,ROW格式会产生大量日志,因此在考虑是否使用ROW格式日志时应该跟据应用的实际情况,其所 产生的日志量会增加多少,以及带来的IO性能问题。)

缺点:由于记录的只是执行语句,为了这些语句能在slave上正确运行,因此还必须记录每条语句在执行的时候的
一些相关信息,以保证所有语句能在slave得到和在master端执行时候相同
的结果。另外mysql 的复制,像一些特定函数功能,slave可与master上要保持一致会有很多相关问题(如sleep()函数,
last_insert_id(),以及user-defined functions(udf)会出现问题).

使用以下函数的语句也无法被复制:

  • LOAD_FILE()

  • UUID()

  • USER()

  • FOUND_ROWS()

  • SYSDATE() (除非启动时启用了 --sysdate-is-now 选项)

同时在INSERT …SELECT 会产生比 RBR 更多的行级锁

2)Row:不记录sql语句上下文相关信息,仅保存哪条记录被修改。

优点: binlog中可以不记录执行的sql语句的上下文相关的信息,仅需要记录那一条记录被修改成什么了。所以rowlevel的日志内容会非常清楚的记录下 每一行数据修改的细节。而且不会出现某些特定情况下的存储过程,或function,以及trigger的调用和触发无法被正确复制的问题

缺点:所有的执行的语句当记录到日志中的时候,都将以每行记录的修改来记录,这样可能会产生大量的日志内容,比 如一条update语句,修改多条记录,则binlog中每一条修改都会有记录,这样造成binlog日志量会很大,特别是当执行alter table之类的语句的时候,由于表结构修改,每条记录都发生改变,那么该表每一条记录都会记录到日志中。

3)Mixed: 是以上两种level的混合使用,一般的语句修改使用statment格式保存binlog,如一些函数,statement无法完成主从复制的操作,则 采用row格式保存binlog,MySQL会根据执行的每一条具体的sql语句来区分对待记录的日志形式,也就是在Statement和Row之间选择 一种.新版本的MySQL中队row level模式也被做了优化,并不是所有的修改都会以row level来记录,像遇到表结构变更的时候就会以statement模式来记录。至于update或者delete等修改数据的语句,还是会记录所有行的 变更。

4)Mysql binlog日志有三种格式,分别为ROW、Statement以及Mixed.

Mixed默认以statement格式记录,但在以下六种情况下会转化为row格式:

第一种情况:NDB引擎,表的增删改的DML操作会以row格式记录

第二种情况:SQL语句里包含UUID()函数

第三种情况:SQL语句里使用了用户定义函数(UDF)

第四种情况:包含了insert delayed语句

第五种情况:自增字段被更新

第六种情况:使用了临时表

6、问了下MySQL数据库cpu飙升到500%的话他怎么处理?

当 cpu 飙升到 500%时,先用操作系统命令 top 命令观察是不是 mysqld 占用导致的,如果不是,找出占用高的进程,并进行相关处理。如果是 mysqld 造成的, show processlist,看看里面跑的 session 情况,是不是有消耗资源的 sql 在运行。找出消耗高的 sql,看看执行计划是否准确, index 是否缺失,或者实在是数据量太大造成。一般来说,肯定要 kill 掉这些线程(同时观察 cpu
使用率是否下降),等进行相应的调整(比如说加索引、改 sql、改内存参数)之后,再重新跑这些
SQL。也有可能是每个 sql 消耗资源并不多,但是突然之间,有大量的 session 连进来导致 cpu 飙升,这种情况就需要跟应用一起来分析为何连接数会激增,再做出相应的调整,比如说限制连接数等

7、sql优化

(1)、explain出来的各种item的意义

id:每个被独立执行的操作的标志,表示对象被操作的顺序。一般来说, id 值大,先被执行;如果 id 值相同,则顺序从上到下。

select_type:查询中每个 select 子句的类型。

table:名字,被操作的对象名称,通常的表名(或者别名),但是也有其他格式。

partitions:匹配的分区信息。

type:join 类型。

possible_keys:列出可能会用到的索引。

key:实际用到的索引。

key_len:用到的索引键的平均长度,单位为字节。

ref:表示本行被操作的对象的参照对象,可能是一个常量用 const 表示,也可能是其他表的

key 指向的对象,比如说驱动表的连接列。

rows:估计每次需要扫描的行数。

filtered:rows*filtered/100 表示该步骤最后得到的行数(估计值)。

extra:重要的补充信息。

(2)、profile的意义以及使用场景

Profile 用来分析 sql 性能的消耗分布情况。当用 explain 无法解决慢 SQL 的时候,需要用profile 来对 sql 进行更细致的分析,找出 sql 所花的时间大部分消耗在哪个部分,确认 sql的性能瓶颈。

(3)、explain 中的索引问题

Explain 结果中,一般来说,要看到尽量用 index(type 为 const、
ref 等, key 列有值),避免使用全表扫描(type 显式为 ALL)。比如说有
where 条件且选择性不错的列,需要建立索引。被驱动表的连接列,也需要建立索引。被驱动表的连接列也可能会跟
where 条件列一起建立联合索引。当有排序或者 group by 的需求时,也可以考虑建立索引来达到直接排序和汇总的需求。

(4)、为什么说LOAD DATA导入速度比SOURCE快很多倍呢,这是因为数据库执行SQL语句的时候会先校验语法,然后优化SQL,最后再执行。但是LOAD DATA导入的纯数据,于是就跳过了SQL的校验和优化,导入的速度也就大大提升了。

8、备份计划,mysqldump以及xtranbackup的实现原理

(1)、备份计划

视库的大小来定,一般来说 100G 内的库,可以考虑使用
mysqldump 来做,因为 mysqldump更加轻巧灵活,备份时间选在业务低峰期,可以每天进行都进行全量备份(mysqldump 备份出来的文件比较小,压缩之后更小)。100G 以上的库,可以考虑用 xtranbackup 来做,备份速度明显要比 mysqldump 要快。一般是选择一周一个全备,其余每天进行增量备份,备份时间为业务低峰期。

(2)、备份恢复时间

物理备份恢复快,逻辑备份恢复慢

这里跟机器,尤其是硬盘的速率有关系,以下列举几个仅供参考

20G的2分钟(mysqldump)

80G的30分钟(mysqldump)

111G的30分钟(mysqldump)

288G的3小时(xtra)

3T的4小时(xtra)

逻辑导入时间一般是备份时间的5倍以上

(3)、备份恢复失败如何处理

首先在恢复之前就应该做足准备工作,避免恢复的时候出错。比如说备份之后的有效性检查、权限检查、空间检查等。如果万一报错,再根据报错的提示来进行相应的调整。

(4)、mysqldump和xtrabackup实现原理

mysqldump

mysqldump 属于逻辑备份。加入–single-transaction 选项可以进行一致性备份。后台进程会先设置
session 的事务隔离级别为 RR(SET SESSION TRANSACTION ISOLATION
LEVEL REPEATABLE READ),开启一个事务,读取一致性快照(START TRANSACTION
/*!40100 WITH CONSISTENTSNAPSHOT */),这样就保证了该事务里读到的数据都是事务事务时候的快照。之后再把表的数据读取出来。
如果加上–master-data=1 的话,在刚开始的时候还会加一个数据库的读锁(FLUSH TABLES WITH READ LOCK),等开启事务后,再记录下数据库此时 binlog 的位置(show master status),马上解锁(UNLOCK TABLES),再读取表的数据。等所有的数据都已经导完,就可以结束事务

总结如下

当master_data和 single_transaction 同时使用时,先加全局读锁,然后设置事务一致性和使用一致性快照开始事务,然后马上就取消锁,然后执行导出。过程如下

FLUSH TABLES WITH READ LOCK

SET SESSION TRANSACTION ISOLATION LEVEL REPEATABLE READ

START TRANSACTION /*!40100 WITH CONSISTENT SNAPSHOT */

SHOW MASTER
STATUS        – 这一步就是取出 binlog index and position

UNLOCK TABLES

备份test库的2张表t1和yang,日志记录如下

SAVEPOINT sp

show table status like ‘t1’

show create table t1

show fields from t1

SELECT /*!40001 SQL_NO_CACHE */ * FROM t1

use test

select @@collation_database

SHOW TRIGGERS LIKE ‘t1’

SHOW CREATE TRIGGER abc

ROLLBACK TO SAVEPOINT sp

show table status like ‘yang’

show create table yang

show fields from yang

SELECT /*!40001 SQL_NO_CACHE */ * FROM yang

use test

select @@collation_database

SHOW TRIGGERS LIKE ‘yang’

ROLLBACK TO SAVEPOINT sp

RELEASE SAVEPOINT sp   # 删除一个事务的保存点,当没有一个保存点执行这句语句时,会抛出一个异常。

ERROR 1305 (42000): SAVEPOINT sp does not exist

Xtrabackup:

xtrabackup 属于物理备份,直接拷贝表空间文件,同时不断扫描产生的 redo日志检查点的lsn并保存下来。最后完成 innodb 的备份后,会做一个 FLUSH
NO_WRITE_TO_BINLOG TABLES的操作(老版本在有 bug,在5.6 上不做此操作会丢数据),确保所有的 redo log 都已经落盘(涉及到事务的两阶段提交概念,因为 xtrabackup 并不拷贝 binlog,所以必须保证所有的 redo log 都落盘,否则可能会丢最后一组提交事务的数据)。这个时间点就是 innodb 完成备份的时间点,数据文件虽然不是一致性的,但是有这段时间的 redo 就可以让数据文件达到一致性(恢复的时候做的事情)。要先flush tables with read lock,把
myisam 等其他引擎的表给备份出来,先(FLUSH
NO_WRITE_TO_BINLOG ENGINE LOGS)该操作会将InnoDB层的重做日志持久化到磁盘然后再进行拷贝,备份完后解锁(UNLOCK TABLES)。 这样就做到了完美的热备。

9、mysqldump中备份出来的sql,如果我想sql文件中,一行只有一个insert…value()的话,怎么办?如果备份需要带上master的复制点信息怎么办?

–skip-extended-insert

[root@helei-zhuanshu ~]# mysqldump -uroot -p helei
–skip-extended-insert

Enter password:

KEY idx_c1 (c1),

KEY idx_c2 (c2)

) ENGINE=InnoDB AUTO_INCREMENT=51 DEFAULT CHARSET=latin1;

/*!40101 SET character_set_client = @saved_cs_client */;

– Dumping data for table helei

LOCK TABLES helei WRITE;

/*!40000 ALTER TABLE helei DISABLE KEYS */;

INSERT INTO helei VALUES (1,32,37,38,‘2016-10-18
06:19:24’,‘susususususususususususu’);

INSERT INTO helei VALUES (2,37,46,21,‘2016-10-18
06:19:24’,‘susususususu’);

INSERT INTO helei VALUES (3,21,5,14,‘2016-10-18
06:19:24’,‘susu’);

10、500台db,在最快时间之内重启

可以使用批量 ssh 工具 pssh 来对需要重启的机器执行重启命令。
也可以使用 salt(前提是客户端有安装 salt)或者 ansible( ansible 只需要 ssh 免登通了就行)等多线程工具同时操作多台服务器

11、innodb的读写参数优化

(1)、读取参数

global buffer 以及 local buffer;

Global buffer:

Innodb_buffer_pool_size

innodb_log_buffer_size

innodb_additional_mem_pool_size

local buffer(下面的都是 server 层的 session 变量,不是 innodb 的):

Read_buffer_size

Join_buffer_size

Sort_buffer_size

Key_buffer_size

Binlog_cache_size

(2)、写入参数

innodb_flush_log_at_trx_commit

innodb_buffer_pool_size

insert_buffer_size

innodb_double_write

innodb_write_io_thread

innodb_flush_method

innodb_buffer_pool_instances

innodb_file_per_table

(3)、与IO相关的参数

innodb_write_io_threads = 8

innodb_read_io_threads = 8

innodb_thread_concurrency = 0

Sync_binlog

Innodb_flush_log_at_trx_commit

Innodb_lru_scan_depth

Innodb_io_capacity

Innodb_io_capacity_max

innodb_log_buffer_size

innodb_max_dirty_pages_pct

(4)、缓存参数以及缓存的适用场景

query cache/query_cache_type

并不是所有表都适合使用query cache。造成query
cache失效的原因主要是相应的table发生了变更

第一个:读操作多的话看看比例,简单来说,如果是用户清单表,或者说是数据比例比较固定,比如说商品列表,是可以打开的,前提是这些库比较集中,数据库中的实务比较小。

第二个:我们“行骗”的时候,比如说我们竞标的时候压测,把query cache打开,还是能收到qps激增的效果,当然前提示前端的连接池什么的都配置一样。大部分情况下如果写入的居多,访问量并不多,那么就不要打开,例如社交网站的,10%的人产生内容,其余的90%都在消费,打开还是效果很好的,但是你如果是qq消息,或者聊天,那就很要命。

第三个:小网站或者没有高并发的无所谓,高并发下,会看到很多qcache 锁 等待,所以一般高并发下,不建议打开query cache

12、你是如何监控你们的数据库的?你们的慢日志都是怎么查询的?

监控的工具有很多,例如zabbix,lepus,我这里用的是lepus

13、你是否做过主从一致性校验,如果有,怎么做的,如果没有,你打算怎么做?

主从一致性校验有多种工具 例如checksum、mysqldiff、pt-table-checksum等

大表加字段pt-online-schema-change关键参数

(1)no-check-replication-filters默认yes。如果工具检测到服务器选项中有任何复制相关的筛选,如指定binlog_ignore_db和replicate_do_db此类。发现有这样的筛选,工具会报错且退出。因为如果更新的表Master上存在,而Slave上不存在,会导致复制的失败。使用–no-check-replication-filters选项来禁用该检查。

14、你们数据库是否支持emoji表情,如果不支持,如何操作?

如果是utf8字符集的话,需要升级至utf8_mb4方可支持

15、你是如何维护数据库的数据字典的?

这个大家维护的方法都不同,我一般是直接在生产库进行注释,利用工具导出成excel方便流通。

16、你们是否有开发规范,如果有,如何执行的

有,开发规范网上有很多了,可以自己看看总结下

17、表中有大字段X(例如:text类型),且字段X不会经常更新,以读为为主,请问

(1)、您是选择拆成子表,还是继续放一起;

(2)、写出您这样选择的理由。

答:拆带来的问题:连接消耗 + 存储拆分空间;不拆可能带来的问题:查询性能;

如果能容忍拆分带来的空间问题,拆的话最好和经常要查询的表的主键在物理结构上放置在一起(分区) 顺序IO,减少连接消耗,最后这是一个文本列再加上一个全文索引来尽量抵消连接消耗

如果能容忍不拆分带来的查询性能损失的话:上面的方案在某个极致条件下肯定会出现问题,那么不拆就是最好的选择

18、MySQL中InnoDB引擎的行锁是通过加在什么上完成(或称实现)的?为什么是这样子的?

答:InnoDB是基于索引来完成行锁

例: select * from tab_with_index where id = 1 for update;

for update 可以根据条件来完成行锁锁定,并且 id 是有索引键的列,

如果 id 不是索引键那么InnoDB将完成表锁,并发将无从谈起

19、如何从mysqldump产生的全库备份中只恢复某一个库、某一张表?

全库备份

[root@HE1 ~]# mysqldump -uroot -p --single-transaction -A
–master-data=2 >dump.sql

只还原erp库的内容

[root@HE1 ~]# mysql -uroot -pMANAGER erp --one-database
<dump.sql

可以看出这里主要用到的参数是–one-database简写-o的参数,极大方便了我们的恢复灵活性

那么如何从全库备份中抽取某张表呢,全库恢复,再恢复某张表小库还可以,大库就很麻烦了,那我们可以利用正则表达式来进行快速抽取,具体实现方法如下:

从全库备份中抽取出t表的表结构

[root@HE1 ~]# sed -e’/./{H;$!d;}’ -e ‘x;/CREATE TABLE
t/!d;q’ dump.sql

DROP TABLE IF EXISTSt;

/*!40101
SET@saved_cs_client     =@@character_set_client */;

/*!40101 SETcharacter_set_client = utf8 */;

CREATE TABLE t (

id int(10) NOT NULL AUTO_INCREMENT,

age tinyint(4) NOT NULL DEFAULT ‘0’,

name varchar(30) NOT NULL DEFAULT ‘’,

PRIMARY KEY (id)

) ENGINE=InnoDBAUTO_INCREMENT=4 DEFAULT CHARSET=utf8;

/*!40101 SETcharacter_set_client = @saved_cs_client */;

从全库备份中抽取出t表的内容

[root@HE1 ~]# grep’INSERT INTO t’ dump.sql

INSERT INTO tVALUES
(0,0,’’),(1,0,‘aa’),(2,0,‘bbb’),(3,25,‘helei’);

20:MySQL如何避免使用swap

主要讲讲我们作为DBA,怎样尽量避免MySQL惨遭swap的毒手。

首先我们要了解点基础的东西,比如说为什么会产生swap。假设我们的物理内存是16G,swap是4G。如果MySQL本身已经占用了12G物理内存,而同时其他程序或者系统模块又需要6G内存,这时候操作系统就可能把MySQL所拥有的一部分地址空间映射到swap上去。

cp一个大文件,或用mysqldump导出一个很大的数据库的时候,文件系统往往会向Linux申请大量的内存作为cache,一不小心就会导致了使用swap。这个情景比较常见,以下是最简单的三个调整方法:

1、/proc/sys/vm/swappiness的内容改成0(临时),/etc/sysctl.conf上添加vm.swappiness=0(永久)

这个参数决定了Linux是倾向于使用swap,还是倾向于释放文件系统cache。在内存紧张的情况下,数值越低越倾向于释放文件系统cache。当然,这个参数只能减少使用swap的概率,并不能避免Linux使用swap。

2、修改MySQL的配置参数innodb_flush_method,开启O_DIRECT模式。

这种情况下,InnoDB的buffer pool会直接绕过文件系统cache来访问磁盘,但是redo log依旧会使用文件系统cache。值得注意的是,Redo log是覆写模式的,即使使用了文件系统的cache,也不会占用太多。

3、添加MySQL的配置参数memlock

这个参数会强迫mysqld进程的地址空间一直被锁定在物理内存上,对于os来说是非常霸道的一个要求。必须要用root帐号来启动MySQL才能生效。

还有一个比较复杂的方法,指定MySQL使用大页内存(Large
Page)。Linux上的大页内存是不会被换出物理内存的,和memlock有异曲同工之妙。具体的配置方法可以参考:http://harrison-fisk.blogspot.com/2009/01/enabling-innodb-large-pages-on-linux.html

开放性问题:据说是腾讯的

一个6亿的表a,一个3亿的表b,通过外健tid关联,你如何最快的查询出满足条件的第50000到第50200中的这200条数据记录。

1、如果A表TID是自增长,并且是连续的,B表的ID为索引

select * from a,b where a.tid = b.id and a.tid>500000
limit 200;

2、如果A表的TID不是连续的,那么就需要使用覆盖索引.TID要么是主键,要么是辅助索引,B表ID也需要有索引。

select * from b , (select tid from a limit 50000,200) a
where b.id = a .tid;

面试中其他的问题:

1、2 年 MySQL DBA 经验

其中许多有水分,一看到简历自我介绍,说公司项目的时候,会写上 linux 系统维护,mssql server 项目,或者 oracle data gard 项目,一般如果有这些的话,工作在 3 年到 4年的话,他的 2 年 MySQL DBA 管理经验,是有很大的水分的。刚开始我跟领导说,这些不用去面试了,肯定 mysql dba 经验不足,领导说先面面看看,于是我就面了,结果很多人卡在基础知识这一环节之上,比如:

(1)有的卡在复制原理之上

(2)有的卡在 binlog 的日志格式的种类和分别

(3)有的卡在 innodb 事务与日志的实现上。

(4)有的卡在 innodb 与 myisam 的索引实现方式的理解上面。

个人觉得如果有过真正的 2 年 mysql 专职 dba 经验,那么肯定会在 mysql 的基本原理上有所研究,因为很多问题都不得不让你去仔细研究各种细节,而自
己研究过的细节肯定会记忆深刻,别人问起一定会说的头头是道,起码一些最基本的关键参数比如Seconds_Behind_Master
为 60 这个值 60 的准确涵义,面试了 10+的 mysql dba,没有一个说的准确,有的说不知道忘记了,有的说是差了 60 秒,有的说是与主上执行时间延后了 60 秒。

2 、对于简历中写有熟悉 mysql
高可用方案

我一般先问他现在管理的数据库架构是什么,如果他只说出了主从,而没有说任何 ha的方案,那么我就可以判断出他没有实际的 ha 经验。不过这时候也不能就是 断定他不懂mysql 高可用,也许是没有实际机会去使用,那么我就要问 mmm 以及 mha 以及mm+keepalived
等的原理实现方式以及它们之间的优 势和不足了,一般这种情况下,能说出这个的基本没有。mmm 那东西好像不靠谱,据说不稳定,但是有人在用的,我只在虚拟机上面用过,和mysql-router 比较像,都是指定可写的机器和只读机器。

MHA 跨机房VIP配置,有两种方式

(1)拉光纤专线  把3个独立的机房弄成在一个VLAN里, 这样mha就跟在同一个机房里搭建一样了。主要是考虑keepalive不能跨网切换

(2)切换dns  这样就是把域名对应成 vip,需要切换时候就把域名对应的vip换掉就行

3 、对于简历中写有批量 MySQL
数据库服务器的管理经验

这个如果他说有的话,我会先问他们现在实际线上的 mysql 数据库数量有多少,分多少个节点组,最后问这些节点组上面的 slow log 是如何组合在一起来统计分析的。如果这些他都答对了,那么我还有一问,就是现在手上有 600 台数据库,新来的机器, Mysql 都安装好了,那么你如 何在最快的时间里面把这 600 台 mysql 数据库的
mysqld 服务启动起来。这个重点在于最快的时间,而能准确回答出清晰思路的只有 2 个人。slow log 分析:可以通过一个管理服务器定时去各台 MySQL 服务器上面 mv 并且 cp slowlog,然后分析入库,页面展示。最快的时间里面启动 600 台服务器: 肯定是多线程。 可以用 pssh, ansible 等多线程批量管理服务器的工具

4 、对于有丰富的 SQL 优化的经验

首先问 mysql 中 sql 优化的思路,如果能准备说出来, ok,那么我就开始问 explain的各种参数了,重点select_type, type,
possible_key, ref,rows,extra 等参数的各种值的含义,如果他都回答正确了,那么我再问
file sort 的含义以及什么时候会出现这个分析结果,如果这里他也回答对了,那么我就准备问 profile
分析了,如果这里他也答对了,那么我就会再问一个问 题,那是曾经 tx 问我的让我郁闷不已的问题,一个 6 亿的表 a,一个 3 亿的表 b,通过外间 tid 关联,你如何最快的查询出满足条件的第 50000 到第 50200中的这
200 条数据记录。

Explain 在上面的题目中有了,这里就不说了。如何最快的查询出满足条件的第 50000 到第 50200 中的这
200 条数据记录?这个我想不出来!

关于 explain 的各种参数,请参考: http://blog.csdn.net/mchdba/article/details/9190771

5、对于有丰富的数据库设计经验

这个对于数据库设计我真的没有太多的经验,我也就只能问问最基础的, mysql 中varchar(60) 60 是啥含义, int(30)中 30 是啥含义? 如果他都回答对了,那么我就问 mysql中为什么要这么设计呢?

如果他还回答对了,我就继续问 int(20)存储的数字的上限和下限是多少?这个问题难道了全部的 mysql dba 的应聘者,不得不佩服提出这个问题的金总的睿智啊,因为这个问题回答正确了,

那么他确实认认真真地研究了 mysql 的设计中关于字段类型的细节。至 于丰富的设计数据库的经验,不用着急,这不我上面还有更加厉害的 dba吗,他会搞明白的,那就跟我无关了。

varchar(60)的
60 表示最多可以存储 60 个字符。int(30)的 30 表示客户端显示这个字段的宽度。

为何这么设计?说不清楚,请大家补充 。 int(20)的上限为
2147483647(signed)或者4294967295(unsigned)。

6 、关于 mysql 参数优化的经验

首先问他它们线上 mysql 数据库是怎么安装的,如果说是 rpm
安装的,那么我就直接问调优参数了,如果是源码安装的,那么我就要问编译中的一些参数了,比如 my.cnf 以及存储引擎以及字符类型等等。然后从以下几个方面问起:

(1)mysql 有哪些 global 内存参数,有哪些 local 内存参数。

Global:

innodb_buffer_pool_size/innodb_additional_mem_pool_size/innodb_log_buffer_size/key_buffer_size/query_cache_size/table_open_cache/table_definition_cache/thread_cache_size

Local:

read_buffer_size/read_rnd_buffer_size/sort_buffer_size/join_buffer_size/binlog_cache_size/tmp_table_size/thread_stack/bulk_insert_buffer_size

(2)mysql 的写入参数需要调整哪些?重要的几个写参数的几个值得含义以及适用场景,

比如 innodb_flush_log_at_trx_commit 等。 (求补充)

sync_binlog 设置为 1,保证 binlog 的安全性。

innodb_flush_log_at_trx_commit:

0:事务提交时不将 redo
log buffer 写入磁盘(仅每秒进行 master
thread 刷新,安全性最差,性能最好)

1:事务提交时将 redo log
buffer 写入磁盘(安全性最好,性能最差, 推荐生产使用)

2:事务提交时仅将 redo
log buffer 写入操作系统缓存(安全性和性能都居中,当
mysql宕机但是操作系统不宕机则不丢数据,如果操作系统宕机,最多丢一秒数据)

innodb_io_capacity/innodb_io_capacity_max:看磁盘的性能来定。如果是 HDD 可以设置为 200-几百不等。如果是 SSD,推荐为 4000 左右。
innodb_io_capacity_max 更大一些。

innodb_flush_method 设置为 O_DIRECT。

(3)读取的话,那几个全局的 pool
的值的设置,以及几个 local 的 buffer 的设置。

Global:

innodb_buffer_pool_size:设置为可用内存的 50%-60%左右,如果不够,再慢慢上调。

innodb_additional_mem_pool_size:采用默认值 8M 即可。

innodb_log_buffer_size:默认值 8M 即可。

key_buffer_size:myisam 表需要的 buffer size,选择基本都用 innodb,所以采用默认的 8M 即可。

Local:

join_buffer_size: 当 sql 有 BNL 和 BKA 的时候,需要用的 buffer_size(plain index

scans, range index scans 的时候可能也会用到)。默认为 256k,建议设置为
16M-32M。

read_rnd_buffer_size:当使用 mrr 时,用到的 buffer。默认为 256k,建议设置为16-32M。

read_buffer_size:当顺序扫描一个 myisam 表,需要用到这个 buffer。或者用来决定memory table 的大小。或者所有的 engine 类型做如下操作:order by 的时候用 temporaryfile、 SELECT INTO … OUTFILE ‘filename’ 、 For caching
results of nested queries。默认为 128K,建议为 16M。

sort_buffer_size:
sql 语句用来进行 sort 操作(order
by,group by)的 buffer。如果 buffer 不够,则需要建立 temporary file。如果在 show global status 中发现有大量的 Sort_merge_passes 值,则需要考虑调大
sort_buffer_size。默认为 256k,建议设置为
16-32M。

binlog_cache_size: 表示每个 session 中存放 transaction 的 binlog 的 cache size。默认 32K。一般使用默认值即可。如果有大事务,可以考虑调大。

thread_stack: 每个进程都需要有,默认为 256K,使用默认值即可。

(4)还有就是著名的 query
cache 了,以及 query cache 的适用场景了,这里有一个陷阱,

就是高并发的情况下,比如双十一的时候, query cache 开还是不开,开了怎么保证高并发,不开又有何别的考虑?建议关闭,上了性能反而更差。

7、关于熟悉 mysql 的锁机制

gap 锁, next-key 锁,以及 innodb 的行锁是怎么实现的,以及 myisam 的锁是怎么实现的等

Innodb 的锁的策略为
next-key 锁,即 record lock+gap lock。是通过在 index 上加 lock 实现的,如果 index 为 unique index,则降级为 record lock,如果是普通 index,则为 next-key lock,如果没有 index,则直接锁住全表。 myisam 直接使用全表扫描。

8、 关于熟悉 mysql 集群的

我就问了 ndbd 的节点的启动先后顺序,再问配置参数中的内存配置几个重要的参数,再问 sql 节点中执行一个 join 表的
select 语句的实现流程是怎么走的? ok,能回答的也只有一个。

关于 mysql 集群入门资料,请参考: http://write.blog.csdn.net/postlist/1583151/all

9、 关于有丰富的备份经验的

就问 mysqldump 中备份出来的 sql,如果我想 sql 文件中,一行只有一个 insert … value()的话,怎么办?如果备份需要带上 master 的复制点信息怎么办?或者 xtrabackup 中如何

做到实时在线备份的?以及 xtrabackup 是如何做到带上
master 的复制点的信息的? 当前 xtrabackup 做增量备份的时候有何缺陷?能全部回答出来的没有一个,不过没有关系,只要回答出 mysqldump 或者xtrabackup 其中一个的也以。

1). --skip-extended-insert

2). --master-date=1

3). 因为 xtrabackup
是多线程,一个线程不停地在拷贝新产生的 redo 文件,另外的线程去备份数据库,当所有表空间备份完成的时候,它会执行 flush table with read lock 操作锁住所有表,然后执行
show master status; 接着执行 flush engine logs; 最后解锁表。执行 show master status; 时就能获取到 mster 的复制点信息,执行 flush engine logs 强制把redo 文件刷新到磁盘。

4). xtrabackup 增量备份的缺陷不了解,在线上用 xtrabackup 备份没有发现什么缺陷。

10 、关于有丰富的线上恢复经验的

就问你现在线上数据量有多大,如果是 100G,你用
mysqldump 出来要多久,然后 mysql进去又要多久,如果互联网不允许延时的话,你又怎么做到
恢复单张表的时候保证 nagios不报警。如果有人说 mysqldump 出来 1 个小时就 ok 了,那么我就要问问他 db 服务器是啥配置了,如果他说 mysql 进去 50 分钟搞定了,那么我也要问问他 db 机器啥配置了,如果是普通的吊丝 pc server,那么真实性,大家懂得。然后如果你用 xtrabackup 备份要多久,恢复要多久,大家都知道 copy-back 这一步要很久,那么你有没有办法对这一块优化。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值