MySQL实战——执行优化、运维优化、架构优化

本文深入探讨了MySQL数据库的执行优化,包括为何使用数据索引能提高查询效率,如何理解影响结果集和执行状态,以及如何分析和解决数据库异常。此外,还介绍了数据库异常分析流程,强调了监控和数据的重要性。文中提到了MySQL运维优化的内存使用、存储引擎选择和性能安全考量,并详细阐述了分库分表、主从架构和缓存方案在应对高并发和海量数据时的角色。最后,讨论了数据库架构优化和反范式设计的应用。
摘要由CSDN通过智能技术生成

前言

  • 本篇文章针对用户群为已经使用过 mysql 环境,并有一定开发经验的工程师。
  • 针对高并发,海量数据的互联网环境。
  • 本文语言为口语,非学术标准用语。
  • 以实战和解决具体问题为主要目标,非应试,非常规教育。
  • 非技术挑战,非高端架构师培训,请高手自动忽略。
  • 友情提醒,在校生学习本教程可能对成绩提高有害无益。

执行优化

为什么使用数据索引能提高效率

  • MySQL的数据索引(B+Tree)的存储是 有序的 、且能有效的 降低磁盘I/O次数
  • Hash索引的查询效率是寻址操作,在不考虑 哈希冲突 的情况下, 1 次查询即可获得数据所存储在磁盘上的地址。

但是Hash不支持 区间查询排序覆盖索引最左匹配原则向右模糊查询 等操作,仅支持 key-value 类型查询。不是本文重点。

  • 在进行索引分析和 SQL 优化时,可以将数据索引字段想象为 单一有序序列 ,并以此作为分析的基础。涉及到复合索引情况,复合索引按照索引顺序拼凑成一个字段,想象为单一有序序列,并以此作为分析的基础。
  • 一条数据查询只能使用一个索引,索引可以是多个字段合并的复合索引。但是一条数据查询不能使用多个索引。虽然MySQL 5.1 之后在你的查询使用到多列的多个索引情况下会帮你自动进行 索引合并(index merge) ,听起来好像是很好的功能,但是如果出现了 index intersect merge,那么一般同时也意味着我们的索引建立得不太合理,因为 index intersect merge 是可以通过建立 复合索引 进行更一步优化的。

认识影响结果集

  • 通过 Explain 分析 SQL,查看 rows 列内容。
  • 影响结果集数字是查询优化的重要中间数字,工程师在开发和调试过程中,应随时关注这一数字。
  • 慢SQL优化不光是要优化那些执行时间太长的SQL,往往那些高频执行的从较大的 影响结果集 中获得极少的 **返回数据行数(ReturnMaxRowCount)**这些SQL,更应该被优化。

理解执行状态

慢查询日志,关注重点如下:

  • 是否锁定,及锁定时间
    • 如存在锁定,则该慢查询通常是因锁定因素导致,本身无需优化,需解决锁定问题。
  • 影响结果集
    • 如影响结果集较大,显然是索引项命中存在问题,需要认真对待。
    • 这里显示的数字不一定准确,如果没有索引则是MySQL去读几个Page页然后计算平均每个Page页的数据行数去预算的。(PS:所以当表足够大的情况下扫全表 Explain 计算影响行数比 Count(*) 要快的多)。
  • 索引项使用
    • 不建议用 using index 做强制索引,如未如预期使用索引,建议重新斟酌表结构和索引设置。
  • Show processlist 执行状态监控(这是在数据库负载波动时经常进行的一项操作)
    • Sleep 状态
      • 通常代表资源未释放,如果是通过连接池,sleep 状态应该恒定在一定数量范围内。
      • 实战范例: 因数据写入/输出时(特别是输出到用户终端)未及时关闭数据库连接,导致因网络连接速度产生大量 sleep 连接,在网速出现异常时,数据库 too many connections 挂死。
    • Waiting for net, reading from net, writing to net
      • 偶尔出现无妨。
      • 如大量出现,迅速检查数据库到前端的网络连接状态和流量。
      • 案例: 因外挂程序,内网数据库大量读取,内网使用的百兆交换迅速爆满,导致大量连接阻塞在 waiting for net,数据库连接过多崩溃。
    • Locked 状态
      • 有更新操作锁定。
      • 通常使用 innodb ( 行锁 )可以很好的减少 locked 状态的产生,但是切记,更新操作要
        正确使用索引,即便是低频次更新操作也不能疏忽。如上影响结果集范例所示。
    • Copy to tmp table
      • 索引及现有结构无法涵盖查询条件,才会建立一个临时表来满足查询要求,产生巨大的恐怖的 i/o 压力。
      • 很可怕的搜索语句会导致这样的情况,如果是数据分析,或者半夜的周期数据清理任务,偶尔出现,可以允许。频繁出现务必优化之。
      • Copy to tmp table 通常与连表查询有关,建议逐渐习惯不使用连表查询。
    • Sending data
      • 并不是发送数据,别被这个名字所欺骗,这是从物理磁盘获取数据的进程,如果你的影响结果集较多,那么就需要从不同的磁盘碎片去抽取数据。
      • 偶尔出现该状态连接无碍。
      • 回到上面影响结果集的问题,一般而言,如果 sending data 连接过多,通常是某查询的影响结果集过大,也就是查询的索引项不够优化。
      • 前文提到影响结果集对 SQL 查询效率线性相关,主要就是针对这个状态的系统开销。
    • Storing result to query cache
      • 出现这种状态,如果频繁出现,使用 set profiling 分析,如果存在资源开销在SQL 整体开销的比例过大(即便是非常小的开销,看比例),则说明 query cache碎片较多。
      • 使用 flush query cache 可即时清理,也可以做成定时任务。
      • Query cache 参数可适当酌情设置。
    • Freeing items
      • 理论上这玩意不会出现很多。偶尔出现无碍。
      • 如果大量出现,内存,硬盘可能已经出现问题。比如硬盘满或损坏。
      • i/o 压力过大时,也可能出现 Free items 执行时间较长的情况。
    • Sorting for …
      • 和 Sending data 类似,结果集过大,排序条件没有索引化,需要在内存里排序,甚至需要创建临时结构排序。
    • 还有很多状态,遇到了,去查查资料。基本上我们遇到其他状态的阻塞较少,所以不关心。

数据库异常分析流程

  • 了解基本负载状况和运营状况
    • 基本运营状况
      • 当前每秒读请求。
      • 当前每秒写请求。
      • 当前在线用户。
      • 当前数据容量。
    • 基本负载情况
      • 学会使用这些指令(Top、Vmstat、uptime、iostat、df)。
      • Cpu 负载
        • 特别关注 i/o 压力( wa%)。
        • 多核负载分配。
      • 内存占用
        • Swap 分区是否被侵占。
        • 如 Swap 分区被侵占,物理内存是否较多空闲。
      • 磁盘状态
        • 硬盘满和 inode 节点满的情况要迅速定位和迅速处理。
    • 了解具体连接状况
      • 当前连接数。
      • 当前连接分布 show processlist。
        • 状态分布。
        • 雷同SQL分布。
      • 当前是否有较多慢查询日志。
    • 频繁度分析
      • 写频繁度
        • 如果 i/o 压力高,优先分析写入频繁度。
        • Mysqlbinlog 输出最新 binlog 文件,编写脚本拆分。
        • 最多写入的数据表是哪个。
        • 最多写入的数据 SQL 是什么。
        • 是否存在基于同一主键的数据内容高频重复写入。
      • 读取频繁度
        • 如果 cpu 资源较高,而 i/o 压力不高,优先分析读取频繁度。
        • 程序中在封装的 db 类增加抽样日志即可,抽样比例酌情考虑,以不显著影响系统负载压力为底线。
        • 最多读取的数据表是哪个。
        • 最多读取的数据 SQL 是什么。
          • 该 SQL 进行 explain 和 set profiling 判定,注意判定时需要避免 query cache 影响。
        • 是否存在同一个查询短期内频繁出现的情况 。
    • 抓大放小,解决显著问题
      • 不苛求解决所有优化问题,但是应以保证线上服务稳定可靠为目标。
      • 解决与评估要同时进行,新的策略或解决方案务必经过评估后上线。

实战案例:许多类似短信发送的业务,都需要在调用第三方接口前先在数据库写入一条数据,此时如 写入数据的事务没有提交然后就开始调用第三方的HTTP接口,等返回发送结果后再修改数据库状态,然后提交事务。这个流程正常业务下是没什么问题的,但是当高并发、第三方接口响应缓慢等异常情况,由于事务占用时间长,连接被占满,程序很快就会凉凉。

执行优化总结

  • 要学会怎样分析问题,而不是单纯拍脑袋优化。
  • 慢查询只是最基础的东西,要学会优化 0.01 秒的查询请求。
  • 当发生连接阻塞时,不同状态的阻塞有不同的原因,要找到原因,如果不对症下药,就会南辕北辙
    • 范例:如果本身系统内存已经超载,已经使用到了 swap,而还在考虑加大缓存来优化查询,那就是自寻死路了。
  • 影响结果集是非常重要的中间数据和优化指标,学会理解这一概念,理论上影响结果集与查询效率呈现非常紧密的线性相关。
  • 监测与跟踪要经常做,而不是出问题才做
    • 读取频繁度抽样监测
      • 全监测不要搞,i/o 吓死人。
      • 按照一个抽样比例抽样即可。
      • 针对抽样中发现的问题,可以按照特定 SQL 在特定时间内监测一段全查询记录,但仍要考虑 i/o 影响。
    • 写入频繁度监测
      • 基于 binlog 解开即可,可定时或不定时分析。
    • 微慢查询抽样监测
      • 高并发情况下,查询请求时间超过 0.01 秒甚至 0.005 秒的,建议酌情抽样记录。
    • 连接数预警监测
      • 连接数超过特定阈值的情况下,虽然数据库没有崩溃,建议记录相关连接状态。
  • 学会通过数据和监控发现问题,分析问题,而后解决问题顺理成章。特别是要学会
    在日常监控中发现隐患,而不是问题爆发了才去处理和解决。

MySQL 运维优化

存储引擎类型

  • Myisam 速度快,响应快。表级锁是致命问题。
  • Innodb 目前主流存储引擎
    • 行级锁
      • 务必注意影响结果集的定义是什么。
      • 行级锁会带来更新的额外开销,但是通常情况下是值得的。
    • 事务
      • 对 i/o 效率提升的考虑。
      • 对安全性的考虑。
  • HEAP 内存引擎
    • 频繁更新和海量读取情况下仍会存在锁定状况。

内存使用考量

  • 理论上,内存越大,越多数据读取发生在内存,效率越高。
  • Query cache 的使用
    • 如果前端请求重复度不高,或者应用层已经充分缓存重复请求,query cache不必设置很大。
    • 如果前端请求重复度较高,无应用层缓存,query cache 是一个很好的偷懒选择。
      • 对于中等以下规模数据库应用,偷懒不是一个坏选择。
      • 如果确认使用 query cache,记得定时清理碎片,flush query cache。
  • 要考虑到现实的硬件资源和瓶颈分布
  • 学会理解热点数据,并将热点数据尽可能内存化
    • 所谓热点数据,就是最多被访问的数据。
    • 通常数据库访问是不平均的,少数数据被频繁读写,而更多数据鲜有读写。
    • 学会制定不同的热点数据规则,并测算指标。
      • 热点数据规模,理论上,热点数据越少越好,这样可以更好的满足业务的增长趋势。
      • 响应满足度,对响应的满足率越高越好。
      • 比如依据最后更新时间,总访问量,回访次数等指标定义热点数据,并测算不同定义模式下的热点数据规模。

性能与安全性考量

  • 数据提交方式
    • innodb_flush_log_at_trx_commit = 0 每秒触发一次缓存日志回写磁盘操作,并调用操作系统fsync刷新IO缓存。安全性有影响,i/o 承载强。
    • innodb_flush_log_at_trx_commit = 1 每次自动提交,安全性高,i/o 压力大。
    • innodb_flush_log_at_trx_commit = 2 实时触发一次缓存日志回写磁盘操作,每秒只做一次磁盘IO缓存刷新操作,安全性略有影响,i/o 承载强。
  • 日志同步
    • Sync-binlog = 1 每条自动更新,安全性高,i/o 压力大。
    • Sync-binlog = 0 根据缓存设置情况自动更新,存在丢失数据和同步延迟风险,i/o 承载力强。
  • 性能与安全本身存在相悖的情况,需要在业务诉求层面决定取舍
    • 学会区分什么场合侧重性能,什么场合侧重安全。
    • 学会将不同安全等级的数据库用不同策略管理。

存储/写入压力优化

  • 顺序读写性能远高于随机读写。
  • 将顺序写数据和随机读写数据分成不同的物理磁盘进行,有助于 i/o 压力的疏解。
    • 数据库文件涉及索引等内容,写入是随即写。
    • binlog 文件是顺序写。
  • 部分安全要求不高的写入操作可以用 /dev/shm 分区存储,简单变成内存写。
  • 多块物理硬盘做 raid10,可以提升写入能力。
  • 关键存储设备优化,善于比对不同存储介质的压力测试数据。
    • 例如 fusion-io 在新浪和淘宝都有较多使用。
  • 涉及必须存储较为庞大的数据量时
    • 压缩存储,可以通过增加 cpu 开销(压缩算法)减少 i/o 压力。前提是你确认cpu 相对空闲而 i/o 压力很大。 新浪微博就是压缩存储的典范。
    • 通过 md5 去重存储,缺点是,删除文件需要甄别该 md5 是否有其他人使用。 去重存储,用户量越多,上传文件越多,效率越高!
    • 文件尽量不要存储到数据库内。尽量使用独立的文件系统存储,该话题不展开。

运维监控体系

  • 系统监控
    • 服务器资源监控
      • Cpu, 内存,硬盘空间,i/o 压力。
      • 设置阈值报警。
    • 服务器流量监控
      • 外网流量,内网流量。
      • 设置阈值报警。
    • 连接状态监控
      • Show processlist 设置阈值,每分钟监测,超过阈值记录。
        -应用监控
    • 慢查询监控
      • 慢查询日志。
      • 如果存在多台数据库服务器,应有汇总查阅机制。
    • 请求错误监控
      • 高频繁应用中,会出现偶发性数据库连接错误或执行错误,将错误信息记录到日志,查看每日的比例变化。
      • 偶发性错误,如果数量极少,可以不用处理,但是需时常监控其趋势。
      • 会存在恶意输入内容,输入边界限定缺乏导致执行出错,需基于此防止恶意入侵探测行为。
    • 微慢查询监控
      • 高并发环境里,超过 0.01 秒的查询请求都应该关注一下。
    • 频繁度监控
      • 写操作,基于 binlog,定期分析。
      • 读操作,在前端 db 封装代码中增加抽样日志,并输出执行时间。
      • 分析请求频繁度是开发架构 进一步优化的基础。
      • 最好的优化就是减少请求次数!

运维优化总结:

  • 监控与数据分析是一切优化的基础。
  • 没有运营数据监测就不要妄谈优化!
  • 监控要注意不要产生太多额外的负载,不要因监控带来太多额外系统开销。

MySQL架构优化

分库&拆表方案

  • 基本认识

    • 用分库&拆表是解决数据库容量问题的唯一途径。
    • 分库&拆表也是解决性能压力的最优选择。
    • 分库 : 不同的数据表放到不同的数据库服务器中(也可能是虚拟服务器)。
    • 拆表 : 一张数据表拆成多张数据表,可能位于同一台服务器,也可能位于多台服
      务器(含虚拟服务器)。

  • 去关联化原则

    • 摘除数据表之间的关联,是分库的基础工作。
    • 摘除关联的目的是,当数据表分布到不同服务器时,查询请求容易分发和处理。
    • 学会理解反范式数据结构设计,所谓反范式,第一要点是不用外键,不允许 Join操作,不允许任何需要跨越两个表的查询请求。第二要点是适度冗余减少查询请求,比如说,信息表,fromuid, touid, message 字段外,还需要一个 fromuname 字段记录用户名,这样查询者通过 touid 查询后,能够立即得到发信人的用户名,而无需进行另一个数据表的查询。
    • 去关联化处理会带来额外的考虑,比如说,某一个数据表内容的修改,对另一个数据表的影响。这一点需要在程序或其他途径去考虑。

  • 分库方案

    • 安全性拆分
      • 将高安全性数据与低安全性数据分库,这样的好处第一是便于维护,第二是高安全性数据的数据库参数配置可以以安全优先,而低安全性数据的参数配置以性能优先。参见运维优化相关部分。
    • 基于业务逻辑拆分
      • 根据数据表的内容构成,业务逻辑拆分,便于日常维护和前端调用。
      • 基于业务逻辑拆分,可以减少前端应用请求发送到不同数据库服务器的频次,从而减少链接开销。
      • 基于业务逻辑拆分,可保留部分数据关联,前端 web 工程师可在限度范围内执行关联查询。
    • 基于负载压力拆分
      • 基于负载压力对数据结构拆分,便于直接将负载分担给不同的服务器。
      • 基于负载压力拆分,可能拆分后的数据库包含不同业务类型的数据表,日常维护会有一定的烦恼。
    • 混合拆分组合
      • 基于安全与业务拆分为数据库实例,但是可以使用不同端口放在同一个服务器上。
      • 基于负载可以拆分为更多数据库实例分布在不同数据库上。
      • 例如:
        • 基于安全拆分出 A 数据库实例。
        • 基于业务拆分出 B,C 数据库实例。
        • C 数据库存在较高负载,基于负载拆分为 C1,C2,C3,C4 等 实例。
        • 数据库服务器完全可以做到 A+B+C1 为一台,C2,C3,C4 各单独一台。

  • 分表方案

    • 数据量过大或者访问压力过大的数据表需要切分
    • 纵向分表(常见为忙闲分表)
      • 单数据表字段过多,可将频繁更新的整数数据与非频繁更新的字符串数据切分。
      • 范例 user 表 ,个人简介,地址,QQ 号,联系方式,头像 这些字段为字符串类型,更新请求少; 最后登录时间,在线时常,访问次数,信件数这些字段为整数型字段,更新频繁,可以将后面这些更新频繁的字段独立拆出一张数据表,表内容变少,索引结构变少,读写请求变快。
    • 横向切表
      • 等分切表,如哈希切表或其他基于对某数字取余的切表。等分切表的优点是负
        载很方便的分布到不同服务器;缺点是当容量继续增加时无法方便的扩容,需要重新进行数据的切分或转表。而且一些关键主键不易处理。
      • 递增切表,比如每 1kw 用户开一个新表,优点是可以适应数据的自增趋势;缺点是往往新数据负载高,压力分配不平均。
      • 日期切表,适用于日志记录式数据,优缺点等同于递增切表。
      • 个人倾向于递增切表,具体根据应用场景决定。
    • 热点数据分表
      • 将数据量较大的数据表中将读写频繁的数据抽取出来,形成热点数据表。通常一个庞大数据表经常被读写的内容往往具有一定的集中性,如果这些集中数据单独处理,就会极大减少整体系统的负载。
      • 热点数据表与旧有数据关系
        • 可以是一张冗余表,即该表数据丢失不会妨碍使用,因源数据仍存在于旧有结构中。优点是安全性高,维护方便,缺点是写压力不能分担,仍需要同步写回原系统。
        • 可以是非冗余表,即热点数据的内容原有结构不再保存,优点是读写效率全部优化;缺点是当热点数据发生变化时,维护量较大。
        • 具体方案选择需要根据读写比例决定,在读频率远高于写频率情况下,优先考虑冗余表方案。
      • 热点数据表可以用单独的优化的硬件存储,比如昂贵的闪存卡或大内存系统。
      • 热点数据表的重要指标
        • 热点数据的定义需要根据业务模式自行制定策略,常见策略为,按照最新的操作时间;按照内容丰富度等等。
        • 数据规模,比如从 1000 万条数据,抽取出 100 万条热点数据。
        • 热点命中率,比如查询 10 次,多少次命中在热点数据内。
        • 理论上,数据规模越小,热点命中率越高,说明效果越好。需要根据业务自行评估。
      • 热点数据表的动态维护
        • 加载热点数据方案选择
          • 定时从旧有数据结构中按照新的策略获取。
          • 在从旧有数据结构读取时动态加载到热点数据。
        • 剔除热点数据方案选择
          • 基于特定策略,定时将热点数据中访问频次较少的数据剔除。
          • 如热点数据是冗余表,则直接删除即可,如不是冗余表,需要回写给旧有数据结构。
      • 通常,热点数据往往是基于缓存或者 key-value 方案冗余存储,所以这里提到
        的热点数据表,其实更多是理解思路,用到的场合可能并不多….

反范式设计(冗余结构设计)

  • 反范式设计的概念
    - 无外键,无连表查询。
    - 便于分布式设计,允许适度冗余,为了容量扩展允许适度开销。
    - 基于业务自由优化,基于 i/o 或查询设计,无须遵循范式结构设计。
    • 冗余结构设计所面临的典型场景
      • 原有展现程序涉及多个表的查询,希望精简查询程序。
      • 数据表拆分往往基于主键,而原有数据表往往存在非基于主键的关键查询,无法在分表结构中完成。
      • 存在较多数据统计需求(count, sum 等),效率低下。
  • 冗余设计方案
    • 基于展现的冗余设计
      • 为了简化展现程序,在一些数据表中往往存在冗余字段。
      • 举例,信息表 message,存在字段 fromuid,touid,msg,sendtime 四个字段,其中 touid+sendtime 是复合索引。存在查询为 select * from message where touid=$uid order by sendtime desc limit 0,30。
      • 展示程序需要显示发送者姓名,此时通常会在 message 表中增加字段fromusername,甚至有的会增加 fromusersex,从而无需连表查询直接输出信息的发送者姓名和性别。这就是一种简单的,为了避免连表查询而使用的冗余字段设计。
    • 基于查询的冗余设计
      • 涉及分表操作后,一些常见的索引查询可能需要跨表,带来不必要的麻烦。确认查询请求远大于写入请求时,应设置便于查询项的冗余表。
    • 冗余表要点
      • 数据一致性,简单说,同增,同删,同更新。
      • 可以做全冗余,或者只做主键关联的冗余,比如通过用户名查询 uid,再基于 uid 查询源表。
    • 基于统计的冗余结构
      • 为了减少会涉及大规模影响结果集的表数据操作,比如 count,sum 操作。应将一些统计类数据通过冗余数据结构保存。
      • 冗余数据结构可能以字段方式存在,也可能以独立数据表结构存在,但是都应能通过源数据表恢复。
    • 历史数据表
    • 历史数据表对应于热点数据表,将需求较少又不能丢弃的数据存入,仅在少数情况下被访问。

主从架构

  • 基本认识
    • 读写分离对负载的减轻远远不如分库分表来的直接。
    • 写压力会传递给从表,只读从库一样有写压力,一样会产生读写锁!
    • 一主多从结构下,主库是单点隐患,很难解决(如主库当机,从库可以响应读写,但是无法自动担当主库的分发功能)
    • 主从延迟也是重大问题。一旦有较大写入问题,如表结构更新,主从会产生巨大延迟。
  • 应用场景
    • 在线热备
    • 异地分布
      • 写分布,读统一。
      • 仍然困难重重,受限于网络环境问题巨多!
    • 自动障碍转移
      • 主崩溃,从自动接管
    • 个人建议,负载均衡主要使用分库方案,主从主要用于热备和障碍转移。
  • 潜在优化点
    • 为了减少写压力,有些人建议主不建索引提升 i/o 性能,从建立索引满足查询要求。个人认为这样维护较为麻烦。而且从本身会继承主的 i/o 压力,因此优化价值有限。该思路特此分享,不做推荐。

缓存方案

  • Redis是最常用的缓存系统
  • 数据读取
    • 并不是所有数据都适合被缓存,也并不是进入了缓存就意味着效率提升。
    • 命中率是第一要评估的数据。
    • 如何评估进入缓存的数据规模,以及命中率优化,是非常需要细心分析的
      • 实景分析: 前端请求先连接缓存,缓存未命中连接数据库,进行查询,未命中状态比单纯连接数据库查询多了一次连接和查询的操作;如果缓存命中率很低,则这个额外的操作非但不能提高查询效率,反而为系统带来了额外的负载和复杂性,得不偿失。
    • 相关评估类似于热点数据表的介绍。
    • 善于利用内存,请注意数据存储的格式及压缩算法。
  • 利用缓存不但可以减少数据读取请求,还可以减少数据库写入 i/o 压力。
  • 缓存实时更新,数据库异步更新、批量更新。

总结

  • 第一步,完成数据库查询的优化,需要理解索引结构,才能学会判断影响结果集。而影响结果集对查询效率线性相关,掌握这一点,编写数据查询语句就很容易判断系统开销,了解业务压力趋势。
  • 第二步,在 SQL 语句已经足够优化的基础上,学会对数据库整体状况的分析,能够对异常和负载的波动有正确的认识和解读;能够对系统资源的分配和瓶颈有正确的认识。
  • 学会通过监控和数据来进行系统的评估和优化方案设计,杜绝拍脑袋,学会抓大放小,把握要点的处理方法。
  • 第三步,在彻底掌握数据库语句优化和运维优化的基础上,学会分布式架构设计,掌握复杂,大容量数据库系统的搭建方法。
  • 最后,分享一句话,学会把问题简单化,正如 Caoz 常说的,你如果认为这个问题很复杂,你一定想错了。
  • 感谢您的阅读,如对您有帮助,来个三连吧

课后彩蛋
何为数据落地?为何内存中查找效率如此高效我们还非要把数据存入硬盘?
数据落地 也就代表了数据的安全性,不会被丢失。
内存是晶体管制作的(CPU也是晶体管做的),而晶体管的特性就是我们平时常说的用开关的开和关来表示1,0.通过一些门电路的组合可用来表示数字和实现复杂的逻辑功能.而内存主要是用来临时保存数据.CPU就是处理一些逻辑关系。
晶体管由于必须得通电,然后用电流的有无状态来表示信息,充放电后电荷的多少(电势高低)分别对应二进制数据0和1,所以只有通电的时候可以保存数据,电一断内存里的晶体管状态就处未知状态就啥用处也没了.而磁盘断电后磁性物质还会一直保持原样。

文章内容借鉴 厦门游家公司(4399.com) 某位大佬写的内部培训分享手册,特此鸣谢。
如有侵权 立即删除。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

zhibo_lv

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值