大数据新视界 --大数据大厂之 Spark 性能优化秘籍:从配置到代码实践

       💖💖💖亲爱的朋友们,热烈欢迎你们来到 青云交的博客!能与你们在此邂逅,我满心欢喜,深感无比荣幸。在这个瞬息万变的时代,我们每个人都在苦苦追寻一处能让心灵安然栖息的港湾。而 我的博客,正是这样一个温暖美好的所在。在这里,你们不仅能够收获既富有趣味又极为实用的内容知识,还可以毫无拘束地畅所欲言,尽情分享自己独特的见解。我真诚地期待着你们的到来,愿我们能在这片小小的天地里共同成长,共同进步。💖💖💖

在这里插入图片描述

本博客的精华专栏:

  1. Java 大厂面试专栏系列:提供大厂面试的相关技巧和经验,助力求职。
  2. Java 性能优化传奇之旅:铸就编程巅峰之路:如一把神奇钥匙,深度开启 JVM 等关键领域之门。丰富案例似璀璨繁星,引领你踏上编程巅峰的壮丽征程。
  3. Java 虚拟机(JVM)专栏系列:深入剖析 JVM 的工作原理和优化方法。
  4. Java 技术栈专栏系列:全面涵盖 Java 相关的各种技术。
  5. Java 学习路线专栏系列:为不同阶段的学习者规划清晰的学习路径。
  6. JVM万亿性能密码:在数字世界的浩瀚星海中,JVM 如神秘宝藏,其万亿性能密码即将开启奇幻之旅。
  7. AI(人工智能)专栏系列:紧跟科技潮流,介绍人工智能的应用和发展趋势。
  8. 大数据新视界专栏系列:聚焦大数据,展技术应用,推动进步拓展新视野。
  9. 工具秘籍专栏系列:工具助力,开发如有神。
           展望未来,我将持续深入钻研前沿技术,及时推出如人工智能和大数据等相关专题内容。同时,我会努力打造更加活跃的社区氛围,举办技术挑战活动和代码分享会,激发大家的学习热情与创造力。我也会加强与读者的互动,依据大家的反馈不断优化博客的内容和功能。此外,我还会积极拓展合作渠道,与优秀的博主和技术机构携手合作,为大家带来更为丰富的学习资源和机会。
           我热切期待能与你们一同在这个小小的网络世界里探索、学习、成长你们的每一次点赞、关注、评论、打赏和订阅专栏,都是对我最大的支持。让我们一起在知识的海洋中尽情遨游,共同打造一个充满活力与智慧的博客社区。✨✨✨
           衷心地感谢每一位为我点赞、给予关注、留下真诚留言以及慷慨打赏的朋友,还有那些满怀热忱订阅我专栏的坚定支持者。你们的每一次互动,都犹如强劲的动力,推动着我不断向前迈进。倘若大家对更多精彩内容充满期待,欢迎加入【青云交社区】或加微信:【QingYunJiao】【备注:学习】。让我们携手并肩,一同踏上知识的广袤天地,去尽情探索。此刻,请立即访问我的主页吧,那里有更多的惊喜在等待着你。相信通过我们齐心协力的共同努力,这里必将化身为一座知识的璀璨宝库,吸引更多热爱学习、渴望进步的伙伴们纷纷加入,共同开启这一趟意义非凡的探索之旅,驶向知识的浩瀚海洋。让我们众志成城,在未来必定能够汇聚更多志同道合之人,携手共创知识领域的辉煌篇章


引言:

       在当今这个数据驱动的时代,大数据如同璀璨的星辰照亮了我们前行的道路。而 Spark,作为大数据处理领域的一颗耀眼明星,正以其强大的性能和高效的处理能力,引领着我们走进大数据的新视界。大数据大厂们深知 Spark 的价值,不断探索其性能优化的秘籍,从配置到代码实践,每一个环节都蕴含着无尽的智慧。今天,让我们一同踏上探索之旅,揭开 Spark 性能优化那神秘的面纱,开启一段精彩纷呈的旅程。

在这里插入图片描述

正文:

       大数据处理如同一场精彩的冒险,而 Spark 则是我们在这场冒险中的得力伙伴。要充分发挥 Spark 的强大性能,合理的配置和精湛的代码实践至关重要。让我们深入探索,为 Spark 性能优化奠定坚实的基础。

一、配置:奠定性能基石

1.1 内存分配优化

       在 Spark 中,合理的内存分配至关重要。通过调整 executor 和 driver 的内存大小,可以确保在处理大规模数据时不会出现内存溢出的情况,同时也能充分利用系统资源,提高数据处理的效率。例如,可以根据数据规模和计算任务的特点,适当增加 executor 的内存,以便能够容纳更多的数据进行并行处理。

案例:某大型电商企业在处理海量的用户行为数据时,通过优化 executor 内存分配,将任务的执行时间缩短了 30%。原本需要几个小时才能完成的数据分析任务,现在可以在更短的时间内完成,为企业的业务决策提供了更及时的支持。

1.2 并行度设置

       并行度决定了 Spark 任务在集群中的并行执行程度。设置合适的并行度可以充分发挥集群的计算能力,加快任务的执行速度。可以通过分析数据的大小和计算资源的情况,动态调整并行度参数,以达到最佳的性能效果。比如,对于大规模数据,可以适当提高并行度,让更多的任务同时执行,减少总体处理时间。

案例:一家金融科技公司在进行风险评估分析时,通过调整 Spark 任务的并行度,将数据处理时间从原来的一天缩短到了几个小时。这使得公司能够更快速地响应市场变化,做出更准确的风险决策。

1.3 存储级别配置具体操作

       在 Spark 中,可以通过以下方式进行存储级别配置:

  • 根据数据的访问模式和特点选择合适的存储级别。例如,如果数据需要频繁被访问且对访问速度要求高,可以选择 MEMORY_ONLY 存储级别,将数据完全存储在内存中。如果数据较大,内存无法完全容纳,可以选择 MEMORY_AND_DISKMEMORY_AND_DISK_SER 等存储级别,在内存不足时将数据存储到磁盘上。
  • 对于一些临时数据或者中间结果,可以使用 DISK_ONLY 存储级别,减少内存占用。
  • 还可以通过设置 spark.storage.memoryFractionspark.storage.memoryStorageFraction 等参数来调整内存中存储数据的比例。

案例:某互联网巨头在处理大规模的日志数据时,根据数据的访问频率和大小,合理配置存储级别。对于近期频繁访问的日志数据采用 MEMORY_ONLY 存储级别,对于历史数据采用 MEMORY_AND_DISK_SER 存储级别。同时,调整了内存存储比例参数,使得存储级别配置更加优化。通过这样的优化,数据的读取速度提高了 40%,大大提高了数据分析的效率。

1.4 广播变量配置

       对于小表,可以将其转化为广播变量,然后在每个 executor 中进行本地 join 操作,避免数据倾斜。广播变量可以将小表的数据广播到每个 executor 中,减少网络传输和 shuffle 操作。在配置广播变量时,可以根据小表的大小和集群的资源情况,调整广播变量的大小和分区数。

案例:某在线旅游公司在进行用户订单数据和酒店信息数据的 join 操作时,由于酒店信息表相对较小,通过将酒店信息表转化为广播变量,并合理配置广播变量的大小和分区数,进行本地 join 操作,大大提高了任务的执行效率,将数据处理时间缩短了 35%。

1.5 解决数据倾斜问题

1.5.1 使用随机前缀或哈希分区

       在进行 join 操作或聚合操作时,可以对数据进行随机前缀或哈希分区,使得数据更加均匀地分布在各个分区中。例如,在进行两个大表的 join 操作时,可以先对其中一个表的 join 键进行哈希分区,然后再进行 join 操作,这样可以避免数据倾斜。

案例:一家社交媒体公司在分析用户社交关系数据时,遇到了严重的数据倾斜问题。通过使用哈希分区的方法,将数据均匀地分布在各个分区中,成功解决了数据倾斜问题,将任务的执行时间缩短了 40%。

1.5.2 使用广播变量

       对于小表,可以将其转化为广播变量,然后在每个 executor 中进行本地 join 操作,避免数据倾斜。广播变量可以将小表的数据广播到每个 executor 中,减少网络传输和 shuffle 操作。

案例:某在线旅游公司在进行用户订单数据和酒店信息数据的 join 操作时,由于酒店信息表相对较小,通过将酒店信息表转化为广播变量,进行本地 join 操作,大大提高了任务的执行效率,将数据处理时间缩短了 35%。

1.5.3 使用二次聚合

       对于聚合操作,可以先进行局部聚合,然后再进行全局聚合,减少数据倾斜的影响。例如,在进行分组聚合操作时,可以先在每个分区中进行局部聚合,然后再将各个分区的结果进行全局聚合,这样可以避免某个分区的数据量过大,导致数据倾斜。

案例:某电商平台在进行销售数据分析时,通过使用二次聚合的方法,解决了数据倾斜问题,将数据处理时间缩短了 30%。

二、代码实践:雕琢性能之玉

       精湛的代码实践如同工匠精心雕琢艺术品,能让 Spark 的性能更加卓越。

2.1 数据读取优化

       在代码中,选择高效的数据读取方式可以大大提高性能。例如,使用 Spark 的内置数据源(如 Parquet、ORC 等列式存储格式)可以加快数据的读取速度,并且支持高效的压缩算法,减少磁盘 I/O 和网络传输开销。此外,对于大规模数据集,可以采用分块读取的方式,并行读取多个数据块,提高数据加载的效率。

代码示例:

import org.apache.spark.sql.SparkSession

object DataReadingExample {
  def main(args: Array[String]): Unit = {
    val spark = SparkSession.builder()
  .appName("Data Reading Example")
  .getOrCreate()

    // 读取 Parquet 格式数据
    val parquetData = spark.read.parquet("path/to/parquet/data")
    // 这里可以添加一些注释,解释读取 Parquet 格式数据的优势以及具体的参数设置等
    // Parquet 格式具有高效的压缩算法和列式存储特点,能够大大减少磁盘 I/O 和网络传输开销。

    // 分块读取数据
    val numPartitions = 10 // 根据实际情况调整分区数
    val chunkedData = spark.read.textFile("path/to/large/text/file").repartition(numPartitions)
    // 注释说明分块读取的原理和好处,例如可以并行读取多个数据块,提高数据加载效率。
    // 分块读取可以充分利用集群的并行处理能力,加快数据加载速度。
  }
}

案例:一家在线教育公司在分析学生学习数据时,通过使用 Parquet 格式存储数据,并采用分块读取的方式,将数据加载时间缩短了 40%。这使得他们能够更快速地了解学生的学习情况,为教学改进提供了有力支持。

2.2 减少 shuffle 操作

       shuffle 操作是 Spark 中比较耗时的操作之一,因为它涉及到数据的重新分区和网络传输。在代码编写过程中,应尽量减少不必要的 shuffle 操作。可以通过合理选择 join 方式(如 broadcast join、sort-merge join 等)和使用 map-side 预聚合等技术,减少数据的 shuffle 量,提高性能。

代码示例:

import org.apache.spark.sql.SparkSession

object ShuffleReductionExample {
  def main(args: Array[String]): Unit = {
    val spark = SparkSession.builder()
  .appName("Shuffle Reduction Example")
  .getOrCreate()

    // 使用 broadcast join
    val smallData = spark.read.parquet("path/to/small/data")
    val largeData = spark.read.parquet("path/to/large/data")
    val joinedData = largeData.join(spark.broadcast(smallData), "joinKey")
    // 详细注释说明 broadcast join 的原理和适用场景,以及如何判断小表和大表。
    // Broadcast join 适用于一个表相对较小的情况。它将小表广播到所有的 executor 中,然后在每个 executor 上进行本地 join 操作,避免了数据的 shuffle。

    // 使用 map-side 预聚合
    val aggregatedData = largeData.rdd.mapPartitions(iterator => {
      val aggregatedIterator = iterator.groupBy(_._1).mapValues(_.foldLeft(0)((acc, value) => acc + value._2))
      aggregatedIterator
    }).toDF("key", "value")
    // 解释 map-side 预聚合的作用和实现方式,以及在什么情况下使用效果更好。
    // Map-side 预聚合在数据进行 shuffle 之前,在 map 阶段对数据进行局部聚合,可以减少 shuffle 的数据量,提高性能。适用于需要进行聚合操作的场景。
  }
}

案例:某物流企业在进行订单数据分析时,通过优化 join 操作,减少了 shuffle 操作的次数,将数据处理时间缩短了 25%。这使得他们能够更快速地处理订单数据,提高物流配送的效率。

2.3 优化算法和函数使用

       选择合适的算法和函数可以显著提高 Spark 任务的执行效率。例如,在进行聚合操作时,可以使用更高效的聚合函数(如 reduceByKey、aggregateByKey 等),避免使用低效的通用函数。同时,对于一些复杂的计算任务,可以考虑使用 Spark 的机器学习库或图计算库,这些库中提供了经过优化的算法和函数,可以大大提高计算性能。

代码示例:

import org.apache.spark.sql.SparkSession

object AlgorithmOptimizationExample {
  def main(args: Array[String]): Unit = {
    val spark = SparkSession.builder()
  .appName("Algorithm Optimization Example")
  .getOrCreate()

    // 使用 reduceByKey 进行聚合
    val data = spark.sparkContext.parallelize(Seq((1, 1), (1, 2), (2, 3), (2, 4)))
    val aggregatedData = data.reduceByKey(_ + _)
    // 注释说明 reduceByKey 的优势和使用场景,与其他聚合方式的比较。
    // reduceByKey 可以在每个分区内进行局部聚合,然后在全局进行合并,减少了数据的 shuffle 量。适用于需要对键值对数据进行聚合的场景,比使用通用的函数更加高效。

    // 使用 Spark MLlib 进行机器学习任务
    import org.apache.spark.ml.classification.LogisticRegression
    val trainingData = spark.read.format("libsvm").load("path/to/training/data")
    val lr = new LogisticRegression()
    val model = lr.fit(trainingData)
    // 介绍 Spark MLlib 的优势和适用的机器学习任务类型,以及如何使用它进行性能优化。
    // Spark MLlib 提供了一系列经过优化的机器学习算法,可以高效地处理大规模数据。在进行机器学习任务时,可以利用其并行计算能力和优化的算法,提高模型训练的速度和准确性。
  }
}

案例:一家数据分析公司在进行数据挖掘任务时,使用了 Spark 的机器学习库中的算法,将模型训练时间缩短了 60%。这使得他们能够更快速地开发出准确的预测模型,为客户提供更好的服务。

2.4 垃圾回收器配置

       合理配置垃圾回收器可以减少垃圾回收对 Spark 任务性能的影响。可以根据 Spark 任务的特点和运行环境,选择合适的垃圾回收器和参数。例如,对于内存占用较大的任务,可以选择 G1 垃圾回收器,并调整其参数,以减少垃圾回收的时间开销。

代码示例:

import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession

object GarbageCollectorConfigurationExample {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
  .set("spark.executor.extraJavaOptions", "-XX:+UseG1GC -XX:MaxGCPauseMillis=200")
  .set("spark.driver.extraJavaOptions", "-XX:+UseG1GC -XX:MaxGCPauseMillis=200")

    val spark = SparkSession.builder()
  .config(conf)
  .appName("Garbage Collector Configuration Example")
  .getOrCreate()

    // Your Spark code here
  }
}

案例:某大数据处理公司在进行大规模数据处理任务时,通过优化垃圾回收器的配置,将垃圾回收时间减少了 50%,大大提高了任务的执行效率。

2.5 代码调优与监控

       在代码实践过程中,不断进行调优和监控是非常重要的。可以使用 Spark 的监控工具(如 Spark UI、Ganglia 等)来实时监控任务的执行情况,包括任务进度、资源使用情况、shuffle 数据量等。根据监控结果,可以及时发现性能瓶颈并进行优化。同时,对代码进行性能测试和基准测试,不断调整和优化代码,以达到最佳的性能效果。

案例:某科技企业在进行大数据项目开发时,通过使用 Spark UI 进行实时监控,及时发现了任务中的性能瓶颈,并进行了针对性的优化。最终,他们成功将项目的整体性能提高了 30%,为企业节省了大量的计算资源和时间成本。

结束语:

       大数据的世界充满了无限的可能,而 Spark 性能优化则是我们探索这个世界的有力武器。亲爱的读者们,在你的大数据之旅中,你是否也有独特的 Spark 性能优化经验呢?欢迎在评论区或CSDN社区分享你的故事和见解,让我们一起交流学习,共同进步。你在使用 Spark 过程中遇到了哪些挑战?又有哪些优化技巧让你受益匪浅呢?期待你的参与,让我们携手共创大数据的辉煌未来!


———— 精 选 文 章 ————
  1. 大数据新视界 --大数据大厂之揭秘大数据时代 Excel 魔法:大厂数据分析师进阶秘籍(最新)
  2. 大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南(最新)
  3. 大数据新视界–大数据大厂之Java 与大数据携手:打造高效实时日志分析系统的奥秘(最新)
  4. 大数据新视界–面向数据分析师的大数据大厂之MySQL基础秘籍:轻松创建数据库与表,踏入大数据殿堂(最新)
  5. 全栈性能优化秘籍–Linux 系统性能调优全攻略:多维度优化技巧大揭秘(最新)
  6. 大数据新视界–大数据大厂之MySQL数据库课程设计:揭秘 MySQL 集群架构负载均衡核心算法:从理论到 Java 代码实战,让你的数据库性能飙升!(最新)
  7. 大数据新视界–大数据大厂之MySQL数据库课程设计:MySQL集群架构负载均衡故障排除与解决方案(最新)
  8. 解锁编程高效密码:四大工具助你一飞冲天!(最新)
  9. 大数据新视界–大数据大厂之MySQL数据库课程设计:MySQL数据库高可用性架构探索(2-1)(最新)
  10. 大数据新视界–大数据大厂之MySQL数据库课程设计:MySQL集群架构负载均衡方法选择全攻略(2-2)(最新)
  11. 大数据新视界–大数据大厂之MySQL数据库课程设计:MySQL 数据库 SQL 语句调优方法详解(2-1)(最新)
  12. 大数据新视界–大数据大厂之MySQL 数据库课程设计:MySQL 数据库 SQL 语句调优的进阶策略与实际案例(2-2)(最新)
  13. 大数据新视界–大数据大厂之MySQL 数据库课程设计:数据安全深度剖析与未来展望(最新)
  14. 大数据新视界–大数据大厂之MySQL 数据库课程设计:开启数据宇宙的传奇之旅(最新)
  15. 大数据新视界–大数据大厂之大数据时代的璀璨导航星:Eureka 原理与实践深度探秘(最新)
  16. Java性能优化传奇之旅–Java万亿级性能优化之Java 性能优化逆袭:常见错误不再是阻碍(最新)
  17. Java性能优化传奇之旅–Java万亿级性能优化之Java 性能优化传奇:热门技术点亮高效之路(最新)
  18. Java性能优化传奇之旅–Java万亿级性能优化之电商平台高峰时段性能优化:多维度策略打造卓越体验(最新)
  19. Java性能优化传奇之旅–Java万亿级性能优化之电商平台高峰时段性能大作战:策略与趋势洞察(最新)
  20. JVM万亿性能密码–JVM性能优化之JVM 内存魔法:开启万亿级应用性能新纪元(最新)
  21. 十万流量耀前路,成长感悟谱新章(最新)
  22. AI 模型:全能与专精之辩 —— 一场科技界的 “超级大比拼”(最新)
  23. 国产游戏技术:挑战与机遇(最新)
  24. Java面试题–JVM大厂篇之JVM大厂面试题及答案解析(10)(最新)
  25. Java面试题–JVM大厂篇之JVM大厂面试题及答案解析(9)(最新)
  26. Java面试题–JVM大厂篇之JVM大厂面试题及答案解析(8)(最新)
  27. Java面试题–JVM大厂篇之JVM大厂面试题及答案解析(7)(最新)
  28. Java面试题–JVM大厂篇之JVM大厂面试题及答案解析(6)(最新)
  29. Java面试题–JVM大厂篇之JVM大厂面试题及答案解析(5)(最新)
  30. Java面试题–JVM大厂篇之JVM大厂面试题及答案解析(4)(最新)
  31. Java面试题–JVM大厂篇之JVM大厂面试题及答案解析(3)(最新)
  32. Java面试题–JVM大厂篇之JVM大厂面试题及答案解析(2)(最新)
  33. Java面试题–JVM大厂篇之JVM大厂面试题及答案解析(1)(最新)
  34. Java 面试题 ——JVM 大厂篇之 Java 工程师必备:顶尖工具助你全面监控和分析 CMS GC 性能(2)(最新)
  35. Java面试题–JVM大厂篇之Java工程师必备:顶尖工具助你全面监控和分析CMS GC性能(1)(最新)
  36. Java面试题–JVM大厂篇之未来已来:为什么ZGC是大规模Java应用的终极武器?(最新)
  37. AI 音乐风暴:创造与颠覆的交响(最新)
  38. 编程风暴:勇破挫折,铸就传奇(最新)
  39. Java面试题–JVM大厂篇之低停顿、高性能:深入解析ZGC的优势(最新)
  40. Java面试题–JVM大厂篇之解密ZGC:让你的Java应用高效飞驰(最新)
  41. Java面试题–JVM大厂篇之掌控Java未来:深入剖析ZGC的低停顿垃圾回收机制(最新)
  42. GPT-5 惊涛来袭:铸就智能新传奇(最新)
  43. AI 时代风暴:程序员的核心竞争力大揭秘(最新)
  44. Java面试题–JVM大厂篇之Java新神器ZGC:颠覆你的垃圾回收认知!(最新)
  45. Java面试题–JVM大厂篇之揭秘:如何通过优化 CMS GC 提升各行业服务器响应速度(最新)
  46. “低代码” 风暴:重塑软件开发新未来(最新)
  47. 程序员如何平衡日常编码工作与提升式学习?–编程之路:平衡与成长的艺术(最新)
  48. 编程学习笔记秘籍:开启高效学习之旅(最新)
  49. Java面试题–JVM大厂篇之高并发Java应用的秘密武器:深入剖析GC优化实战案例(最新)
  50. Java面试题–JVM大厂篇之实战解析:如何通过CMS GC优化大规模Java应用的响应时间(最新)
  51. Java面试题–JVM大厂篇(1-10)
  52. Java面试题–JVM大厂篇之Java虚拟机(JVM)面试题:涨知识,拿大厂Offer(11-20)
  53. Java面试题–JVM大厂篇之JVM面试指南:掌握这10个问题,大厂Offer轻松拿
  54. Java面试题–JVM大厂篇之Java程序员必学:JVM架构完全解读
  55. Java面试题–JVM大厂篇之以JVM新特性看Java的进化之路:从Loom到Amber的技术篇章
  56. Java面试题–JVM大厂篇之深入探索JVM:大厂面试官心中的那些秘密题库
  57. Java面试题–JVM大厂篇之高级Java开发者的自我修养:深入剖析JVM垃圾回收机制及面试要点
  58. Java面试题–JVM大厂篇之从新手到专家:深入探索JVM垃圾回收–开端篇
  59. Java面试题–JVM大厂篇之Java性能优化:垃圾回收算法的神秘面纱揭开!
  60. Java面试题–JVM大厂篇之揭秘Java世界的清洁工——JVM垃圾回收机制
  61. Java面试题–JVM大厂篇之掌握JVM性能优化:选择合适的垃圾回收器
  62. Java面试题–JVM大厂篇之深入了解Java虚拟机(JVM):工作机制与优化策略
  63. Java面试题–JVM大厂篇之深入解析JVM运行时数据区:Java开发者必读
  64. Java面试题–JVM大厂篇之从零开始掌握JVM:解锁Java程序的强大潜力
  65. Java面试题–JVM大厂篇之深入了解G1 GC:大型Java应用的性能优化利器
  66. Java面试题–JVM大厂篇之深入了解G1 GC:高并发、响应时间敏感应用的最佳选择
  67. Java面试题–JVM大厂篇之G1 GC的分区管理方式如何减少应用线程的影响
  68. Java面试题–JVM大厂篇之深入解析G1 GC——革新Java垃圾回收机制
  69. Java面试题–JVM大厂篇之深入探讨Serial GC的应用场景
  70. Java面试题–JVM大厂篇之Serial GC在JVM中有哪些优点和局限性
  71. Java面试题–JVM大厂篇之深入解析JVM中的Serial GC:工作原理与代际区别
  72. Java面试题–JVM大厂篇之通过参数配置来优化Serial GC的性能
  73. Java面试题–JVM大厂篇之深入分析Parallel GC:从原理到优化
  74. Java面试题–JVM大厂篇之破解Java性能瓶颈!深入理解Parallel GC并优化你的应用
  75. Java面试题–JVM大厂篇之全面掌握Parallel GC参数配置:实战指南
  76. Java面试题–JVM大厂篇之Parallel GC与其他垃圾回收器的对比与选择
  77. Java面试题–JVM大厂篇之Java中Parallel GC的调优技巧与最佳实践
  78. Java面试题–JVM大厂篇之JVM监控与GC日志分析:优化Parallel GC性能的重要工具
  79. Java面试题–JVM大厂篇之针对频繁的Minor GC问题,有哪些优化对象创建与使用的技巧可以分享?
  80. Java面试题–JVM大厂篇之JVM 内存管理深度探秘:原理与实战
  81. Java面试题–JVM大厂篇之破解 JVM 性能瓶颈:实战优化策略大全
  82. Java面试题–JVM大厂篇之JVM 垃圾回收器大比拼:谁是最佳选择
  83. Java面试题–JVM大厂篇之从原理到实践:JVM 字节码优化秘籍
  84. Java面试题–JVM大厂篇之揭开CMS GC的神秘面纱:从原理到应用,一文带你全面掌握
  85. Java面试题–JVM大厂篇之JVM 调优实战:让你的应用飞起来
  86. Java面试题–JVM大厂篇之CMS GC调优宝典:从默认配置到高级技巧,Java性能提升的终极指南
  87. Java面试题–JVM大厂篇之CMS GC的前世今生:为什么它曾是Java的王者,又为何将被G1取代
  88. Java就业-学习路线–突破性能瓶颈: Java 22 的性能提升之旅
  89. Java就业-学习路线–透视Java发展:从 Java 19 至 Java 22 的飞跃
  90. Java就业-学习路线–Java技术:2024年开发者必须了解的10个要点
  91. Java就业-学习路线–Java技术栈前瞻:未来技术趋势与创新
  92. Java就业-学习路线–Java技术栈模块化的七大优势,你了解多少?
  93. Spring框架-Java学习路线课程第一课:Spring核心
  94. Spring框架-Java学习路线课程:Spring的扩展配置
  95. Springboot框架-Java学习路线课程:Springboot框架的搭建之maven的配置
  96. Java进阶-Java学习路线课程第一课:Java集合框架-ArrayList和LinkedList的使用
  97. Java进阶-Java学习路线课程第二课:Java集合框架-HashSet的使用及去重原理
  98. JavaWEB-Java学习路线课程:使用MyEclipse工具新建第一个JavaWeb项目(一)
  99. JavaWEB-Java学习路线课程:使用MyEclipse工具新建项目时配置Tomcat服务器的方式(二)
  100. Java学习:在给学生演示用Myeclipse10.7.1工具生成War时,意外报错:SECURITY: INTEGRITY CHECK ERROR
  101. 使用Jquery发送Ajax请求的几种异步刷新方式
  102. Idea Springboot启动时内嵌tomcat报错- An incompatible version [1.1.33] of the APR based Apache Tomcat Native
  103. Java入门-Java学习路线课程第一课:初识JAVA
  104. Java入门-Java学习路线课程第二课:变量与数据类型
  105. Java入门-Java学习路线课程第三课:选择结构
  106. Java入门-Java学习路线课程第四课:循环结构
  107. Java入门-Java学习路线课程第五课:一维数组
  108. Java入门-Java学习路线课程第六课:二维数组
  109. Java入门-Java学习路线课程第七课:类和对象
  110. Java入门-Java学习路线课程第八课:方法和方法重载
  111. Java入门-Java学习路线扩展课程:equals的使用
  112. Java入门-Java学习路线课程面试篇:取商 / 和取余(模) % 符号的使用

  • 11
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

青云交

优质创作不易,期待你的打赏。

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值