- 博客(17)
- 资源 (1)
- 收藏
- 关注
转载 Mybatis初始化机制详解
对于任何框架而言,在使用前都要进行一系列的初始化,MyBatis也不例外。本章将通过以下几点详细介绍MyBatis的初始化过程。 1.MyBatis的初始化做了什么 2. MyBatis基于XML配置文件创建Configuration对象的过程 3. 手动加载XML配置文件创建Configuration对象完成初始化,创建并使用SqlSessionFactory对象 4. 涉及到的设计模式一、 MyBatis的初始化做了什么 任何框架的初始化,无非是加载自...
2021-12-19 16:42:31 228
转载 java 对HashMap 进行排序,优先值value排序,若value相同时对键KEY按字母表顺序排序
Java中HashMap是一种用于存储“键”和“值”信息对的数据结构。不同于Array、ArrayList和LinkedLists,它不会维持插入元素的顺序。因此对HashMap排序的掌握很重要。HashMap排序有两个步骤:一.通过map.entrySet()方法获取键值对;并将键值对传递给链表list;二.自定义比较器来使用Collections.sort()方法排序链表。Co...
2019-09-25 10:37:05 1332
转载 Java GC机制详解
垃圾收集 Garbage Collection 通常被称为“GC”,本文详细讲述Java垃圾回收机制。导读:1、什么是GC2、GC常用算法3、垃圾收集器4、finalize()方法详解5、总结--根据GC原理来优化代码正式阅读之前需要了解相关概念:Java 堆内存分为新生代和老年代,新生代中又分为1个 Eden 区域 和 2个 Survivor 区域。...
2019-09-24 15:51:48 264
原创 Kafka 性能优化与问题深究
Kafka性能优化与问题深究一.Kafka深入探究1.1kafka整体介绍1. 1.1 Kafka 如何做到高吞吐、低延迟的呢?Kafka是一个分布式高吞吐量的消息系统,这里提下 Kafka 写数据的大致方式:先写操作系统的页缓存(Page Cache),然后由操作系统自行决定何时刷到磁盘。因此 Kafka 达到高吞吐、低延迟的原因主要有以下 4 点:页缓存是在内存中分...
2019-09-24 15:15:31 4477
转载 JAVA:堆和栈的区别
在说堆和栈之前,我们先说一下JVM(虚拟机)内存的划分: Java程序在运行时都要开辟空间,任何软件在运行时都要在内存中开辟空间,Java虚拟机运行时也是要开辟空间的。JVM运行时在内存中开辟一片内存区域,启动时在自己的内存区域中进行更细致的划分,因为虚拟机中每一片内存处理的方式都不同,所以要单独进行管理。 JVM内存的划分有五片: 1.寄存器;...
2019-09-24 15:13:26 489
转载 kafka Consumer 多线程并行消费数据
kafka Consumer 多线程并行消费数据 :https://blog.csdn.net/qq_31289187/article/details/81983017
2019-08-20 17:17:45 6203
转载 kafka 生产和消费消息
kafka是吞吐量巨大的一个消息系统,它是用scala写的,和普通的消息的生产消费还有所不同,写了个demo程序供大家参考。kafka的安装请参考官方文档。首先我们需要新建一个maven项目,然后在pom中引用kafka jar包,引用依赖如下: <dependency> <groupId>org.apache.kafka</group...
2019-06-03 13:47:55 606
转载 flink消费kafka数据直接到hdfs
import org.apache.flink.api.common.functions.FlatMapFunction;import org.apache.flink.api.common.serialization.SimpleStringSchema;import org.apache.flink.api.java.tuple.Tuple2;import org.apache.flin...
2019-05-31 13:14:28 1676
转载 Spark partition
转载https://blog.csdn.net/wyqwilliam/article/details/81627603repartitionAndSortWithinPartitions是Spark官网推荐的一个算子,官方建议,如果需要在repartition重分区之后,还要进行排序,建议直接使用repartitionAndSortWithinPartitions算子。因为该算子可以一边进行...
2019-05-27 16:12:23 384
翻译 Spark编程指南
一。概观每个spark应用程序都包含一个驱动程序,通过main函数在集群上执行各种并行操作。1.Spark提供的是主要抽象是RDD,他是跨群集结点分区的元素的集合,可以并行操作(宽依赖)。RDD是通过从Hadoop文件系统(或其他Hadoop支持的文件系统)中的文件或驱动程序中的现有Scala集合开始并对其进行转换而创建的。用户还可以要求Spark在内存中保留RDD,允许它在并行操作中有效...
2019-05-23 15:03:42 284
原创 flink maven 工程 pom.xml文件的基本统一配置
Setting up a Project: Basic Dependencies<dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-java</artifactId> <version>1.8.0</version>...
2019-05-11 22:02:13 6719 3
原创 运行flink官网wikiipedia程序问题总结之一步一个脚印儿
DataStream API Tutorial一.Setting up a Maven Project(首先在虚拟机上要先装好maven并配置好setting文件和环境变量)mvn archetype:generate \ -DarchetypeGroupId=org.apache.flink \ -DarchetypeArtifactId=flink-quic...
2019-05-09 10:54:18 335
转载 解决类似 BUG: soft lockup - CPU#2 stuck for 67s! 问题的思路
编写内核程序,出现soft lockup错误是再常见不过了,类似BUG: soft lockup - CPU#2 stuck for 67s!。刚开始调试内核时,出现这样的错误,往往两眼一抹黑,不知道该如何下手了。但其实,这样的问题解决多了,会发现原因基本就两种情况,死锁和死循环。所以,在出现soft lockup错误时,不用慌张,只要分析相关代码是不是存在死循环,比如 for循环的退出条...
2019-05-09 09:26:46 1883
转载 log4j.properties的编写 亲测可用
### 设置###log4j.rootLogger = debug,stdout,D,E### 输出信息到控制抬 ###log4j.appender.stdout = org.apache.log4j.ConsoleAppenderlog4j.appender.stdout.Target = System.outlog4j.appender.stdout.layout = org.ap...
2019-05-09 08:58:04 202
原创 JSON介绍和使用
一.Java 中 JSON 的使用JSON 指的是 JavaScript 对象表示法(JavaScript Object Notation)JSON 是轻量级的文本数据交换格式JSON 独立于语言:JSON 使用 Javascript语法来描述数据对象,但是 JSON 仍然独立于语言和平台。JSON 解析器和 JSON 库支持许多不同的编程语言。 目前非常多的动态(PHP,JSP,.N...
2019-05-09 08:56:23 257
转载 log4j的使用方法
一.log4j是具有日志记录功能,主要通过一个配置文件来对程序进行监测有两种配置方式:一种程序配置,一种文件配置.有三个主要单元要了解,Logger,appender,layout.logger是进行记录的主要类,appender是记录的方式,layout是记录的格式logger七种日志级别:debug,info,warn,error,fatal,all,off最常用的应该是debug(...
2019-05-09 08:43:36 238
原创 storm 在redhat上的安装配置
storm是实现大数据的实时流计算的工具。流式计算:使用流计算,数据实时产生,实时传输,实时计算,实时显示。代表技术:flume 实时获取数据。Kafka/metag实时数据存储,storm/J storm实时数据计算,redis实时结果缓存,mysql持久化存储。storm搭建体系结构storm主要由主节点:nimbus 和从节点supervisor 构成,需要架构...
2018-11-12 21:10:03 210
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人