- 博客(6)
- 资源 (2)
- 收藏
- 关注
原创 Mybatis插入时间没有时分秒只有年月日
起因前几天单元测试发现,数据库中的日期类型字段只插入了不带时分秒的值。 Debug下来确认,入库前实体字段里存的时间值是正常的,立即猜测问题出在Mybatis里。xxxMapper.xml里是这么写的,<if test="timeJoin != null">TIME_JOIN = #{timeJoin, jdbcType = DATE},</if>推测目测错误就是由”jdbcType = DATE
2017-01-19 20:57:53 17842 2
原创 Java读取文件数据
晚上在研习循环结构程序设计[注]的时候,有一节是关于文件操作的。要求从文件中读入数据,求出它们的最小值、最大值和平均值。入门算法对我们不是问题,不过文件读取还是值得写一下的。 注:相关PDF下载地址是http://download.csdn.net/detail/peerless_hero/9736266BufferedReaderBufferedReader继承于Reader,它从字符输入流中读
2017-01-13 00:16:57 573
原创 Spark核心--RDD
RDDRDD(Resilient Distributed Datasets)即弹性分布式数据集,它是Spark的核心概念,我们从以下几点来理解它: 1. RDD由多个Partition构成,是分布在集群中的只读对象的集合。 2. RDD存储在磁盘或内存中,Spark提供了多种RDD缓存级别。 3. RDD可通过并行”转换”操作进行构造。 4. RDD失效后会自动重构。如下图所示,RDD有三个
2017-01-12 21:59:30 452
原创 Spark运行模式
我们先看一个完整的实例wordcountimport org.apache.spark._import SparkContext._object WordCount { def main(args: Array[String]) { if (args.length != 3 ){ println("usage is org.test.WordCou
2017-01-12 00:02:14 507
原创 Spark概述
Spark产生背景一:MapReduce局限性说起Spark的产生背景,就得说一下MapReduce的局限性。仅支持Map和Reduce两种操作。MapReduce处理效率低,体现在: (1) Map阶段会将中间结果写入磁盘, Reduce阶段会将运算结果写入HDFS,多个MR任务之间通过HDFS交换数据。 (2) 任务调度和启动开销大。 (3) MapReduce无法充分利用内存。 (
2017-01-11 18:24:11 604
原创 Java反射获取父类中的元素
我们知道,可以通过getDeclaredField和getField方法可以反射获取class中的元素,他们的区别在于getField只能访问公有变量,而getDeclaredField则可以访问定义的所有变量,包括protected修饰和private修饰的变量。 // 1.getDeclaredField方法调用searchFields方法 Field field = search
2017-01-06 19:08:45 4315
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人