赵厚雄
码龄18年
关注
提问 私信
  • 博客:1,153,236
    社区:49
    1,153,285
    总访问量
  • 202
    原创
  • 1,670,438
    排名
  • 263
    粉丝
  • 0
    铁粉

个人简介:美好的生活都是奋斗出来的

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2007-02-05
博客简介:

nengyu的专栏

查看详细资料
个人成就
  • 获得157次点赞
  • 内容获得105次评论
  • 获得401次收藏
  • 代码片获得156次分享
创作历程
  • 1篇
    2021年
  • 22篇
    2019年
  • 15篇
    2018年
  • 1篇
    2017年
  • 18篇
    2016年
  • 8篇
    2015年
  • 2篇
    2014年
  • 36篇
    2012年
  • 29篇
    2011年
  • 25篇
    2010年
  • 24篇
    2009年
  • 13篇
    2008年
  • 26篇
    2007年
成就勋章
TA的专栏
  • spring boot
    1篇
  • junit
    1篇
  • JSF入门教程
    1篇
  • springMVC mybatis
  • eclipse
  • tomcat
  • mvn
  • hadoop2
    2篇
  • 大数据
    28篇
兴趣领域 设置
  • 大数据
    hadoophivestormsparketl
创作活动更多

如何做好一份技术文档?

无论你是技术大神还是初涉此领域的新手,都欢迎分享你的宝贵经验、独到见解与创新方法,为技术传播之路点亮明灯!

342人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

org.junit.runner不存在,找不到符号@RunWith(SpringRunner.class)问题解决

采用gradle,编写了一个spring boot的测试类,出现了报错:错误:org.junit.runner不存在,错误:找不到符号@RunWith(SpringRunner.class)在这里还是因为使用了Junit4的RunWith注释,而由于spring boot版本的更新,支持JUnit5了。在这里笔者改为了 Junit5的写法替换RunWith,再次编译正常:@ExtendWith(SpringExtension.class)完整代码段如下,仅做参考:import.
原创
发布博客 2021.12.30 ·
5718 阅读 ·
4 点赞 ·
0 评论 ·
10 收藏

集显与触摸板驱动intel多系列支持.rar

发布资源 2020.10.26 ·
rar

大数据量下mysql的分页查询

总结:为解决此问题效率整理此文: select * from table limit 50000,10,在大数据 量下这样写不行。解决方法如下:select a.* from member as a inner join (select id from member where gender=1 limit 300000,1) as b on a.id=b.id;具体细节分...
原创
发布博客 2019.09.20 ·
654 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

storm流计算编程实现电话呼叫日志处理

storm是一个免费、开源、分布式、实时计算系统。吞吐量高。每秒每节点百万元组。 storm VS hadoop----------------------------------------------------------- 实时流处理 ...
原创
发布博客 2019.08.05 ·
404 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

flink通过sql查询数据的代码实现

flink通过sql查询数据的代码实现import org.apache.flink.api.common.functions.FlatMapFunction;import org.apache.flink.api.java.DataSet;import org.apache.flink.api.java.ExecutionEnvironment;import org.apach...
原创
发布博客 2019.07.29 ·
4359 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

flink streaming 的scala与java版本的单词统计实现

Apache Flink是另一种新一代通用大数据处理引擎,旨在统一不同的数据负载。Flink正试图解决Spark试图解决的同样问题。这两个系统都旨在构建单一平台,您可以在其中运行批处理,流媒体,交互式,图形处理,ML等。因此,flink与Spark的意识形态中间没有太大差别。但是它们在实现细节方面确实存在很大差异。这里介绍单词统计flink的scala版本和java版本的代码实现scala...
原创
发布博客 2019.07.26 ·
1241 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Spark 流计算程序-统计每2秒钟的单词个数-写入文件

Spark 流计算程序-统计每2秒钟的单词个数import java.io.{File, FileOutputStream}import java.util.Dateimport java.text.SimpleDateFormatimport org.apache.spark.SparkConfimport org.apache.spark.streaming.{Seconds,...
原创
发布博客 2019.07.18 ·
313 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

spark streaming流计算程序,统计每2秒钟的单词个数的scala与java的代码实现

一、非SQL实现1. scala实现spark流计算程序,统计每2秒钟的单词个数1)scala代码部分:import org.apache.spark.SparkConfimport org.apache.spark.streaming.{Seconds, StreamingContext}/** * spark 流计算程序,统计每2秒钟的单词个数 */object ...
原创
发布博客 2019.07.15 ·
615 阅读 ·
1 点赞 ·
0 评论 ·
1 收藏

spark sql保存DataFrame到mysql & 从mysql读取数据

在hdfs上存储一个sql文件cust.txt:1,smith,122,bob,133,alex,144,alice,156,mike,261.保存DataFrame到mysqlimport org.apache.spark.sql.SparkSession/** * 将数据框保存成数据库的表中 */object SparkSQLJDBCWriteDe...
原创
发布博客 2019.07.15 ·
2830 阅读 ·
1 点赞 ·
0 评论 ·
8 收藏

spark sql保存DataFrame成json格式与读取json数据成DataFrame

在hdfs上存储一个sql文件cust.txt:1,smith,122,bob,133,alex,144,alice,156,mike,261.将DataFrame转换为json数据格式import org.apache.sparkimport org.apache.spark.sql.SparkSession/** * 将数据框保存成json数据...
原创
发布博客 2019.07.15 ·
6541 阅读 ·
1 点赞 ·
1 评论 ·
6 收藏

spark sql实现客户订单的做外连接查询java实现

首先用记事本准备两张表数据:customers.txt:1,smith,122,bob,133,alex,144,alice,156,mike,26orders.txt:1,t001,100.9,12,t002,100.3,13,t001,100.6,24,t003,100.7,25,t001,100.1,26,t003,100.1,37,t002,100.1,...
原创
发布博客 2019.07.15 ·
472 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

spark sql在scala与java中的代码实现

在编写spark sql代码前,需要新建maven工程,将hadoop下的配置文件core-site.xml和hdfs-site.xml,以及hive中的hive-site.xml拷贝到工程的resource目录下,并在pom.xml中配置jar包信息。pom.xml<?xml version="1.0" encoding="UTF-8"?><project xmln...
原创
发布博客 2019.07.14 ·
1601 阅读 ·
0 点赞 ·
0 评论 ·
6 收藏

spark累加器实现气温数据的双聚合(max|min)

累加器是用于跟踪和调试的技术, 在driver如果需要获取executor的执行结果,可以使用累加器机制。 executor端使用累加器的add方法将结果回传给driver,driver能够进行累计处理。 executor端只能调用add方法,不要访问value. 以下为自定义累加器, 通过累加器实现气温数据的双聚合(max|min)。import or...
原创
发布博客 2019.07.07 ·
217 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

spark对单词统计算法实现

spark对单词进行统计,可以有独立模式和集群模式,独立模式下可以直接对单词进行统计import org.apache.spark.{SparkConf,SparkContext}object WordCount { def main(args: Array[String]): Unit={ val conf =new SparkConf() conf.setAppName(...
原创
发布博客 2019.06.15 ·
1032 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

spark考察线程和任务的对应关系

import org.apache.spark.{SparkConf, SparkContext} /** * RDD再分区 */ object RDDRepartition { def main(args: Array[String]): Unit = { val conf = new SparkConf()...
原创
发布博客 2019.06.15 ·
489 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

Spark 核心API

1.SparkConf Spark配置对象,设置各种参数,使用kv类型。2.SparkContext spark主要入口点,代表到spark集群的连接,可以创建 rdd、累加器和广播变量。 每个JVM中只能有一个SparkContext,启动新的SparkContext必须stop的原来的。 val rdd1 = sc.textFile()3.R...
原创
发布博客 2019.06.15 ·
2644 阅读 ·
1 点赞 ·
0 评论 ·
5 收藏

sed流编辑软件安装配置

一般情况下,sed默认提供在大多数的GNU/ Linux发行版。使用该命令,以确定其是否存在于您的系统上。如果没有,那么在基于Debian GNU/ Linux可以使用apt包管理器,如下所示安装sed:[root]# sudo apt-get install sed安装后,确保sed可以通过命令行访问。[root]# sed --versio执行上面的代码,会得到如下结果...
转载
发布博客 2019.05.25 ·
567 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

flume与zk的信息传递

1.启动ZK>zkCli.sh -server datanode1:2181 1.1.创建一个flume znode >create /flume 1.2.查看znode >ls /flume[netcat]2.将flume配置文件保存到aa.txt a1.source...
原创
发布博客 2019.05.12 ·
451 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

kundera的hbase代码实现

一、介绍什么是Kundera 和JPA1. kundera是一个兼容jpa接口的对象映射器。当前kundera支持的数据库有:      Cassandra,MongoDB,HBase,Redis,OracleNoSQL,Neo4j,CouchDB,Dudu,Relational databases,Apache Spark2.  JPA是Java Persistence API的简称,...
原创
发布博客 2019.02.24 ·
470 阅读 ·
0 点赞 ·
1 评论 ·
1 收藏

HBase过滤器的代码实现

package hmr.jr.hbase.first;import java.util.Iterator;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.Cell;import org.apache.hadoop.hbase.HBaseConfiguration;import or...
原创
发布博客 2019.01.18 ·
375 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏
加载更多