自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(39)
  • 资源 (3)
  • 收藏
  • 关注

原创 Docker默认只开启IPV4,如需要IPV6,设置的一种方式

编辑 /etc/docker/daemon.json,加上以下内容。(如果没有这个文件直接创建。){"ipv6":true,"fixed-cidr-v6": "fd00::/80", "experimental": true, "ip6tables": true,"registry-mirrors":["http://hub-mirror.c.163.com","https://ustc-edu-cn.mirror.aliyuncs.com/","https://registry.al.

2021-12-07 16:43:34 2808 1

原创 记录spark-streaming-kafka-0-10_2.11的2.3.2版本StructuredStreaming水印除重操作OOM解决

代码主要部分: val df = kafkaReadStream(spark, KAFKA_INIT_OFFSETS, KAFKA_TOPIC) .option("maxOffsetsPerTrigger",1000)//限流:对每个触发器间隔处理的最大偏移量的速率限制。指定的偏移量总数将按比例划分到不同卷的topicPartitions上。 .option("fetchOffset.numRetries",3)//尝试次数 .option("failOnDa

2021-09-10 17:42:18 1453

原创 StructuredStreamingKafka配置问题以及group.id问题以及修改offsets问题

读取Kafka数据的时候,KafkaSourceProvider 类中的createMicroBatchReader 函数体中有对option() 中设置的Kafka参数进行校验及设置默认参数:必填参数:duisubscribe,startingOffsets,failOnDataLoss进行判断。如果要对默认参数进行修改或者添加新的配置,通过 option("Kafka.xx","") 进行设置。由于在KafkaSourceProvider 类对Kafka设置的参数做了过滤处理 因此,设置Ka

2021-03-10 17:15:13 1902

原创 Docker打包springboot工程镜像

Docker创建、运行微服务镜像本地Maven添加Docker插件往本地Docker上创建、运行镜像本地环境要求:MavenJavaDocker1)pom添加docker plugin<properties><docker.image.prefix>springboot</docker.image.prefix><docker.maven.plugin.versio...

2020-11-17 19:47:30 532

原创 spring boot admin服务监控

Consul:服务注册发现、配置中心zuul:网关,路由spring boot admin: 服务监控

2020-11-12 10:26:04 419 2

原创 Consul + zuul:api网关,提供路由转发功能之服务路由的路径模式即指定服务的某几个接口在某服务下执行

实现功能:相同的服务我们发布多个服务,服务名字(spring.application.name)相同,服务id(对应于Consul注册服务的spring.cloud.consul.discovery.instance-id)不同,不同的服务id对应的服务器或者ip不同。我们通过zuul访问的时候,会通过访问的路径自动路由到某台服务器上的服务去执行。如下图的业务模式service service-id(instance-id) ip:port uri 通过路由的访.

2020-10-22 14:48:02 547 1

原创 Consul + zuul:api网关,提供路由转发功能之服务路由的轮询模式

实现功能:相同的服务我们发布多个服务,服务名字(spring.application.name)相同,服务id(对应于Consul注册服务的spring.cloud.consul.discovery.instance-id)不同,不同的服务id对应的服务器或者ip不同。我们通过zuul访问的时候,会轮询的方式路由到不同的服务id服务上了,即会在10.9.100.100:8801,10.9.100.100:8805,10.9.100.100:8806三个服务上轮询执行。service servi

2020-10-22 11:50:00 878

原创 Spring Cloud API网关之Zuul原理

API网关 API网关是对外服务的一个入口,其隐藏了内部架构的实现,是微服务架构中必不可少的一个组件。API网关可以为我们管理大量的API接口,还可以对接客户、适配协议、进行安全认证、转发路由、限制流量、监控日志、防止爬虫、进行灰度发布等。 zuul简介 Zuul是Netflix OSS中的一员,是一个基于JVM路由和服务端的负载均衡器。提供路由、监控、弹性、安全等方面的服务框架。Zuul能够与Eureka、Ribbon、Hystrix等组件配合使用。Zuul...

2020-10-21 19:38:24 270 1

原创 Consul + zuul:api网关,提供路由转发功能之服务路由的默认配置

实现功能:每次往Consul注册新的服务,我们无需更改zuul的网关配置,就可以通过zuul服务的ip实现路由转发功能。请求方式:${ZuulServerIP}:${server.port}:/${新注册的Server}/[新服务的请求uri]案例:Consul上的三个服务:Zuul-gateway服务:注:应为是本地启动的zuul-gateway服务,名字为test-config-service02,端口号为8804。另,Consul服务上有个红×的原因是因为我是..

2020-10-20 18:50:48 1919 1

原创 Consul+Zuul报错zuul.exception.ZuulException: 和 zuul.exceptionZuulException: Forwarding error

两个错误,错误一:com.netflix.zuul.exception.ZuulException: Forwarding errorCaused by: java.lang.RuntimeException: java.net.SocketTimeoutException: Read timed outat rx.exceptions.Exceptions.propagate(Exceptions.java:58) ~[rxjava-1.1.10.jar:1.1.10]at rx.obs

2020-10-19 17:30:26 630

原创 SpringBoot+Consul注解方式实现配置中心

Consul介绍:Consul是什么 Consul包含多个组件,但是作为一个整体,为你的基础设施提供服务发现和服务配置的工具.他提供以下关键特性: 服务发现 Consul的客户端可用提供一个服务,比如 api 或者mysql ,另外一些客 户端可用使用Consul去发现一个指定服务的提供者.通过DNS或者HTTP应用程 序可用很容易的找到他所依赖的服务. 健康检查 Consul客户端可用提供任意数量的健康检查,指定一个服务(比 如:webserver是否返回了200 OK 状态码)或者使用本地

2020-10-16 18:51:32 2366

转载 Consul相关知识博客链接

Consul分布式搭建 Consul 快速入门 consul集群搭建及spring cloud集成

2020-10-12 15:40:21 246 1

原创 开发过程中,遇到字符串拼接,最好选用StringBuffer

示例:/**解析前端Json请求*/ ArrayList<String> domians = (ArrayList<String>)paras.get("query"); StringBuffer queryValueStrBuff = new StringBuffer(); for (int i=0;i<domians.size();i++){ queryValue

2020-09-27 18:38:59 286

原创 SpringBoot Service全局变量创建连接,关闭异常问题原因与解决

业务场景步骤:前端获取JSON参数 封装成ES查询语句,HttpClient的RestClient低阶API查询ES方式查询 查询ES表数据 ES表数据逐条匹配redis数据,处理数据 封装成AOP统一约定的JSON返回体出错时间:前端查询大约100条以内 前端查询大约第二天错误示例:16:03:22.206 [http-nio-8888-exec-3] ERROR xx.aop.advice.LogAdvice - This is after throw from LogAdv

2020-09-27 18:08:26 545

转载 单例模式:懒汉模式

所谓“懒汉式”与“饿汉式”的区别,是在与建立单例对象的时间的不同。“懒汉式”是在你真正用到的时候才去建这个单例对象 “饿汉式是在类创建的同时就已经创建好一个静态的对象,不管你用的用不上,一开始就建立这个单例对象代码实现:懒汉模式:public class Singleton2 { private volatile static Singleton2 singleton; // 5 private Singleton2() { Sys.

2020-09-14 15:33:51 3890 2

原创 Hadoop单机模式以及伪分布模式

jdk安装wget --no-check-certificate --no-cookies --header "Cookie:oraclelicense=accept-securebackup-cookie" http://download.oracle.com/otn-pub/java/jdk/8u131-bll/d54c1d3a095b4ff2b6607d096fa80163/jdk-8u131-linux-x64.rpm存在java8:openjdkroot@Kylin:~# java -v

2020-07-13 13:43:26 1416

原创 Spark本地环境

1.安装windows版本Hadoop配置环境变量2.安装ScalaPath:;%MAVEN_HOME%;%MAVEN_HOME%\bin;%JAVA_HOME%\bin;%JAVA_HOME%\jre\bin;%JAVA_HOME%\lib;%JAVA_HOME%\jre\lib\;%TOMCAT_HOME%\bin;%SCALA_HOME%\bin;%SCALA_HOME%\jre\bin;%SPARK_HOME%\bin;%MYSQL_HOME%\bin;

2020-06-19 11:37:17 214

原创 每日任务Scala语言Spark读Hive表写MongoDB内嵌文档格式

Hive表:name的时间流水数据。name数据可能是一条,可能多条数据。name time d1 d2 d3 d4 d5 d6 d7 d8 d9 d10 d11 d12 d13 d14 d15 1 1563764501 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 156376

2020-06-16 12:10:10 471 1

原创 SqoopHDFS到MySQL报错:缺少lzo压缩包

错误日志:20/06/05 16:27:07 ERROR sqoop.Sqoop: Got exception running Sqoop: java.lang.IllegalArgumentException: Compression codec com.hadoop.compression.lzo.LzoCodec not found.java.lang.IllegalArgumentException: Compression codec com.hadoop.compression.lzo.

2020-06-09 08:53:40 612

原创 CDH或者大数据平台提交Spark任务shell方式

##增加Kerberos认证,使用xxx.keytabl秘钥spark-submit --principal yong_hu_ming@xxx.COM \ --keytab yong_hu_ming.keytab \ --class com.xx.compute.Job20200525 \ --master yarn \ --deploy-mode cluster \ --num-executors 90 \ --driver-memory 7g \.

2020-06-04 14:30:51 797

原创 Hive SQL(持续更新)

1.建Orc压缩格式的数据库CREATE TABLE IF NOT EXISTS ods.test( id STRING COMMENT 'id',time INT COMMENT 'can data time of server time', datas STRING COMMENT 'data')comment ' with partition type first then years then months then days'PARTITIONED BY (type STRING,

2020-06-02 08:50:50 291

原创 CDH Oozie 时钟参数设置传入

${coord:formatTime(coord:dateOffset(coord:nominalTime(),0,'DAY'),'yyyyMMdd')}例如:每日00:10:00运行运行时查看xml:<coordinator-app name="My_Schedule_Part" frequency="10 0 * * *" start="${start_date}" end="${end_date}" timezone="Antarctica/Casey" x...

2020-06-01 16:20:39 1047 3

原创 Kafka配置属性

Kafka配置信息详解Broker配置信息 属性 默认值 描述 broker.id 必填参数,broker的唯一标识 log.dirs /tmp/kafka-logs Kafka数据存放的目录。可以指定多个目录,中间用逗号分隔,当新partition被创建的时会被存放到当前存放partition最少的目录。 ..

2020-05-29 10:47:41 1373

原创 HiveSQL调配设置参数(持续更新)

set hive.exec.dynamic.partition.mode=nonstrict;#首个分区也未知,导入数据设置为动态分区set mapred.max.split.size=2048000000#Map操作之前合并小文件:每个Map最大输入大小设置为2GB(单位:字节)set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat#执行Map前进行小文件合并set hive.merge.mapfiles .

2020-05-29 09:29:13 823

原创 CDH集群数据迁移distcp

环境为CDH6脚本方式:echo "123456" | kinit wnjhadoop distcp -Ddistcp.bandwidth=500000000 -Dipc.client.fallback-to-simple-auth-allowed=true hdfs://10.44.200.101:8020/user/wnj/hivetable/test/ /user/hive/warehouse/test/-Ddistcp.bandwidth=500000000 带宽设置为500M.

2020-05-19 12:00:48 1231 1

原创 HIVE添加UDF函数

Hive添加自定义UDF函数Java代码编写自定义编写UDF需要的继承类开发自定义UDF函数需要继承’org.apache.hadoop.hive.ql.exec.UDF’类。Maven的pom依赖<properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncod...

2020-04-29 16:08:27 1003

原创 Scala Spark HFileOutputFormat2.configureIncrementalLoadMap写HFile并doBulkLoad方式导入到HBase

Spark写HFile不太建议:1)一般写HFile是因为数据量很大,才使用这种方式,不然一般的API就可以满足;2)用Spark写大量数据,中途需要去做排序,需要很大的内存与CPU,这种资源的使用是巨大的。3)因为Executor内存的限制,CPU的限制,每次能写的数据量是有限的,并不能像MR一样可以写2T的数据或者更多。4)Spark代码还是很费时的,在排序的时候。MR3个月...

2019-11-27 14:43:04 1239

原创 多MapReduce任务

在写HFile过程中:1)因为存在相同rowkey的数据有很多,存在大的时间戳数据覆盖小的时间戳数据的情况;2)还有如果全部数据都写成HFile,生成的HDFS数据集会很大,以本代码为案例,每次生成2T的数据量;3)所有数据导入到HBase之后,HBase会根据HFile最大存储值进行SplitRegions。这会导致HBase表性能受限。4)所有的数据覆盖处理,都由HBase的c...

2019-11-27 10:47:59 309

原创 MapReduce写HFile,doBulkLoad方式批量导入到HBase(用 HFileOutputFormat2.configureIncrementalLoadMap方式推荐)

上一章博文分析了HFileOutputFormat2.configureIncrementalLoad的使用方法以及弊端。讲述了configureIncrementalLoad内部源码已经给我们设定了Reduce过程,包括map和reduce的输出格式(KeyValue或者Put)、reduce的数量等。而configureIncrementalLoadMap方法没有,所以在生成j...

2019-11-22 09:59:16 1546

原创 MapReduce写HFile,doBulkLoad方式批量导入到HBase(用 HFileOutputFormat2.configureIncrementalLoad方式不推荐)

package com.xxx.xxxx.hivetable.xxxx.usepartition.five_min_xxx_to_hbase;/** * 2019/11/20 */import org.apache.hadoop.hbase.mapred.TableOutputFormat;import org.apache.hadoop.conf.Configuration;imp...

2019-11-21 09:11:12 1420

原创 MapReduce写HFile:Permission denied: user=xxx, access=EXECUTE

错误日志:Failing Oozie Launcher, Main class [org.apache.oozie.action.hadoop.JavaMain], main() threw exception, org.apache.hadoop.security.AccessControlException: Permission denied: user=wang.nengjie,...

2019-11-20 14:52:04 395 1

原创 Sqoop安装与MapReduce读MySql写HDFS加载不了JDBC驱动问题

安装Sqoop1.下载

2017-09-21 11:14:40 1492

原创 FTP虚拟用户名模式

重新整理搭建步骤1网上下载ftp的安装包:     vsftpd-3.0.2.tar.gz2生成认证文件需要的依赖包:yuminstall db4 db4-utils3创建文件夹,放置配置及相关文件mkdir /etc/vsftpd/cd /etc/vsftpd/4编辑映射用户名及密码并生成pam文件vim login.txtlogin.txt内容为:ftppe

2017-09-15 15:18:02 1026

原创 FTP默认模式搭建

ftp默认模式tar –zxf vsftpd-3.0.2.tar cd vsftpd-3.0.2make出错:出错原因:因为系统是64位平台,需要修改链接解决方法:rm -f /lib/libpam.so.0ln -s/lib64/libpam.so.0.81.5 /lib/libpam.so.0rm -f /lib/libcap.so.1ln -s/l

2017-09-15 15:05:26 1476

原创 Hadoop集群环境下HBase集群slave节点总是掉问题

Hadoop集群环境下HBase集群总是掉的问题。因为本人集群是1台Master、3台Slaves,而且硬件很差。所以HBase总是掉线,一直困扰,今天由于业务需求需要启动HBase,故沉下心,仔细的过了一遍,其中参考了很多的前辈的建议,在这里很是感谢。希望对各位有用。

2017-09-14 16:29:56 4216 1

原创 HBase集群搭建1Master、2Slaves

HBase集群Master.Hadoop 10.9.148.21 master(root,123456) /softs/hbase  /softs/ hbase/logsSlave1.Hadoop 10.9.148.26  slave1(root,123456) /softs/hbase  /softs/ hbase/logsSlave2.Hadoop 10.9.148.23  sla

2017-08-29 15:24:07 1428

原创 zookeeper集群搭建1Master、2Slaves

Zookeeper集群搭建Master.Hadoop 10.9.148.21 myid:1(root,123456) /softs/zookeeper/data  /softs/zookeeper/logSlave1.Hadoop 10.9.148.26 myid:2(root,123456) /softs/zookeeper/data  /softs/zookeeper/logSla

2017-08-29 15:20:51 581

原创 Hadoop集群搭建1Master、3Slaves

master.hadoop  10.9.148.193slave1.hadoop  10.9.148.190slave2.hadoop  10.9.148.191slave3.hadoop  10.9.148.192root 123456   hadoop 1234561. 重装系统Centos62. 设置固定IPIPv4:手动地址           子网

2017-08-29 13:14:56 4928

转载 linux下的动态库(转)

linux下文件的类型是不依赖于其后缀名的,但一般来讲: .o,是目标文件,相当于windows中的.obj文件 .so 为共享库,是shared object,用于动态连接的,和dll差不多 .a为静态库,是好多个.o合在一起,用于静态连接 .la为libtool自动生成的一些共享库,vi编辑查看,主要记录了一些配置信息。可以用如下命令查看*.la文件的格式   $file *.

2015-09-30 15:37:34 617

Hadoop高可用HA集群3.x以上版本安装.docx

Hadoop高可用集群安装,4节点;Hadoop完全分布式安装以及相关组件:zookeeper、Kafka、mysql、Hive、Spark等

2020-08-07

hadoop-3.0.0&&spark-2.4.0&&scala-2.13.3&&maven-3.6.3

hadoop-3.0.0.jar安装包;spark-2.4.0.gz安装包;scala-2.13.3.zip安装包;apache-maven-3.6.3-bin.zip安装包

2020-07-13

confuse-2.7.tar

搭建集群监控系统ganglia所需的包 confuse-2.7.tar 安装confuse 1 tar -xvzf confuse-2.7.tar.gz 2 ./configure CFLAGS=-fPIC --disable-nls --prefix=/usr/local/confuse 3 make 4 make install 拷贝动态链接库 1 mkdir -p /usr/local/confuse/lib64 2 /bin/cp -a -f /usr/local/confuse/lib/* /usr/local/confuse/lib64/

2017-09-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除