自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(83)
  • 收藏
  • 关注

原创 hive orc格式 不能使用load方式

建表插入create table ods_sail2(id bigInt,num int,sail_pirce decimal(6,2),discount DECIMAL(2,1),employee_id BIGINT,sail_date date)row format delimited fields terminated by ','stored as orcload data local inpath 'file:///root/testData/ods_sail.txt' i

2021-07-22 11:07:18 778

原创 mysql 修改字符编码

修改表的字符编码:查看show create table ods_goodsalter table ods_goods default character set utf8;修改字段的字符编码:alter table ods_goods convert to character set utf8;

2021-07-22 10:30:30 157

原创 oracle 自增长、触发器、函数

oracle 跟mysql 实现 主键自增长的方式不一样实现自增create table student(id number,name VARCHAR2(32),primary key(id));select * from student;create sequence student_seq minvalue 1 nomaxvalueincrement by 1 start with 1 nocache;select student_seq.nextval from dual;cr

2021-07-11 19:08:37 475 1

原创 Flink——KeyedProcessFunction

package process;import kb11.beans.SensorReading;import org.apache.flink.api.common.state.ValueState;import org.apache.flink.api.common.state.ValueStateDescriptor;import org.apache.flink.api.java.tuple.Tuple;import org.apache.flink.configuration.Confi

2021-07-07 15:40:44 691

原创 idea 不常用但是很有用的命令

alt+7 查看当前类的所有方法、变量等ctrl+alt+u 查看类的关系ctrl+shift+/

2021-07-01 22:57:28 48

原创 Flink——WaterMark

WaterMark:数据会因为网络和背压等原因导致乱序的产生,对于late element 不能一直等待,要有一个机制来保证在一个特定的时间后,必须触发windows去计算,这个机制就是WaterMarkpackage kb11.window;import kb11.beans.SensorReading;import org.apache.commons.collections.IteratorUtils;import org.apache.flink.api.common.functions

2021-07-01 15:49:24 160

原创 Flink —— 滑动窗口 延迟等待

source:kafkatransform:求maxsink:控制台输出package kb11.window;import kb11.beans.SensorReading;import org.apache.flink.api.common.functions.MapFunction;import org.apache.flink.api.common.functions.ReduceFunction;import org.apache.flink.api.common.serializ

2021-06-30 18:44:09 728

原创 Flink 算子map、split、union、select

package _20210628import java.util.{Collections, Properties}import org.apache.flink.api.common.serialization.SimpleStringSchemaimport org.apache.flink.streaming.api.scala.{ConnectedStreams, DataStream, KeyedStream, StreamExecutionEnvironment}import org

2021-06-29 16:02:06 177

原创 flink 读取kafka数据写入到mysql scala版

package _20210628import java.sql.{Connection, DriverManager, PreparedStatement}import java.util.Propertiesimport org.apache.flink.api.common.serialization.{DeserializationSchema, SimpleStringSchema}import org.apache.flink.configuration.Configuration

2021-06-28 19:17:07 706 3

原创 SparkStreaming 消费kafka 小案例

package _20210622import org.apache.kafka.clients.consumer.{ConsumerConfig, ConsumerRecord}import org.apache.spark.SparkConfimport org.apache.spark.streaming.dstream.{DStream, InputDStream}import org.apache.spark.streaming.kafka010.{ConsumerStrategies,

2021-06-22 11:30:20 184

原创 sparkStreaming-wordcount 及端口占用查看 命令 lsof

package _20210622import org.apache.spark.sql.SparkSessionimport org.apache.spark.streaming.dstream.ReceiverInputDStreamimport org.apache.spark.streaming.{Seconds, StreamingContext}import org.apache.spark.{SparkConf, SparkContext}object SparkStreanDe

2021-06-22 10:43:04 118

原创 Error during job, obtaining debugging information... FAILED: Execution Error, return code 2 from org

create table userbehavior_partitioned2(user_id string,item_id string,category_id string,behavior_type string)partitioned by (time string)insert into userbehavior_partitioned2 partition(time)select user_id,item_id,category_id,behavior_type,from_u

2021-06-17 21:23:11 2040

原创 java.lang.NumberFormatException: For input string: “spu_price“

scala> rdd.filter(x=> x.split(",")(5)!=" ").map(x=>(x.split(",")(1),x.split(",")(5))).map(x=>(x._1,x._2.toDouble)).reduceByKey(_+_).collect.foreach(println)分析:出现报错先看懂啥意思,上面的意思说因为"spu_price"类型转换异常。刚开始想的是:切分之后拿到的数组的某个元素就是string啊,而scala的str

2021-06-12 16:34:58 1427 1

原创 hive 报错Starting to launch local task to process map join; maximum memory = 518979584 Exception

Starting to launch local task to process map join; maximum memory = 518979584Exception in thread “main” java.lang.OutOfMemoryError: Java heap spacemapjoin的时候 OOM了。MapJoin简单逻辑:读取小文件,缓存到distributeCache 再从cache里边读,和大表进行关联。简单来说就是这边把表读到内存中,内存塞不下了爆了OOM.

2021-06-10 19:20:19 904

原创 kafka往hbase 写文件时需要在C:\Windows\System32\drivers\etc\hosts配置的文件

找到文件C:\Windows\System32\drivers\etc\hosts打开之后添加 hbase 所在 ip添加完之后再试试

2021-06-09 15:28:36 96

原创 hive 映射 mongodb

代码create external table ${db}.mg_train(user_id String,event_id String,invited String,time_stamp String,interested String)stored by 'com.mongodb.hadoop.hive.MongoStorageHandler'with serdeproperties('mongo.columns.mapping'='{"user_id":"user","e

2021-06-08 16:34:30 340

原创 Hive映射 Hbase

hive 映射hbase

2021-06-08 16:26:14 525

原创 去 https://mvnrepository.com/ 网址找jar包

找monog-java-driver-3.12.7.jar 为例https://mvnrepository.com/找你想要的的版本(同级版本挑多的下)可以直接下载,也可以在maven pom.xml中贴上去让maven下载再去找jar包

2021-06-08 10:42:57 472

原创 hive不是很常用的命令和部分hdfs命令

hdfs 内存使用情况linux查看yarn状态命令yarn node -list allwep port 8088 查看yarn50070 dataNode不是很健康的节点 需要删除文件腾出空间 不然mapreduce不能运行查看当前目录下的文件占的内存大小du -h -x --max-depth=1//查看内存使用df -h如遇到hive不能起的情况(元数据相关的原因)尝试起mysql 和 如下命令hive --service metastore &删除库

2021-06-08 08:26:02 98

原创 maven 项目中查找jar包源文件

maven下下来的jar包都在setting.xml文件中,去找这个文件(如果记不住的话按图操作)看图操作点击Maven Projects 点击扳手图标复制目录,去文件夹中搜索D:\apache-maven\apache-maven-3.6.1\conf\打开往下翻 找到d:/jarstore再去文件夹中找这个目录,里面全是jar包接下来怎么去找org.mongodb.mongo-hadoop jar包呢org.mongodb.mongo-hadoopmongo-hadoop

2021-06-07 15:56:42 2141

原创 hbase 查询行数

第一种:在hbase命令行count ‘event_db:users’,INTERVAL=>1000每1000行显示第二种:在linux命令行hbase org.apache.hadoop.hbase.mapreduce.RowCounter ‘event_db:users’第二种花的时间比第一种花的时间少很多(数据量大的时候更明显)...

2021-06-07 10:50:44 805

原创 Maven Exception in thread “main“ java.lang.NoSuchMethodError: org.apache.hadoop.conf.Configuration.g

package _0605import org.apache.spark.rdd.RDDimport org.apache.spark.sql.{DataFrame, Row, SparkSession}import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType}import org.apache.spark.{SparkConf, SparkContext}object ToMnogo

2021-06-06 09:12:56 693

原创 mongodb linux增删改查操作

mongodb 安装[root@hadoop103 software]# tar -zxf mongodb-linux-x86_64-rhel70-4.0.24.tgz[root@hadoop103 software]# mv mongodb-linux-x86_64-rhel70-4.0.24 mogodb[root@hadoop103 software]# cd mongodb新建数据库目录: /root/software/mongodb/data/db新建数据库日志:/root/sof.

2021-06-05 18:49:40 155

原创 mongodb 的java代码的常用增删改查等操作

package _0605;import com.mongodb.BasicDBObject;import com.mongodb.DB;import com.mongodb.MongoClient;import com.mongodb.MongoClientOptions;import com.mongodb.client.*;import com.mongodb.client.model.Filters;import com.mongodb.client.result.DeleteRes

2021-06-05 18:47:35 74

原创 mongodb 报错 Exception in thread “main“ com.mongodb.MongoBulkWriteException: Bulk write operation erro

---------------------test类 kafkaToMango2 ------------------------------package _20210531.oop.kafkatoHbaseAndMongo.oop;import _20210531.oop.kafkatoHbaseAndMongo.oop.mongohandler.TrainHandlerMongo;import _20210531.oop.kafkatoHbaseAndMongo.oop.worker.Work

2021-06-05 18:44:43 1572

原创 mongodb 安装及 可视化工具MongoDBCompass

mongodb 安装[root@hadoop103 software]# tar -zxf mongodb-linux-x86_64-rhel70-4.0.24.tgz[root@hadoop103 software]# mv mongodb-linux-x86_64-rhel70-4.0.24 mogodb[root@hadoop103 software]# cd mongodb新建数据库目录: /root/software/mongodb/data/db新建数据库日志:/root/sof.

2021-06-01 19:57:35 207

原创 java多线程 wordcount

package _20210531_c3p0.wcTest;import java.util.Map;import java.util.TreeMap;/** * @Author Xulihua * @Date2021/5/31 * @Description */public class wdcnt implements Runnable{ Map<String,Integer> map=new TreeMap<>(); String cont

2021-05-31 22:26:01 91

原创 kafka数据写到hbase

package _20210531.oop.kafkatoHbase;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.HBaseConfiguration;import org.apache.hadoop.hbase.HConstants;import org.apache.hadoop.hbase.TableName;import org.apache.hadoop.hbase.client.

2021-05-31 18:30:37 561

原创 Hbase 报错 Master is initializing

问题出现情况:Hbase 依赖zookeeper ,有两种方式,用自带的zookeeper和 外部的zookeeper, 我这边先是用的自带的,那为什么改成外部的,因为用内部的话,会跟外部的zookeeper冲突,外部的zookeeper还要服务kafka,所以决定改成外部的。刚开始天真的以为是只要改 hbase-env.sh 里的export HBASE_MANAGES_ZK=false 就可以了hbase-site.xml 改成如下图但是启动start-hbase.sh hbas

2021-05-31 14:55:50 961

原创 kafka Streams

package _0528;import org.apache.kafka.clients.consumer.ConsumerConfig;import org.apache.kafka.common.serialization.Serdes;import org.apache.kafka.streams.*;import org.apache.kafka.streams.kstream.KTable;import java.util.Arrays;import java.util.List

2021-05-29 17:17:07 64

原创 kafka 基本配置和 常用命令

vi /root/software/fafka211/config//单节点 配置vi server-propertiesset nu21 broker.id=036 advertised.listeners=PLAINTEXT://192.168.107.103:9092 //写消息的端口号60 log.dirs=/root/software/kafka211/kafka-logs123 zookeeper.connect=192.168.107.103:2181137 dele

2021-05-29 08:40:22 143

原创 Java 数据库连接池

-----------------------MysqlConnectionPool 类-----------------------------------package _20210528;import java.sql.Connection;import java.util.Collection;import java.util.LinkedList;/** * @Author Xulihua * @Date2021/5/28 * @Description */public c

2021-05-29 08:22:45 44

原创 Scala 数据库连接 查询 插入

package inClassimport java.sql.{Connection, DriverManager}//伴生类class MysqlUtil{}object MysqlUtil { implicit class Mysql(obj:Demon02MySql){ private var driver="com.mysql.jdbc.Driver" private var url="jdbc:mysql://192.168.107.1

2021-05-28 23:10:11 301

原创 JAVA数据库连接

driver url user password 在resource/propertiesdriver=com.mysql.jdbc.Driverurl=jdbc:mysql://192.168.107.103:3306/testuser=rootpassword=ok----------------------------------------------------------public class FinalFields { public static final Str.

2021-05-28 15:43:08 48

原创 linux连接不了网络的问题

怎么发现问题的:在装mysql的时候需要安装 依赖 perl于是果断 yum -y install perl捣鼓了半天,想着是不是网络问题于是尝试 ping www.baidu.com 果然不能连接就去baidu找啊 找到了一个 判断连接的命令nmcli d接下来操作开始输入命令 nmtui选择Edit a connection 回车进入下一个界面 刚才我这边ens34 显示disconnected上下键选择ens34箭头指向的值必须是如图所示 才能成功,我这边

2021-05-25 19:25:19 216

原创 flume读取netcat数据 同时输出logger hdfs kafka

java代码package kb11;import org.apache.flume.Context;import org.apache.flume.Event;import org.apache.flume.interceptor.Interceptor;import java.util.ArrayList;import java.util.List;import java.util.Map;/** * @Author Xulihua * @Date2021/5/25 ..

2021-05-25 16:24:07 151

原创 flume 读取数据并写入到hdfs

1.在/root/software/flume160/conf/kb11job 下vi userfriend-hdfs.confuser_friends.sources=userFriendsSourceuser_friends.channels=userFriendsChanneluser_friends.sinks=userFriendsSinkuser_friends.sources.userFriendsSource.type=spooldir#文件读取路径user_friends.

2021-05-24 19:43:50 362

原创 spark 写入mysql 出现的连接问题

spark中dataFranme 的join操作出现的问题 val resu1: DataFrame = joined2.filter(($"register_time" + 7 * 86400000 )> $"signin_time") .groupBy("register_time").agg(countDistinct(registered("userUID")).as("num"))// resu1.show() val resu2: DataFrame = jo

2021-05-19 23:32:32 231

原创 idea无法加载主类错误及 log4j失效 原因其一

用maven打包在右边MavenProjects 里的package 点击打包在target出现 xxxxx.jar在后面的运行中有可能会出现 log4j 失效 和 无法加载主类的错误。解决办法:删除target包重新运行应该可以,具体原因还不是太清楚...

2021-05-11 10:42:15 347

转载 用rpm包安装mysql 路径位置

https://blog.51cto.com/sookk8/422845

2021-05-10 16:13:31 718

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除