自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 资源 (4)
  • 问答 (4)
  • 收藏
  • 关注

原创 激活方法案

singleDoc#%20《Mac2020-2023(备用方法%20手动粘贴激活码型)》

2024-03-18 15:25:07 99

原创 Go语言环境变量安装

1.SDK下载安装Go语言SDK安装包地址;https://golang.google.cn/dl/2.安装下载后点击 一路next便可3.配置环境变量在系统变量下面新建 GOROOT 以及 GOROOT备注:GOPATH为创建项目的目录 GOROOT为SDK的目录在用户变量下 点击Path 新增%GOROOT%\bin4.安装完毕进行测试用win键+R,来打开命令行提示符窗口,即DOS界面,输入go version 出现如下图即可...

2021-01-08 23:10:41 152

原创 Storm启动命令

在启动storm之前要确保nimbus和supervisor上的Zookeeper已经启动(1)查看zk的状态:./zkServer.sh status12(2)如果zk没有开启,将nimbus和supervisor的zk开启./zkServer.sh start1(3)启动nimbus(切换到storm的bin目录下)./storm nimbus &1(4)启动supervisor(切换到storm的bin目录下)./storm supervisor &1(5

2020-10-13 16:22:15 1936

转载 开源镜像网站

https://mirrors.tuna.tsinghua.edu.cn/

2020-09-29 14:50:51 113

原创 git pull 出现冲突

出现以下错误:error: The following untracked working tree files would be overwritten by merge:doc/钃濋哺/lgame/datamore.shPlease move or remove them before you merge.AbortingUpdating 70a0b7c…aa0a44f意思是说更新下来的内容和本地修改的内容有冲突直接一条命令 git clean -d -fx 搞定...

2020-08-11 11:28:12 199

原创 git脚本命令

git命令脚本》》》git推送git clone “地址” 下载到本地git init // 初始化版本库git add . // 添加文件到版本库(只是添加到缓存区),.代表添加文件夹下所有文件git commit -m “first commit” // 把添加的文件提交到版本库,并填写提交备注git remote add origin 你的远程库地址 // 把本地库与远程库关联git push -u origin master // 第一次推送时git push or

2020-07-24 09:57:41 322

原创 idea生产数据模块

import java.io.{FileOutputStream, OutputStreamWriter}import java.text.{DecimalFormat, SimpleDateFormat}import java.util.Dateimport scala.collection.mutableimport scala.collection.mutable.ListBufferimport scala.util.control.Breaksobject ProductLog {p

2020-05-12 12:40:13 149

原创 ideaAPI对hbase进行操作

package com.bawei;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.;import org.apache.hadoop.hbase.client.;import org.apache.hadoop.hbase.util.Bytes;import java.io.IOException;public class Count {//创建连接private static Conne

2020-05-12 12:39:21 728

原创 大数据文档需求面试题

索引问题答案配图备注A1azkaban使用流程?类似工具(oozie乌贼)创建之前我们先了解下之间的关系,一个工程包含一个或多个flows,一个flow包含多个job。job是你想在azkaban中运行的一个进程,可以是简单的linux命令,可是java程序,也可以是复杂的shell脚本,当然,如果你安装相关插件,也可以运行插件。一个job可以依赖于另一个job,这种多个job和它们的依赖组成的图表叫做flow1.Command 类型单一 job 示例A.首先创建一个工程(proje

2020-05-12 00:30:05 7048

原创 综合分析平台

package com.sdg.consumer.myhbaseimport java.text.SimpleDateFormatimport java.utilimport com.sdg.consumer.myutils.{ConnectionInstance, HBaseUtil, PropertiesUtil}import org.apache.hadoop.conf.Configurationimport org.apache.hadoop.hbase.{HBaseConfigurati

2020-05-12 00:25:18 240

原创 list集合数据 基于CEP 进行恶意登录监控

import java.utilimport org.apache.flink.cep.PatternSelectFunctionimport org.apache.flink.cep.scala.CEPimport org.apache.flink.cep.scala.pattern.Patternimport org.apache.flink.streaming.api.TimeCha...

2020-04-14 00:51:55 357

原创 idea中连接mysql获取数据

package com.baweiimport org.apache.flink.api.common.typeinfo.BasicTypeInfoimport org.apache.flink.api.java.io.jdbc.JDBCInputFormatimport org.apache.flink.api.java.typeutils.RowTypeInfoimport org.a...

2020-04-14 00:00:26 779

原创 读取本地文件进行Hbaes表数据上传

package com.baweiimport org.apache.flink.configuration.Configurationimport org.apache.flink.streaming.api.functions.sink.{RichSinkFunction, SinkFunction}import org.apache.flink.streaming.api.scala....

2020-04-13 22:06:39 137

原创 进行恶意登录监控二方法

package com.baweiimport org.apache.flink.configuration.Configurationimport org.apache.flink.streaming.api.functions.sink.{RichSinkFunction, SinkFunction}import org.apache.flink.streaming.api.scala....

2020-04-13 21:56:39 304

原创 基于端口和Flink CEP进行恶意登录监控

package commmmimport java.utilimport org.apache.flink.cep.PatternSelectFunctionimport org.apache.flink.cep.scala.CEPimport org.apache.flink.cep.scala.pattern.Patternimport org.apache.flink.stream...

2020-04-13 21:46:52 499

原创 基于本地进行恶意登录监控

package commmimport org.apache.flink.api.common.state.{ListState, ListStateDescriptor}import org.apache.flink.streaming.api.TimeCharacteristicimport org.apache.flink.streaming.api.functions.KeyedPr...

2020-04-13 21:41:22 242

原创 计算商品流量数据

//输出数据的样例类case class LogEvent(ip:String,userId:String,eventTime:Long,method:String,url:String)//定义窗口聚合结果样例类case class UrlViewCount(url:String,windowEnd:Long,count:Long)object word2 {def main(arg...

2020-04-13 21:39:18 194

原创 热门商品和读取本地文件由kafka发送数据

//定义输出数据的样例类case class UserBehavior(userId:Long,itemId:Long,categoryId:Int,behavior:String,timestamp:Long)//定义窗口聚合结果样例类case class ItemViewCount(itemId:Long,windowEnd:Long,count:Long)object word1 {...

2020-04-13 21:37:02 208

原创 关于TableEvent进行注册表查询

def main(args: Array[String]): Unit = {//创建批处理val env = ExecutionEnvironment.getExecutionEnvironment//设置并行毒env.setParallelism(1)//创建table的上下文环境对象val tableenv = TableEnvironment.getTableEnvironme...

2020-04-13 21:34:26 395

原创 Flink 连接Hbase进行建表正删改查操作

//创建连接private static Connection connection=null;static {try {//创建配置文件Configuration conf = HBaseConfiguration.create();//设置zookeeper参数和主机名称conf.set(“hbase.zookeeper.quorum”,“hdp111,hdp222,hdp333...

2020-04-13 21:29:34 1184

原创 使用Flume采集流式数据发送到Kafka,再由Flink消费Kafka数据,实现电话号码统计本地文件读取

def main(args: Array[String]): Unit = {val env = ExecutionEnvironment.getExecutionEnvironmentenv.setParallelism(1)val log: DataSet[String] = env.readTextFile("D:\\Mywork\\workspace\\IdeaProjects\\...

2020-04-13 21:06:02 278

原创 使用Flume采集流式数据发送到Kafka,再由Flink消费Kafka数据,实现电话号码统计

def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironmentenv.setParallelism(1)val properties = new Properties()properties.setProperty("bootstrap.servers"...

2020-04-13 21:04:56 231

原创 使用Flume采集流式数据发送到Kafka,再由Flink消费Kafka数据,实现车牌号码统计端口

def main(args: Array[String]): Unit = {//创建flink执行环境val env = StreamExecutionEnvironment.getExecutionEnvironment//设置并行度env.setParallelism(1)//从kafka获取数据val properties = new Properties()properti...

2020-04-13 20:57:46 561

原创 使用Flink Maven项目进行词频统计

批处理def main(args: Array[String]): Unit = {//创建执行环境val env = ExecutionEnvironment.getExecutionEnvironment//从文件中读取数据val unit = env.readTextFile("C:\\Intel\\day046\\input\\word.txt")//进行数据处理val ww...

2020-04-13 20:52:45 229

原创 kafka与flume启动命令

kafka的启动命令bin/kafka-server-start.sh -daemon config/server.propertieskafka的关闭命令bin/kafka-server-stop.shkafka生产者命令kafka-console-producer.sh --broker-list node1:9092 --topic my-kafka-topic //my-k...

2020-04-13 20:43:27 246

原创 在Hive中创建表同时关联HBase

CREATE TABLE hbase_staff_A(id int,name string,job string,mgr int,hiredate string,sal double,comm double,deptno int)STORED BY ‘org.apache.hadoop.hive.hbase.HBaseStorageHandler’WITH SERDEPROPE...

2020-04-13 20:30:19 220

ct_consumer.zip

kafka进行数据生产 flume采集数据 获取数据 然后通过idea中scala api进行hbase创建表列族数据的进行数据存储

2020-05-12

wangqi-senior1-week3.zip

上面可以从其地址获取其源代码 但有些地方有些不足之处 到时会进行相应的加以改变 可以使其变的更加完美!

2019-12-16

I LOVE YOU.zip

txt文档应该会出现乱码情况 可以使用EditPlus来解决问题 源代码公开的可以修改 个人也是下载源代码加以修改的。

2019-12-10

wangqi-redis-test.zip

可以获取个别的随机数据信息 但个别有些不足之处 到时候会努力更改 尽力做到完美!可以获取个别的随机数据信息 但个别有些不足之处 到时候会努力更改 尽力做到完美!

2019-12-09

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除