自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(137)
  • 资源 (4)
  • 收藏
  • 关注

原创 javacv-06:rtsp视频流存储在腾讯云对象存储中---代码比较稚嫩

rtsp视频流存储在腾讯云COS

2021-03-27 10:45:20 653 1

原创 javacv-05:开启真正的本地视频直播,添加音频

添加音频相关代码,开启本地视频直播,老铁们来刷666

2021-03-19 10:58:18 630

原创 javacv-04:录制器升级,实现rtsp视频流实时转发

实现rtsp视频流实时转发

2021-03-11 09:26:09 1072 1

原创 javacv-03:录制流媒体服务器的rtsp/rtmp视频内容,保存为本地视频文件

录制流媒体服务器的rtsp/rtmp视频内容,保存为本地视频文件

2021-03-01 15:23:07 3519 4

原创 javacv-02:基于本地摄像头实现视频的保存和远程直播

基于本地摄像头实现视频的保存和远程直播

2021-02-24 17:23:18 897 1

原创 javacv-01:调用本地摄像头窗口,开始视频直播

本篇博文作为javacv实战的第一篇文章,可以让大家简单的了解javacv的魅力。

2021-02-04 09:54:03 699

原创 初始流媒体与javacv

背景介绍大数据离线内容这几年做的也比较多了,今年想做些实时的大数据处理,包含实时采集、实时处理、实时分析以及后续的实时推荐等。目前公司是对接了一些海康的摄像头,正好借此机会,学习并整理一下相关的采集知识点,仅供入门使用。本人文章中的内容也是在前人的基础上进行实践,在确保小白可以读懂的同时,也为自己沉淀一些内容。

2021-01-31 19:14:54 521 4

原创 从零开始搭建流媒体服务器

背景介绍本文使用的流媒体服务器的搭建是基于rtmp(Real Time Message Protocol)协议的,rtmp协议是应用层的协议,要依靠底层的传输层协议,比如tcp协议来保证信息传输的可靠性。最后提供了一个不错的测试方案。流媒体服务器依赖的服务1,nginx 服务器;2,nginx服务器安装需要依赖的服务 OpenSSL、pcre、zlib、 c++、gcc等。服务器环境是Centos7.5 64 位,本地操作系统 win10 企业版。

2021-01-25 15:51:05 3728

原创 oracle中生成时间表

SELECT LEVEL + DATE '2019-11-01' dateFlag ,LEVEL + DATE '2019-11-01' dateF , trunc(dbms_random.value(1,50)) AS value FROM dualCONNECT BY LEVEL < DATE '2021-12-31' - DATE '2019-11-01' + 2

2022-01-03 20:59:54 898

原创 Hive中计算两个时间差的方式

(HOUR (CAST(applydet.RSV_END_DATE as timestamp) - CAST(applydet.rsv_begin_date as timestamp)) * 60 + MINUTE(CAST(applydet.RSV_END_DATE as timestamp) - CAST(applydet.rsv_begin_date as timestamp)) ) as minu ((unix_timestamp(applydet.RSV_END_DATE,'yyy.

2021-12-24 16:26:48 2958

原创 图数据库之间的差异

图数据库选型差异点

2021-09-18 11:37:54 431

原创 hive中查询数据为NULL,impala中查询数据可以正常显示

Impala是以序号形式读取parquet,而Hive是以列形式读取parquet

2021-07-15 11:20:59 1680 1

转载 理解MongoDB默认的ObjectID--转载篇

BSON ObjectID SpecificationA BSON ObjectID is a 12-byte value consisting of a 4-byte timestamp (seconds since epoch), a 3-byte machine id, a 2-byte process id, and a 3-byte counter. Note that the ti...

2020-03-03 21:44:21 351

原创 冷笑话第一期

有一天让梨的孔融对叔叔说: “我是个小孩子,我吃个小的就行”觉得叔叔会说什么?

2019-09-10 16:18:21 302 1

原创 针对最近项目上线的反思总结

前言:从上次项目上线到此次项目上线中间的经历的时间是两个月。项目上线内容包含BI报表、portal页面、推荐引擎服务、数据资产地图、制度数据、外部数据以及新闻数据等。涉及方面分为采集、处理、调度、算法、页面展现等。涉及的方向包含:java和python(语言)、oracle(数据库)、springboot(框架)、大数据(主要是hive、spark和sqoop等服务)、mlp(算法)、vue(前端...

2019-09-01 14:28:48 427

原创 plsql根据crt的代理进行内网连接oracle数据库

场景描述:有一台拥有公网IP的服务器,提供SSH服务,端口22,可远程连接;该服务器拥有多网卡,配有内网IP;从数据安全角度内网的Oracle未提供公网服务,但SSH服务器所在内网端可以访问数据库服务器; 现在需要访问数据库服务器,进行数据操作,首先想到的方法:在SSH服务器上安装Oracle客户端,使用SQL*PLUS访问数据库;或者使用一些第三方数据库管理客户端;无论是使用Oracle...

2019-08-02 15:59:07 2405 3

转载 hive常用的字符串函数

Java代码语法:length(stringA) 返回值:int 说明:返回字符串A的长度 举例: hive>selectlength(‘abcedfg’)fromdual; 7Java代码语法:reverse(stringA) 返回值:string 说明:返回字符串...

2019-04-25 09:24:58 183

转载 hbase落地后hdfs磁盘急剧增长的解决办法

场景用flume+hbase thrift朝HBase插入了大约2亿行服务器的日志数据, 在用hbase org.apache.hadoop.hbase.mapreduce.Export 的时候, 发现出现了大量的ScannerTimeoutException,于是ctrl+c取消了落地到HDFS.HDFS 一共有 3 个datanode. 每个节点有2T的磁盘空间$bin/hbas...

2019-04-18 21:54:08 678

原创 idea快捷键

Ctrl+Shift + Enter,语句完成“!”,否定完成,输入表达式时按 “!”键Ctrl+E,最近的文件Ctrl+Shift+E,最近更改的文件Shift+Click,可以关闭文件Ctrl+[ OR ],可以跑到大括号的开头与结尾Ctrl+F12,可以显示当前文件的结构Ctrl+F7,可以查询当前元素在当前文件中的引用,然后按 F3 可以选择Ctrl+N,可以快速打开类C...

2019-04-17 18:39:10 106

转载 crt配置http代理上网

https://blog.csdn.net/firstime_tzjz/article/details/64920908

2019-04-11 09:45:22 920

转载 sqoop导入导出数据到Hadoop的代理执行

最近在做执行服务器,它根据用户输入的sqoop命令代理向hadoop提交任务执行,目前需要支持的数据源包括mysql、oracle以及公司自己的分布式数据库DDB,数据导入的目的地可以是HDFS或者hive表。首先来讨论一下对hive的支持,hive是作为一个支持JDBC的数据库,它的数据分成两部分,元数据和数据,元数据保存在一个本地的数据库,例如嵌入式数据库derby或者mys...

2019-04-09 13:49:46 608

转载 flink初体验

https://www.jianshu.com/p/cd39656c39d3

2019-03-29 22:20:51 187

转载 cdh5.15安装apache flink

1.我集群环境是cdh5.15,hadoop2.6,Scala2.11版本的,所以下载的是:flink-1.7.2-bin-hadoop26-scala_2.11.tgzhttps://archive.apache.org/dist/flink/flink-1.7.2/2.将该压缩包拷贝到master01,slave01,slave02的 /myflink 目录在所有节点:mkdi...

2019-03-29 22:12:10 5918 2

原创 sqoop中export和import的参数说明

一.先创建一个小表(test_01)进行测试(主节点IP:169.254.109.130/oracle服务器IP:169.254.109.100)1.测试连接oracle;sqoop list-tables --connect jdbc:oracle:thin:@169.254.109.100/ciicods --username odsuser --password odsuser2...

2019-03-28 17:47:03 2246

原创 sqoop将hive的数据导出到mysql中

https://www.cnblogs.com/pejsidney/p/8953422.html

2019-03-28 11:11:39 253

转载 flink消费kafka数据 之 消费位点

原文:https://data-artisans.com/blog/how-apache-flink-manages-kafka-consumer-offsets作者:Fabian Hueske, Markos Sfikas译者:云邪(Jark)在本周的《Flink Friday Tip》中,我们将结合例子逐步讲解 Apache Flink 是如何与 Apache Kafka 协同工作...

2019-03-28 10:26:52 2134

原创 flink+kafka实现wordcount实时计算+错误解决方案

1. FlinkFlink介绍:Flink 是一个针对流数据和批数据的分布式处理引擎。它主要是由 Java 代码实现。目前主要还是依靠开源社区的贡献而发展。对 Flink 而言,其所要处理的主要场景就是流数据,批数据只是流数据的一个极限特例而已。再换句话说,Flink 会把所有任务当成流来处理,这也是其最大的特点。Flink 可以支持本地的快速迭代,以及一些环形的迭代任务。Flink的...

2019-03-28 08:30:41 585

原创 kafka与flink整合时候出现的异常:nio.channels

java.nio.channels.ClosedChannelExceptionat kafka.network.BlockingChannel.send(BlockingChannel.scala:110)at kafka.consumer.SimpleConsumer.liftedTree1$1(SimpleConsumer.scala:98)at kafka.consumer.Simp...

2019-03-27 20:34:33 859

转载 hive之group by的用法

一,GROUP BY 执行理解先来看下表1,表名为test:表1  执行如下SQL语句:SELECT name from test GROUP BY name ;你应该很容易知道运行的结果,没错,就是下表2:表2  可是为了能够更好的理解“group by”多个列“和”聚合函数“的应用,我建议在思考的过程中,由表1到表2的过程中,增加一个虚构的中间表:...

2019-03-27 15:21:07 9796

转载 利用sqoop将hive中的数据导出到mysql中

背景:sqoop主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。这里主要以mysql为例介绍一下,导入导出的使用方法。详情参考官方文档:http://sqoop.apa...

2019-03-27 10:06:02 4492

转载 如何使用sqoop工具

在使用过程中可能遇到的问题:sqoop依赖zookeeper,所以必须配置ZOOKEEPER_HOME到环境变量中。 sqoop-1.2.0-CDH3B4依赖hadoop-core-0.20.2-CDH3B4.jar,所以你需要下载hadoop-0.20.2-CDH3B4.tar.gz,解压缩后将hadoop-0.20.2-CDH3B4/hadoop-core-0.20.2-CDH3B4.j...

2019-03-27 09:17:15 448

原创 vim下的快捷键

一,什么是vim  Vim是一个类似于Vi的著名的功能强大、高度可定制的文本编辑器,在vi的基础上改进和增加了很多特性。  vim编辑器是Linux系统下标准的编辑器,作用相当于windows系统中的记事本一样,但他却比记事本强大多了,vim完全不逊色于任何最新的文本编辑器。他是我们使用Linux系统不能缺少的工具。要想成为Linux大牛,熟练掌握vim的功能是必须的学会它后,将在Li...

2019-03-17 19:13:20 221

原创 关于linux的date的解释

https://blog.whsir.com/post-404.html

2019-03-16 22:20:48 133

原创 phpldapadmin1.2.3页面的使用

https://blog.csdn.net/qq_21383435/article/details/83342736

2019-03-06 22:39:32 220

原创 CDH-Kerberos环境下Kafka集成Sentry进行权限管理

http://www.pianshen.com/article/633756736/

2019-03-06 12:28:08 603

原创 如何在CDH集群中部署Kafka Manager---只是一个链接

https://cloud.tencent.com/developer/article/1349478

2019-03-05 21:34:01 436

转载 CDH5.14版本集成的kafka---转载

CDH5.14安装Kafka过程:在CDH官网中关于Kafka的安装和升级中已经说到,在CDH中,Kafka作为一个分布式的parcel,单独出来作为parcel分发安装包。只要我们把分离开的kafka的服务描述jar包和服务parcel包下载了,就可以实现完美集成了。注意集成之前请阅读官方文档,特别是版本支持方面。查看kafka与CDH版本对应:https://www.cloud...

2019-03-05 21:29:55 841

转载 kafka搭建

安装及部署回到顶部一、环境配置 操作系统:CentOS7 Kafka版本:0.9.0.0 Kafka官网下载:请点击 JDK版本:1.7.0_51 SSH Secure Shell版本:XShell 5 回到顶部二、操作过程1、下载Kafka并解压 下载: curl -L -O http://mirrors.cnni...

2019-03-05 12:38:51 214

转载 kafka配置文件解读

每个kafka broker中配置文件server.properties默认必须配置的属性如下:broker.id=0num.network.threads=2num.io.threads=8socket.send.buffer.bytes=1048576socket.receive.buffer.bytes=1048576socket.request.max.bytes=10485...

2019-03-05 12:38:15 201

转载 ldap安装

LDAP安装1、安装cyrus :从http://ftp.andrew.cmu.edu/pub/cyrus-mail/下载cyrus-sasl-2.1.21.tar.gztar -zxvf cyrus-sasl-2.1.19.tar.gzcd cyrus-sasl-2.1.21./configur...

2019-03-04 14:49:49 568

工作清晰的桌面.jpg

工作清晰的桌面.jpg

2021-11-30

tessdata-ocr

ocr识别包,包含简体中文、繁体中文、英文等133类

2021-01-26

flume解析日志所需jar

flume解析从kafka中收集到的日志,将解析后的日志存入hbase和es,配合博客使用

2018-06-21

flume采集日志jar

flume采集日志所用的jar包,将自动采集生成的日志,配合博客使用。

2018-06-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除