TMH_ITBOY
码龄11年
关注
提问 私信
  • 博客:134,827
    社区:592
    问答:4,143
    动态:2,745
    142,307
    总访问量
  • 46
    原创
  • 2,267,441
    排名
  • 90
    粉丝

个人简介:System.out.println("代码是程序员的朋友,虽然没有热情,但是很真实"); ____The most handsome ITBoy

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:四川省
  • 加入CSDN时间: 2014-07-07
博客简介:

TMH_ITBOY的博客

博客描述:
The most handsome ITBoy
查看详细资料
个人成就
  • 获得130次点赞
  • 内容获得114次评论
  • 获得259次收藏
  • 代码片获得589次分享
创作历程
  • 5篇
    2021年
  • 3篇
    2020年
  • 15篇
    2019年
  • 26篇
    2018年
  • 7篇
    2017年
  • 6篇
    2016年
成就勋章
TA的专栏
  • Spark内核设计的艺术架构与实现读书笔记
    3篇
  • Spark内核设计的艺术架构与实现读书笔记
  • hive on spark
    1篇
  • ranger
    1篇
  • kerberos
    1篇
  • Android
    12篇
  • JNI调试
    1篇
  • 大数据-hadoop
    14篇
  • hbase
    8篇
  • Spark
    19篇
  • java
    6篇
  • Kafka
    2篇
  • linux
    2篇
  • mysql
    2篇
  • oozie
    2篇
  • ES
    1篇
兴趣领域 设置
  • 大数据
    hadoophivestormsparketl
  • 后端
    scala
创作活动更多

2024 博客之星年度评选报名已开启

博主的专属年度盛宴,一年仅有一次!MAC mini、大疆无人机、华为手表等精美奖品等你来拿!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

我发布了一个投票百度搜索时,你是否会不自觉的 -csdn

百度搜索时,你是否会不自觉的 -csdn
发布动态 2022.07.22

我发布了一个投票宇宙第一投票

宇宙第一投票
发布动态 2022.07.20

我发布了一个投票敲代码时长

敲代码时长
发布动态 2022.07.20

kerberos编译安装并配置openldap作为其后端数据库

注意,由于kerberos使用openldap作为后端数据存储,则需要openldap的配置中具有kerberos的schema配置。搭建openldap并添加kerberos的schema到openldap配置中,请结合上一篇文章关于kerberos.ldif的使用部分。一、编译安装kerberos下载kerberos源码包到/opt/packages目录下。cd /opt/packages && wget https://kerberos.org/dist/krb5/1.19/k
原创
发布博客 2021.07.15 ·
1329 阅读 ·
1 点赞 ·
2 评论 ·
2 收藏

OpenLDAP源码编译安装,并配置posixAccount在linux系统中的用户sudo权限

编译openldap,可作为kerberos的database。需要用到openssl 1.1.1或以上版本,以及kerberos包中带的kerberos.openldap.ldif文件。一、准备准备以下所需安装包:openssl-1.1.1.tar.gz 下载地址:https://ftp.openssl.org/source/old/1.1.1/openssl-1.1.1.tar.gzopenldap-2.5.5.tgz 下载地址:https://www.openldap.org/softwar
原创
发布博客 2021.07.15 ·
1764 阅读 ·
1 点赞 ·
1 评论 ·
0 收藏

Hive优化指南

Hive作为大数据分析领域常用的仓库工具,即使是现在流式计算如火如荼背景下,Hive依然倍受各大厂商挚爱。使用Hive过程中,面对各种各样的查询需求,需要具有针对性的优化。下面内容就是摘抄自《Hadoop 数据仓库实践》一书中关于Hive优化部分内容。在此,感谢作业的辛勤付出。部分优化已经用于我的实际工作中。比如使用ORC存储文件、启用压缩、开始向量化等。此处记录下来,仅为学习和加强记忆。1. 启用压缩压缩可以使磁盘上的数据量变小,例如,文本文件格式能够压缩40%甚至更高的比例,这样可以通过降低I/
原创
发布博客 2021.02.23 ·
680 阅读 ·
3 点赞 ·
1 评论 ·
5 收藏

Apache avro常用Java中数据类型序列与反序列化

背景在大数据领域,总是会遇到需要将各种数据类型序列化成字节数组,或者从字节数组反序列化回常用数据类型的场景,比如,Spark中推荐使用kyro,HBase中,使用HBase提供的工具来进行序列化以及反序列化,HBase内部使用google的probuff来序列化进行网络通讯等情况,以及hadoop使用Apache avro来序列化。当然,各种序列化方式的性能以及效率各种优缺点(此文不做对比)。以上序列化都是框架内部已经给我们做好了序列化以及反序列化操作,如果我们在实际工作中,需要自己手动来序列化的场景,
原创
发布博客 2021.02.01 ·
1309 阅读 ·
3 点赞 ·
1 评论 ·
2 收藏

Avro序列化Java中 的BigDecimal

背景由于业务需要,需要将SparkSQL中Array、Map、Struct使用avro序列化成一个大的字节数组进行存储。但是在序列化过程中,涉及到Java的BigDecimal类型,根据avro官网提示,定义schema如下:{ "namespace":"com.bugboy.avro.bean", "type":"record", "name":"DecimalDemo", "fields":[ {"name":"id", "type":"string"
原创
发布博客 2021.01.26 ·
2191 阅读 ·
1 点赞 ·
1 评论 ·
0 收藏

渣与不渣的区别,就是: 消耗自己的方式不一样

发布动态 2020.09.18

小秀一下我的花名。

发布动态 2020.09.20

kerberos + Ranger 实现对Kafka的认证以及权限管理

1. 安装Ranger安装JDK(略)编译Ranger(略)安装MySQL(略)创建名为ranger的数据库(CREATE USER 'ranger'@'%' IDENTIFIED BY 'ranger';)。创建名为ranger的用户,并授权ranger数据库所有权限给ranger(GRANT ALL PRIVILEGES ON ranger.* TO 'ranger'@'%';)...
原创
发布博客 2020.04.24 ·
3000 阅读 ·
4 点赞 ·
3 评论 ·
7 收藏

发布开源项目至maven中央仓库,内附打scala源码包,scala doc 包的教程。

背景自己构思一个好的项目到github,然后发布到maven,供别人通过maven进行依赖使用。然后写点文档什么的,就可以到github骗小星星了。实际操作到网站https://issues.sonatype.org/,注册账号,该网是外网,需要自备小梯子。。注册时需要设置密码,看别人的博客说密码要求挺高,我一般都是用chrome浏览器自动生成的,然后用小本子记下来,看着是挺复杂的,强烈建...
原创
发布博客 2020.01.19 ·
555 阅读 ·
0 点赞 ·
1 评论 ·
1 收藏

Hive on Spark 搭建过程(hvie-3.1.2 spark-2.4.5 hadoop-3.1.3)

Hive On Spark 官方教程注意,一般来说hive版本需要与spark版本对应,官网有给出对应版本。这里使用的hive版本,spark版本,hadoop版本都没有使用官方推荐。下载Spark 源码,以spark-2.4.4 为例。编译Spark 源码。编译时选择hadoop版本,可选的有hadoop2.7.3和 hadoop2.6的,我要使用2.8.5,所以修改pom文件...
原创
发布博客 2020.01.17 ·
4450 阅读 ·
1 点赞 ·
2 评论 ·
12 收藏

深入理解G1GC日志

本文转载于https://www.cnblogs.com/javaadu/p/11220234.html,侵删 本文翻译自:https://www.redhat.com/en/blog/collecting-and-reading-g1-garbage-collector-logs-part-2?source=author&term=22991这篇文章将深入研究G1的日志和...
转载
发布博客 2019.10.23 ·
568 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

MapReduce 二次排序

MapReduce 二次排序需求:有这样的一堆数据:22 1222 1322 622 1721 528 7928 6328 1001 7923 841 6367 4518 2319 741 10021 ...
原创
发布博客 2019.10.16 ·
269 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

protobuf原理以及在 Idea 中 Java 的用法示例

转载部分 Start>>>>>>此部分的原文连接:https://www.jianshu.com/p/419efe983cb2,尊重原创,原理部分请参考原文 protobuf是google团队开发的用于高效存储和读取结构化数据的工具。什么是结构化数据呢,正如字面上表达的,就是带有一定结构的数据。比如电话簿上有很多...
原创
发布博客 2019.07.30 ·
498 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

Spark生成HBase 的 HFile 文件,并使用BulkLoad 方式将 HFile 文件加载到对应的表中

先看一个问题java.io.IOException: Added a key not lexically larger than previous. Current cell = M00000006/info:age/1563723718005/Put/vlen=4/seqid=0, lastCell = M00000006/info:name/1563723718005/Put/vlen=2/...
原创
发布博客 2019.07.22 ·
2298 阅读 ·
2 点赞 ·
3 评论 ·
7 收藏

Spark 内存调优以及 JVM 调优

Spark 内存调优以及 JVM 调优(基于源码2.2.0分析)目前Spark使用的内存管理模型有两个,分别是:StaticMemoryManagerUnifiedMemoryManager而StaticMemoryManager是1.6之前的版本使用的内存管理模型.UnifiedMemoryManager是1.6之后使用的内存管理模型.在SparkEvn中,通过spark.memo...
原创
发布博客 2019.06.06 ·
567 阅读 ·
1 点赞 ·
0 评论 ·
4 收藏

HBase 2.0版本协处理器 Endpoint使用

在 HBase2.0之前使用协处理器 Endpoint 时,使用的方式是实现CoprocessorService,Coprocessor这两个接口,但是在2.0版本中,这么做在 hbase regionServer的日志中显示 Endpoint 加载成功了,但是在 hbase 的 regionServer UI 界面,并没有显示已经加载的Endpoint协处理器,也没有报错日志,很头疼.同时Cop...
原创
发布博客 2019.05.13 ·
1731 阅读 ·
2 点赞 ·
4 评论 ·
1 收藏

Spark 读取 csv 时,当 csv 的字段值中有 JSON 串

Spark 读取 csv 时,当 csv 的字段值中有 JSON 串需求:统计 csv 中 有 json 串的 key 个数csv 数据:代码:package com.rm1024.scalaimport com.alibaba.fastjson.JSONimport org.apache.spark.sql.SparkSessionimport scala.collectio...
原创
发布博客 2019.04.15 ·
1529 阅读 ·
2 点赞 ·
0 评论 ·
3 收藏
加载更多