Hadoop
amadeus_liu2
这个作者很懒,什么都没留下…
展开
-
spring boot: 使用MyBatis从hive中读取数据
二、添加mybatis starter和hive依赖。五、定义controller,注入mapper并使用。启动hiveserver2。四、定义mapper。原创 2024-04-18 07:02:53 · 766 阅读 · 0 评论 -
hive: 自定义函数的用法
六、基于jar包创建自定义函数,引号中的是自定义函数类的全路径。五、通过hive的add jar 添加到hive环境。二、定义类,继承GenericUDF。四、上传到hive的服务器。原创 2024-04-15 11:25:24 · 279 阅读 · 0 评论 -
Hadoop: word count,并将reduce结果写入ES
其中 job.setOutputFormatClass(MyOutputFormat.class);用来指定reduce的结果写到哪里。其中getRecordWriter方法返回了一个RecordWriter类的对象。其中构造方法创建了一个ES 客户端对象。write方法用来把数据写入ES.二、定义表示word count 结果的实体类。四、自定义类,实现接口OutputFormat。三、定义mapper和reducer。一、依赖,其中ES版本为7.6.2。六、任务执行后在ES查询数据。原创 2024-04-04 19:51:16 · 249 阅读 · 0 评论 -
Hadoop: word count,并将结果写入到MySQL
其中DBOutputFormat.setOutput(job, “word_count”, “word”, “count”);这句设置往数据库写数据。任务的输入数据来自hdfs.三、定义实体类,实现DBWritable接口和Writable接口。其中使用了上面定义的MyDBWritable类。六、定义主类,启动hadoop job。七、任务结束后在数据库中查询结果。五、定义reducer。四、定义mapper。原创 2024-04-04 18:20:24 · 155 阅读 · 0 评论 -
hadoop:案例:将顾客在京东、淘宝、多点三家平台的消费金额汇总,然后先按京东消费额排序,再按淘宝消费额排序
二、实现思路:先通过一个MapReduce将顾客的消费金额进行汇总,再通过一个MapReduce来根据金额进行排序。六、定义主类,其中定义两个Job,等第一个job运行结束之后第二Job开始运行。四、定义第一对Mapper和Reducer。五、定义第二对Mapper和Reducer。一、原始消费数据buy.txt。原创 2024-04-03 23:35:35 · 565 阅读 · 0 评论 -
flink: 将接收到的tcp文本流写入HBase
三、在一台服务器上开启nc。四、运行,demo程序。原创 2024-03-29 22:20:09 · 326 阅读 · 0 评论 -
pig: WordCount
统计/root/test.txt中各个单词的个数。原创 2024-01-13 13:30:15 · 367 阅读 · 0 评论 -
java : 通过jdbc读取hive(2.3)中的数据
一、准备好hive的环境,创建表(例如userinfo),添加数据。二、启动hive服务。原创 2024-01-12 13:31:38 · 627 阅读 · 0 评论 -
java: 从HBase中读取数据
【代码】java: 从HBase中读取数据。原创 2024-01-05 16:40:48 · 939 阅读 · 0 评论 -
java: 写入数据到HBase
二、调用API写HBase示例。原创 2024-01-05 16:17:16 · 994 阅读 · 0 评论 -
hadoop:通过Configuration读取hdfs
【代码】hadoop:通过Configuration读取hdfs。原创 2023-11-26 16:43:18 · 137 阅读 · 0 评论 -
java: 通过URL读取hadoop HDFS
【代码】java: 通过URL读取hadoop HDFS。原创 2023-11-26 16:40:13 · 119 阅读 · 0 评论 -
Hadoop: Hbase按rowKey查询
hbase shell:get ‘tableName’,‘rowKey’原创 2021-05-19 11:53:08 · 5264 阅读 · 0 评论 -
Hadoop: HBase模糊查询
Table table = connection.getTable(TableName.valueOf("originalSignal")); Scan scan = new Scan(); RowFilter rowFilter = new RowFilter(CompareOp.EQUAL, new SubstringComparator(vin)); scan.setFilter(rowFilter); ResultScanner .原创 2021-04-18 22:57:59 · 569 阅读 · 0 评论 -
Hadoop: 单机版hbase启动报错:Could not start ZK at requested port of 2181. ZK was started
将hbase-site.xml里的distributed属性设置为true原创 2021-04-16 16:10:09 · 381 阅读 · 0 评论 -
Hadoop: HBase表操作命令
禁用表: disable myTable;清空表: truncate myTable;删除表: drop myTable;原创 2021-04-15 05:40:28 · 141 阅读 · 0 评论 -
Hadoop: JAVA连接单机版HBase报错:java.net.UnknownHostException: can not resolve master
windows: 修改host文件,加上xxx.xxx.xxx.xxx(服务器ip) master.Linux: 修改/etc/hosts原创 2021-04-13 18:55:03 · 951 阅读 · 0 评论 -
Hadoop: 访问hdfs报错Failed on local exception: com.google.protobuf.InvalidProtocolBufferExceptio
可能是hdfs端口配置的不是默认的9000,hdfs getconf -confkey fs.default.name 可以查看端口原创 2021-04-10 12:06:59 · 671 阅读 · 0 评论 -
Hadoop: Permission denied: user=anonymous, access=EXECUTE, inode=“/tmp“:hadoop:supe
在hdfs给用户添加权限或设置为777原创 2021-04-08 23:13:36 · 396 阅读 · 0 评论 -
Hadoop: User: hadoop is not allowed to impersonate anonymous
/etc/hadoop/core-site.xml增加(hadoop是你的用户名)<property> <name>hadoop.proxyuser.hadoop.hosts</name> <value>*</value></property><property> <name>hadoop.proxyuser.hadoop.groups</name>原创 2021-04-08 23:11:55 · 966 阅读 · 1 评论 -
Hadoop: hive log默认位置
/tmp/当前用户名/hive.log原创 2021-04-08 23:06:54 · 266 阅读 · 0 评论 -
Hadoop:jdbc连接hive maven 依赖
<dependencies> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>3.8.1</version> <scope>test</scope> </dependency> <..原创 2021-04-07 15:47:58 · 1546 阅读 · 0 评论 -
Hadoop: SpringBoot Hive项目报java.lang.AbstractMethodError: org.apache.jasper.servlet.TldScanner$Tl
修改hive-jdbc依赖<dependency> <groupId>org.apache.hive</groupId> <artifactId>hive-jdbc</artifactId> <version>3.1.2</version> <exclusions> <exclusion> <groupId>org.原创 2021-04-07 15:24:52 · 566 阅读 · 1 评论 -
Hadoop: Hive MySQL配置
编辑 $HIVE_HOME/conf/hive-site.xml<?xml version="1.0" encoding="UTF-8" standalone="no"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration> <property> <name>hive.metastore.warehouse.dir原创 2021-04-07 14:08:50 · 116 阅读 · 0 评论 -
Hadoop: 启动挂掉了的数据节点
sbin/hadoop-daemon.sh start datanode原创 2021-04-06 13:10:40 · 262 阅读 · 1 评论 -
Hadoop: wc org.apache.hadoop.security.authorize.AccessControlList.getACLString()
可能为maven依赖的hadoop core版本过低原创 2021-02-19 12:07:19 · 122 阅读 · 0 评论 -
Hadoop: dfs常用命令
bin/hadoop dfs -mkdir /hilubin/hadoop dfs -touchz /hilu/niuyear.txtbin/hadoop dfs -touchz /hilu/niuyear2.txtbin/hadoop dfs -rm /hilu/niuyear2.txtbin/hadoop dfs -ls /hilubin/hadoop dfs -put test.txt /hilubin/hadoop dfs -cat /hilu/test.txtbin/hadoop d原创 2021-02-18 14:53:21 · 226 阅读 · 0 评论 -
Hadoop: 启动时一定要关闭防火墙或打开相应端口,否则可能会有部分地址无法访问
在name结点和data结点分别进行原创 2021-02-13 12:42:09 · 1027 阅读 · 0 评论