- 博客(6)
- 资源 (9)
- 收藏
- 关注
原创 flume安装
》brew install flume配置spool方式的监测(即检测文件目录)》vi flume.confa1.sources = r1a1.channels = c1a1.sinks = k1#sources 检测目录a1.sources.r1.ignorePattern = ^(.)*\\.tmp$a1.sources.r1.type = s
2016-12-25 14:53:23 439
原创 sqoop导入mysql数据到hbase
提前建立表fct_session_info,列簇为sessionhbase》create 'fct_session_info', 'session'jimmy》sqoop import --connect jdbc:mysql://localhost:3306/track_log --username root --password Nokia123 -
2016-12-25 14:08:04 573
原创 解决sqoop从mysql导入到hive表的多分区问题
参考:http://blog.csdn.net/liweiwei71/article/details/23434189对于分区表drop table track_log;create table track_log (id string ,。。curMerchantId string ,provi
2016-12-18 16:37:41 6527
原创 scoop导入数据从mysql到hive
1 直接导入到hdfs的文件系统(hive查询时候有问题 ,比如select id from track_log时候返回多列)sqoop import --connect jdbc:mysql://localhost:3306/track_log --username root --password Nokia123 --table track_log18 //mysql的源表
2016-12-18 15:47:23 2005
原创 windows在IDEA环境运行spark程序(spark安装在另一台mac机器)
源代码:https://github.com/jimingkang/spark环境:scala 2.11.8:spark-2.0.2-bin-hadoop2.7 IDEA配置参考:http://blog.csdn.net/javastart/article/details/43372977‘’关键代码:val conf = new SparkConf().setAp
2016-12-10 18:02:51 812
原创 sqoop导出hive表数据到mysql
直接在mysql里从本地文件系统导入数据mysql》LOAD DATA LOCAL INFILE 'C:\\Users\\asys\\Documents\\Tencent Files\\13174605\\FileRecv\\2015082818' INTO TABLE track_log FIELDS TERMINATED BY '\t' LINES TERMINATED BY '\r'
2016-12-04 12:56:59 6925 3
2013_uboot_aston.txt
2020-05-24
uboot_116-linux2.6.32.7z
2012-09-11
jdbc——内嵌事务
2012-03-13
linux_0.11_bochs
2012-02-23
java数据结构
2011-12-31
jbpm4.4请假流程
2011-12-09
你好,我是jimmy,订阅你的“零基础驱动”。
2023-11-02
TA创建的收藏夹 TA关注的收藏夹
TA关注的人