Hadoop/CDH
文章平均质量分 82
小小程序员1986
这个作者很懒,什么都没留下…
展开
-
hive与hbase整合
-- hbase shell filter --create 'test1', 'lf', 'sf' -- lf: column family of LONG values (binary value) -- sf: column family of STRING values-- 一个用户(userX),在什么时间(tsX原创 2016-08-28 14:07:09 · 682 阅读 · 0 评论 -
hive ETL之物流行业-订单跟踪SLA sql
-- case1 ----========== order_created ==========--/*10703007267488 2014-05-01 06:01:12.334+0110101043505096 2014-05-01 07:28:12.342+0110103043509747 2014-05-01 07:50:12.33+011010304350原创 2016-08-28 14:07:11 · 1039 阅读 · 0 评论 -
hive ETL之广告行业-用户行为归类sql
-- case2 ----========== click_log ==========--/*11 ad_101 2014-05-01 06:01:12.334+0122 ad_102 2014-05-01 07:28:12.342+0133 ad_103 2014-05-01 07:50:12.33+0111 ad_104 2014原创 2016-08-28 14:07:14 · 794 阅读 · 0 评论 -
hive ETL之电商零售行业-推荐系统sql
-- case3 ----========== f_orders ==========--/*11 2014-05-01 06:01:12.334+01 10703007267488 item8:2|item1:122 2014-05-01 07:28:12.342+01 10101043505096 item6:3|item3:233 201原创 2016-08-28 14:07:17 · 900 阅读 · 0 评论 -
hive ETL之业绩报表sql
-- case4 ----========== rates ==========--app0 1app1 2app2 2app3 3app4 3app5 3app6 5app7 5app8 5app9 5CREATE EXTERNAL TABLE rates ( app_name STRING原创 2016-08-28 14:07:19 · 1029 阅读 · 0 评论 -
hbase REST API
-- rest api --http://wiki.apache.org/hadoop/Hbase/Stargatecurl -H "Accept: text/xml" http://itr-hbasetest01:20550/version -vcurl -H "Accept: text/xml" http://itr-hbasetest01:20550/version/cluste原创 2016-08-28 14:07:22 · 2175 阅读 · 0 评论 -
hbase手动compact与split
#!/bin/bashdie () { echo >&2 "$@" echo "usage:" echo " $0 check|split table_name [split_size]" exit 1}[[ "$#" -lt 2 ]] && die "at least 2 arguments required, $# provided"C原创 2016-08-28 14:07:25 · 1954 阅读 · 0 评论 -
spark Sql
package org.apache.spark.sqlimport org.apache.spark.{SparkConf, SparkContext}object SLA_parquetSQL { def main(args: Array[String]) { val sc = new SparkContext(new SparkConf().setAppName("SL原创 2016-08-28 14:07:30 · 381 阅读 · 0 评论