雨田示韦非文
码龄11年
关注
提问 私信
  • 博客:23,783
    社区:388
    24,171
    总访问量
  • 13
    原创
  • 1,496,833
    排名
  • 3
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2013-12-18
博客简介:

u013200776的专栏

查看详细资料
个人成就
  • 获得3次点赞
  • 内容获得2次评论
  • 获得9次收藏
创作历程
  • 1篇
    2020年
  • 2篇
    2018年
  • 19篇
    2017年
  • 1篇
    2014年
成就勋章
TA的专栏
  • 行转列
    1篇
  • hive
    10篇
  • hadoop
    4篇
  • spark
  • shell
    3篇
  • python
  • java
    5篇
  • hdfs
    1篇
  • mvn
    1篇
  • 数据库
    1篇
  • mysql
    1篇
  • spring
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

hiveql列转行使用explode的注意事项-null值处理

一、订单表如下:order_id product_name 1 铅笔,苹果,抽纸 2 3 苹果,草莓,猕猴桃 二、统计每种商品被购买次数,需要将product_name列转行,其中order_id等于2的是异常数据product_name为null。如果写成下面这样,一条结果都没有:-- explode里面的字段不能为null,否则一条数据结果记录都没有了select product_name_element -- 产品名称...
原创
发布博客 2020.05.22 ·
1285 阅读 ·
0 点赞 ·
2 评论 ·
2 收藏

几种数据库的一些知识点 待续... ...

待续... ...
原创
发布博客 2018.07.03 ·
240 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

计算截止每个时间点的累计值

-- 计算每个公司每个月的累计值select t.year,    t.month,    companyid,    companyname,    sum(amount) over(partition by companyid, companyname,year order by t.month) amountfrom (    select t.year,        t.month,  ...
原创
发布博客 2018.07.03 ·
4791 阅读 ·
1 点赞 ·
0 评论 ·
3 收藏

Statement与PreparedStatement的区别

当重复执行多次一个sql,而只是参数不同时,执行多少次sql一、Statement为一条Sql语句生成执行计划Statement就会生成多少个个执行计划,而且每次都是从零开始执行,效率不高;Statement会将变量直接用于sql,这点也不安全。二、PreparedStatement只生成一个执行计划而PreparedStatement只生成一次执行计划,对sql语句进
原创
发布博客 2017.07.27 ·
215 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

jdbc的数据库驱动类DriverManager.getConnection()详解

1、Oracle8/8i/9i数据库(thin模式) Class.forName(“oracle.jdbc.driver.OracleDriver”).newInstance(); String url=”jdbc:oracle:thin:@localhost:1521:orcl”; //orcl为数据库的SID String user=”test”; String passwo
转载
发布博客 2017.07.27 ·
1926 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

写一个shell脚本利用wget抓取股票历史数据

今天,大数据部老大交给我一项任务——抓取股票历史数据。于是乎,我自行在网上找了一下,发现wget真真是一个非常强大的linux下载工具。我已经被深深震撼到了。下面叙述今天的一些过程,还是比较坎坷的。  首先,我利用公司现在存在的股票数据,使用hive查询所有的股票代码并导入本地:hive -e "use stock;select distinct secucode from t_sto
转载
发布博客 2017.07.26 ·
869 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

编写shell脚本遇到的问题

运行shell脚本提示“syntax error near unexpected token for((i=0;i原因是因为Linux下的换行符是
而你在secureCRT或者其他工具编写shell脚本的时候,使用的是window下的换行符:\r
所以需要设置一下文件的规范:在vim的命令模式下输入::set fileformat=unix:wq即可!
转载
发布博客 2017.07.26 ·
354 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

hadoop启动步骤

一、ssh的启动ssh localhost二、hadoop的HDFS的格式化bin/hadoop namenode -format三、hadoop的start-all.sh的启动bin/tart-all.sh四、hadoop的datanode的启动bin/hadoop-daemon.sh start datanode五、hadoop的tasktracker的启动
转载
发布博客 2017.07.26 ·
628 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

mvn常用命令

打包:mvn package编译:mvn compile编译测试程序:mvn test-compile清空:mvn clean运行测试:mvn test生成站点目录: mvn site生成站点目录并发布:mvn site-deploy安装当前工程的输出文件到本地仓库: mvn install
原创
发布博客 2017.07.26 ·
230 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

HDFS的java接口——简化HDFS文件系统操作

package com.quanttech;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;/** * @topic HDFS文件操作工具类 * @author ZhouJ *
转载
发布博客 2017.07.26 ·
240 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Java开发中各种集合框架简介

在大数据MapReduce作业开发中,我们经常会遇到一些大小表的join,这是如果这个小表足够“小”的话,我们可以使用进行“map-join-side”,这要就可以有效的降低reduce端的压力,但是在常用的JDK的集合中的Map有些许鸡肋,因此,各路大神们针对这个问题开发出了不同的集合框架,用以替换原始集合,下面我们具体介绍几种常用的集合框架:首先,我们设想了一个场景——计算不同事业部015
转载
发布博客 2017.07.26 ·
207 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

hql-行列转换

行转列 hive -e ” select id,word from ( select ‘123’ as id,’java,c,php’ words from file_cto_user limit 1 ) ta lateral view explode(split(words,’,’)) uu
原创
发布博客 2017.07.25 ·
953 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

shell常用命令

一、分割字符串指定分隔符“@”IFS=”@” aa=”a@b@c@d@e” for element in aadoecho−n“aa do echo -n “element&” done;二、后续添加…..
原创
发布博客 2017.07.25 ·
235 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

hive-组内排序取前100

每个mod按ck_num/exp_num倒序排序取前100 select ‘endweek′,′ckexp′ranktype,mod,groupid,bookid,expnum,cknumfrom(selectmod,(Rank(mod)+1)asrank,groupid,bookid,expnum,cknumfrom(selectmod,split(curl,′/′)[4]groupid,spl
原创
发布博客 2017.07.25 ·
4687 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

HIVE-文件操作

一、查询结果->hdfs INSERT OVERWRITE DIRECTORY ‘output’ sql select * from test; (output:结果输出hdfs路径,sql:查询语句,字段间隔符:默认)二、查询结果->hdfs,执行结果以‘\t’分割 insert overwrite directory ‘/home/wyp/Documents/result’ row f
原创
发布博客 2017.07.25 ·
285 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

hql-udf方法

一、添加jar包:add jar /data/1/usr/local/hive/jars/serde.jar;二、声明udf方法的引用:CREATE TEMPORARY FUNCTION expid AS 'net.csdn.hive.cf2.ExtractProduct2'接下来就可以在hql语句中使用expid方法了
原创
发布博客 2017.07.25 ·
390 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

hadoop命令

压缩中间结果命令:hive -e "SET mapreduce.map.output.compress=true; SET mapred.map.output.compress.codec = org.apache.hadoop.io.compress.SnappyCodec; "hadoop fs -help1.   hadoop fs -ls '/home/ask/answer
原创
发布博客 2017.07.25 ·
270 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

hive-常用操作及函数

select '我们' from file_cto_user_info limit 1select 1 from file_cto_user_info where 'football' like 'foot____' limit 1--注意:否定比较时候用NOT A LIKE Bselect 1 from file_cto_user_info where NOT 'football'
原创
发布博客 2017.07.25 ·
482 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

hiveql--建表

一、创建hive表1、建外表(分区pdate,\t作为字段分隔符,hdfs路径:path):CREATE EXTERNAL TABLE tablename(字段1 string,字段2 string)    partitioned by (pdate string)row format delimited fields terminated by '\t'LOCAT
原创
发布博客 2017.07.25 ·
519 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Hadoop MapReduce编程创建maven项目时所用到的pom依赖

junit            junit            3.8.1            test                            org.apache.hadoop            hadoop-common            2.6.0                            org.apac
转载
发布博客 2017.07.25 ·
3270 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏
加载更多