hadoop操作

1.将文件从本地放到hdfs上

scp /Documents/nearwest.csv cjj@ 10.10.10.140:Documents   //将文件放到集群centos系统上,scp(secure copy),linux下远程复制文件命令

//hadoop是分布式计算框架,有对hdfs的操作接口,所以通过hadoop命令来操作hdfs
hadoop fs -put Documents/nearwest.csv /user/cjj 
//将文件放到对应的hdfs文件系统上,/user/cjj是centos用户对应的文件,两者权限应该是对应的,至于hdfs上其他用户的文件夹,我们可以对其写入,但是可能不能更改(不太了解),说到底还是权限问题
hadoop fs -put
hadoop fs -mkdir

2.hive中创建table

//hive中创建table
create table if not exists nearwestlake_2
(
  vehicle_id varchar(30),
  longi varchar(30),
  lati varchar(30),
  state varchar(30),
  speed_time string
         ) 
  row format delimited fields terminated by ','
//hive默认的table分隔符是tab,通过最后一句自定义

3.将hdfs表导入hive

//加载数据
load data inpath "hdfs上文件路径" into table 表名
也可以从本地系统文件导入
load data local inpath "  文件" into table 表名
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值