1.Hive基本操作
(1)启动hive
[atguigu@hadoop102 hive]$ bin/hive
(2)查看数据库
hive> show databases;
hive> create database hive_db //创建数据库hive_db
(3)打开默认数据库
hive> use default;
(4)显示default数据库中的表
hive> show tables;
(5)创建一张表
hive> create table student(id int, name string);
(6)显示数据库中有几张表
hive> show tables;
(7)查看表的结构
hive> desc student;
(8)向表中插入数据
hive> insert into student values(1000,"ss");
(9)查询表中数据
hive> select * from student;
(10)退出hive
hive> quit;启动hive
2.hive新建表
create table demo2(elapsedtime_max double,elapsedtime_min double,elapsedtime_avg double,elapsedtime_std double);
3.hive给表加字段
alter table demo add columns(synackcount_max bigint,synackcount_min bigint,synackcount_avg bigint,synackcount_std bigint);
Spark部署
官网
$ ./bin/spark-submit --class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
--driver-memory 4g \
--executor-memory 2g \
--executor-cores 1 \
--queue thequeue \
examples/jars/spark-examples*.jar \
10
只需要将“–queue thequeue”改成“–queue default”即可