首先在Hive中建好表 加载好数据
create table t_user(
id int,
name string,
age int
)
row format delimited
fields terminated by '\t';
load data local inpath '/opt/user.log' into table t_user;
在命令行访问Hive
Spark 要接管 Hive 需要把 hive-site.xml copy 到spark/conf/目录下
• 把 Mysql 的驱动 copy 到 spark/jars/目录下.
• 如果访问不到hdfs, 则需要把core-site.xml和hdfs-site.xml 拷贝到conf/目录下.
启动 spark-shell
scala> spark.sql("use baizhi")
scala> spark.sql

本文介绍了如何在Spark中整合Hive,包括在命令行和代码中访问Hive的步骤。首先,在Hive中创建表并加载数据。接着,详细说明了在Spark中访问Hive的配置过程:将hive-site.xml复制到指定目录,添加Mysql驱动到jars目录,如果需要,还应将core-site.xml和hdfs-site.xml复制到conf目录。在代码中访问Hive涉及将hive-site.xml放入resources目录,添加相关依赖,并提供具体代码示例。
最低0.47元/天 解锁文章
287

被折叠的 条评论
为什么被折叠?



