- 博客(5)
- 收藏
- 关注
转载 Spark访问HIVE
Spark访问HIVE知识点1:Spark访问HIVE上面的数据配置注意点:.1.拷贝mysql-connector-java-5.1.38-bin.jar等相关的jar包到你sparkhome/lib中(spark2.0之后是{spark_home}/lib中(spark2.0之后是sparkhome/lib中(spark2.0之后是{spark_home}/jars下),不清楚就全部拷贝过去2.将Hive的配置文件hive-site.xml拷贝到${spark_home}/conf目录下3.
2020-09-11 08:47:59 289
原创 HBase完全分布式
安装Zookeeper安装Hadoop三个启动Zookeepersh zkServer.sh startsh zkServer.sh status启动Hadoop的伪分布式start-all.sh解压安装包:tar -xvf hbase-0.98.17-hadoop2-bin.tar.gz进入confcd hbase-0.98.17-hadoop2/conf编辑hbase-...
2019-12-16 19:14:05 90 1
原创 hadoop三节点完全分布式
三个节点关闭防火墙:service iptables stopchkconfig iptables off三个节点需要修改主机名:vim /etc/sysconfig/network修改HOSTNAME属性,例如:HOSTNAME=hadoop01重新生效:source /etc/sysconfig/network三个节点需要进行IP和主机名的映射:vim /etc/host...
2019-12-10 21:29:05 148
原创 Hadoop伪分布式配置
关闭防火墙安装JDKJAVA_HOME=/home/presoftware/jdk1.8NODE_HOME=/home/presoftware/node6PATH=PATH:./:PATH:./:PATH:./:JAVA_HOME/bin:$NODE_HOME/bin修改主机名,在Hadoop中,要求主机名中不能出现_和-cd /etc/sysconfigvim netw...
2019-12-02 21:31:06 104
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人