spark+hive+hdfs windows开发环境配置:

典型配置:spark在linux中以standalone方式运行,配置参数如下:“spark-env配置参数 ”。在windows idea中编辑代码,运行driver,连接远程master,运行程序,可同步运行查看日志,可单步调试如果连接hive需要在本机src中配置hive-site.xml中的 hive.metastore.uris配置本地hadoop_home,下载winu
摘要由CSDN通过智能技术生成

典型配置:
  1. spark在linux中以standalone方式运行,配置参数如下:“spark-env配置参数 ”。
  2. 在windows idea中编辑代码,运行driver,连接远程master,运行程序,可同步运行查看日志,可单步调试
  3. 如果连接hive需要在本机src中配置hive-site.xml中的 hive.metastore.uris
  4. 配置本地hadoop_home,下载winutils.exe,拷贝到hadoop_home/bin
  5. 参照下面虚拟机中运行步骤7-9
  6. 如果多网卡,则需在本机配置SPARK_LOCAL_IP=集群里ip
  7. 在低配置机器上运行idea 有可能导致内存溢出,需要指定程序运行内存: -Xms128m -Xmx512m -XX:PermSize=250m -XX:MaxPermSize=512m


windows 需要配置环境变量 HADOOP_HOME ,HADOOP_USER_NAME

HADOOP_HOME=D:\hadoop-2.6.0

HADOOP_USER_NAME=hdfs

SPARK_LOCAL_IP =127.0.0.1


需要重启电脑生效


spark-env配置参数:
# Where the pid file is stored. (Default: /tmp) 用于后台运行spark
export SPARK_PID_DIR=/var/run/spark

# A string representing this instance of spark.(Default: $USER)
SPARK_IDENT_STRING=$USER

export HADOOP_HOME=${HADOOP_HOME:-/usr/hdp/current/hadoop-client}
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/usr/hdp/current/hadoop-client/conf}

# The java implementation to use.
export JAVA_HOME=/usr/java/jdk1.7.0_67
export SPARK_MASTER_IP=master1
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值