win10:hadoop、hive、mysql、spark搭建问题记录

1、工具间的版本对应;2、环境变量;3、权限;4、配置文件

本次的配置如下:

win10家庭版、java 1.8.0_40、hadoop 2.7.6、mysql 5.7.17、hive-2.1.1、scala-2.11.8、spark 2.3.0、python 3.6.5

虽有说:遇到的99%问题在之前就有人遇到过并有解决方法,但要准确定位到问题也是学问。

1、配置完mysql、hive和hadoop,hive查询正常,但插入insert values报错

命令行return code 2 from org.apache.hadoop.hive.ql.exec.mr.mapredtask,找了网上的没有解决。

到hadoop的界面看history,显示Exception message: CreateSymbolicLink error (1314): ???????????

原因是windows账户不具备创建符号表的权限  参考 Windows平台Hadoop出现 Exception message: CreateSymbolicLink error (1314): ???????????-CSDN博客

由于是win10家庭版,没有组策略gpedit.msc,解决参考 【Windows】Win10家庭版启用组策略gpedit.msc_failed to execute-CSDN博客

2、在pycharm中运行pyspark

No module named 'py4j',将spark/python/lib中的py4j文件夹放到Anaconda3\Lib\site-packages

Could not find valid SPARK_HOME while searching(pycharm in windows)   参考pycharm中pyspark编程报错Could not find valid SPARK_HOME while searching(pycharm in windows) - 程序员大本营

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值