- 原因:spark是依赖hadoop的,需要你的本地装hadoop,且bin目录下需要winutils.exe和hadoop.dll两个文件
- 装好hadoop,配置环境变量
- 从网上下载winutils.exe和hadoop.dll两个文件放入hadoop的bin目录
- bin目录下打开cmd运行winutils.exe chmod 777 E:\tmp\hive给报错的hive目录添加执行权限
- 重启idea,记得所有idea界面都要关闭
执行spark程序出现(null) entry in command string: null ls -F E:\tmp\hive
最新推荐文章于 2024-07-06 02:09:50 发布
在本地安装Hadoop并确保bin目录下有winutils.exe和hadoop.dll。配置环境变量,从网络上下载这两个文件到Hadoop的bin目录。通过cmd运行winutils.exe给予hive目录执行权限。如果遇到错误,检查IDEA的配置,可能需要关闭所有IDEA实例后再重试。
摘要由CSDN通过智能技术生成