这两天花了点时间重装了win 10,必要的开发常用工具如IDE Idea以及运行spark等任务需要的hadoop本地依赖环境重新配起来,记录下简要步骤和几个小问题希望能给正在学习的小伙伴一点帮助。
解决idea环境中spark版本与scala版本不兼容问题。
idea及scala插件安装建议
01、idea选择版本
https://www.jetbrains.com/idea/download/previous.html (idea官网历史版本下载页面)
首先去官网下载windows对应版本,如果最新版是非必要的建议下载比最新版低1到2个小版本号的idea zip包。呵呵,稳定绿色方便无需安装,解压后直接将idea64.exe(64位OS) or idea.exe(32位OS)快捷方式添加到桌面即可。
02、
安装Idea(集成scala)以及在windows上配置spark(hadoop依赖)本地开发环境
最新推荐文章于 2024-09-21 18:55:44 发布
本文介绍了如何在Windows 10上重新配置IDEA和Scala开发环境,以及解决Spark运行时缺少Hadoop依赖的问题。通过下载特定版本的IDEA和Scala插件,设置环境变量来解决winutils.exe找不到的错误,并处理Scala版本与Spark版本不兼容的异常。
摘要由CSDN通过智能技术生成