1.下载winutils.exe
GitHub - vhma/winutils: winutils.exe hadoop.dll and hdfs.dll binaries for hadoop windows
2.去集群环境把hadoop/3.2.1-1.2.0/package 下面的文件夹压缩,然后拿出来,解压,并配置好windows 环境变量 或者去网上下相关hadoop环境
3. 解压winutils.master.zip 进入与集群环境一样的版本里面的bin目录,把里面的所有文件都拷贝一份到 第二步解压的bin目录下
4.重启idea,启动spark 程序即可。