在IDEA中运行Spark程序往本地写入数据时
有可能会报java.lang.UnsatisfiedLinkError的错误
解决方案1:配置Hadoop Common环境变量
配置这个变量的原因是因为Windows下运行大数据环境有可能会出现兼容性问题
如果不配置Spark相应版本的Hadoop Common的版本,有可能就会报错
所有下载Spark对应版本的Hadoop Common,并配置环境变量,即可解决
配置完变量建议重启
解决方案2:如果配置了Hadoop Common环境变量后,还报错
那有可能是IDEA工具没有权限往Window中写入文件
关闭IDEA,右键使用管理员运行
即可解决