![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
踩坑
文章平均质量分 51
仰下
这个作者很懒,什么都没留下…
展开
-
linux 安装hadoop3.2.1基础上安装spark3.0.1
参考文章一 参考文章二 先安装完hadoop3.2.1之后,再安装的spark,基于上面的参考安装,spark要依赖scala,然后配置环境 坑一:ssh权限问题 生成的密钥文件无法修改chattr -ia ~/.ssh/authorized_keys移除无法修改的属性,chmod加权 **坑二:安装完成之后,运行spark-all出现 Unable to initialize main class org.apache.spark.deploy.master.Master Caused By: java.原创 2021-01-29 11:41:07 · 592 阅读 · 0 评论 -
centos7 安装hadoop3.2.1踩过的坑
修改HOSTS配置 1. /etc/hosts 添加下面 127.0.0.1 master 2.修改core-site.xml <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> # 这里是hosts 配置里面的名字 </property> <property> <name>hadoop.tmp.dir</nam原创 2021-01-13 16:21:16 · 309 阅读 · 0 评论