hadoop
木心酱
····················
展开
-
解决hadoop在配置集群中出现的问题
1、解压文件命令 tar -zxvf 文件名.tar.gz 2、ssh ssh应该算是一个最让人头疼的问题,它预先安装的ssh服务,是用不了的,因此需要用到卸载命令将其卸载。 sudo apt-get remove ssh 重新安装ssh服务。 sudo apt-get install ssh 生成公钥以便集群中其他用户进入时不需要再输入密码(其中P是...原创 2018-05-22 15:42:05 · 397 阅读 · 0 评论 -
Linux下安装spark集群
1、安装scala 2、安装Spark 3、配置Spark 修改配置文件spark-env.sh,在解压spark下的conf文件中 将模板文件复制出来 cp spark-env.sh.template spark-env.sh cp slave.template slave 4、配置spark和slave 配置spark-env.s...原创 2018-05-22 17:57:17 · 321 阅读 · 0 评论