- 博客(2)
- 问答 (1)
- 收藏
- 关注
原创 安装spark,基于hadoop的
安装Scala安装spark之前先安装scala,scala下载地址 下载最新的版本就行,我的是scala-2.11.8.tgz在home中创建scala文件夹 mkdir scala(根据自己的需求创建)我的文件路径 # /home/scala把压缩包上传到创建的scala文件夹中,解压 tar -xvf scala-2.11.8.tgz编译 vim ~/.bashrc 增加SCA
2016-07-13 16:55:33 3040
原创 hadoop节点nodemanager启动失败原因小结~
slaves节点报错,报的是启动nodemanager 所需内存不足ERROR org.apache.hadoop.yarn.server.nodemanager.NodeStatusUpdaterImpl: Unexpected error starting NodeStatusUpdaterorg.apache.hadoop.yarn.exceptions.YarnRunt
2016-07-12 12:03:37 30289 2
空空如也
本地服务器无法连接,提示没有network
2017-06-21
TA创建的收藏夹 TA关注的收藏夹
TA关注的人