hadoop spark集群安装

vim命令:http://blog.csdn.net/yu870646595/article/details/52045150

centos7 修改网卡名称:http://blog.csdn.net/u010579068/article/details/54016509

centos7 修改网卡名称:http://blog.csdn.net/dylloveyou/article/details/78697896

centos 虚拟机网络net配置:http://blog.csdn.net/cmqwan/article/details/61932792

卸载掉原装java 安装Oracle 的java:http://blog.csdn.net/hui_2016/article/details/69941850

卸载掉原装java 安装Oracle 的java:https://www.cnblogs.com/CuteNet/p/3947193.html

Linux修改文件所属的用户和组: http://blog.csdn.net/zhiaicq_r/article/details/79228981

Linux修改用户所属的组:https://www.imooc.com/article/17776?block_id=tuijian_wz

Linux修改用户所属的组:http://blog.csdn.net/looksun/article/details/50668722

Linux文件权限:https://www.linuxidc.com/Linux/2016-08/134047.htm
Linux 下java jps命令使用解析详解:http://www.jb51.net/article/108138.htm

hadoop安装:https://mp.weixin.qq.com/s/NLmCUyovXiomGcKc8oMT1A

Hadoop集群克隆master节点为slave节点之后操作步骤:http://www.gjnote.com/archives/724.html

CENTOS7防火墙关闭以及启用默认iptables防火墙:https://blog.csdn.net/suzhi921/article/details/52273564

CentOS7关闭防火墙和selinux:https://blog.csdn.net/u010793761/article/details/54136339

CentOS 7.2 关闭防火墙:https://jingyan.baidu.com/article/359911f5bffb5257fe030630.html

jps查询进程发现少了namenode:这里写链接内容

jps查询进程发现少了namenode:https://www.zhihu.com/question/31239901

hadoop启动 脚本

#! /bin/sh
echo “————————”
echo “启动hadoopHDFS和yarn进程”
echo “————————”
#删除tmp下的文件
echo “—删除tmp下的文件—”
rm -fr /opt/soft/hadoopdata/tmp/*
#删掉自己建的hdfs下name和data中的文件
echo “—删掉自己建的hdfs下name和data中的文件—”
rm -fr /opt/soft/hadoopdata/dfs/name/*
rm -fr /opt/soft/hadoopdata/dfs/data/*
#格式化namenode
echo “—格式化namenode—”
/opt/soft/hadoop-2.6.5/bin/hadoop namenode -format
#启动dfs
echo “—起动dfs—”
/opt/soft/hadoop-2.6.5/sbin/start-dfs.sh
#启动yarn
echo “—启动yarn—”
/opt/soft/hadoop-2.6.5/sbin/start-yarn.sh
#查看进程
echo “—查看进程—”
jps

Spark On YARN 集群安装部署:https://www.linuxidc.com/Linux/2016-01/127003.htm

Spark on Yarn集群搭建详细过程:https://www.jianshu.com/p/aa6f3a366727

启动spark脚本:
**#! /bin/sh
#启动spark**
echo “—启动spark—”
#启动dfs
echo “—起动dfs—”
/opt/soft/hadoop-2.6.5/sbin/start-dfs.sh
#启动yarn
echo “—启动yarn—”
/opt/soft/hadoop-2.6.5/sbin/start-yarn.sh
#启动spark
echo “—启动spark—”
/opt/soft/spark-1.6.2-bin-hadoop2.6/sbin/start-all.sh
#查看进程
echo “—查看进程—”
jps
spark运行示例脚本:
#! /bin/sh
cd /opt/soft/spark-1.6.2-bin-hadoop2.6/bin
./spark-submit \
–class org.apache.spark.examples.SparkPi \
–master yarn \
–deploy-mode cluster \
–driver-memory 1G \
–executor-memory 1G \
–executor-cores 1 $SPARK_HOME/lib/spark-examples-1.6.2-hadoop2.6.0.jar 40

集群安装完成后可能出现的问题:
Spark只启动了Master,Worker没启动的:https://blog.csdn.net/eggsdevil/article/details/54575181

Spark启动集群所有机器时worker无法启动或无法在集群管理器上线:
重点内容http://www.xmanblog.net/2017/04/12/spark-worker-connot-connect/

Hadoop datanode正常启动,但是Live nodes中却缺少节点的问题:
https://blog.csdn.net/wk51920/article/details/51729460

hadoop集群中部分datanode有进程但不是active:
https://blog.csdn.net/drhhyh/article/details/44308731

Spark分布式搭建(2)——ubuntu14.04下修改hostname和hosts:
https://blog.csdn.net/xummgg/article/details/50634327

hadoop集群不管怎么启动在hadoop管理界面都看到只有一个datanode:
https://blog.csdn.net/baidu_19473529/article/details/52996380

hadoop 搭建3节点集群,遇到Live Nodes显示为0时解决办法:
https://blog.csdn.net/u010801439/article/details/76944008

Hadoop datanode正常启动,但是Live nodes中却缺少节点的问题:
https://blog.csdn.net/wk51920/article/details/51729460

Hadoop-2.2.0集群部署时live nodes数目不对的问题:
https://blog.csdn.net/u013281331/article/details/17963363

在hadoop集群中各个datanode都显示成功启动,但是在网页上查看live nodes与实际个数不符合:
https://bbs.csdn.net/topics/390171780

Linux下IntelliJ IDEA 2017的安装破解教程:http://www.pc0359.cn/article/linux/79157.html

Linux下IntelliJ IDEA 2017的安装破解教程:http://www.jb51.net/softjc/588626.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。
HadoopSpark是两个常用的大数据处理框架,它们可以在集群环境下进行安装和配置。下面是它们的具体安装步骤: Hadoop集群安装步骤: 1. 下载Hadoop:从Apache官网下载Hadoop的稳定版本,并解压到指定目录。 2. 配置环境变量:将Hadoop的bin目录添加到系统的PATH环境变量中。 3. 配置Hadoop集群:编辑Hadoop的配置文件,包括core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml等,设置相关参数,如文件系统路径、节点信息、资源管理等。 4. 配置SSH免密登录:确保所有节点之间可以通过SSH免密登录,以便进行集群管理和通信。 5. 格式化HDFS:在NameNode节点上执行命令格式化HDFS文件系统,创建初始的文件系统目录结构。 6. 启动Hadoop集群:依次启动Hadoop集群的各个组件,包括NameNode、DataNode、ResourceManager和NodeManager等。 Spark集群安装步骤: 1. 下载Spark:从Apache官网下载Spark的稳定版本,并解压到指定目录。 2. 配置环境变量:将Spark的bin目录添加到系统的PATH环境变量中。 3. 配置Spark集群:编辑Spark的配置文件,包括spark-env.sh和spark-defaults.conf等,设置相关参数,如集群管理器、内存分配、日志路径等。 4. 配置SSH免密登录:确保所有节点之间可以通过SSH免密登录,以便进行集群管理和通信。 5. 启动Spark集群:使用Spark提供的启动脚本,依次启动Master节点和Worker节点,启动后它们会自动连接成一个集群
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值