hadoop集群安装

hadoop集群安装

使用root用户

  • 查看用户
ls –l /home
  • 给hadoop用户赋权
vi /etc/sudoers 
hadoop	ALL=(ALL)	ALL  # 修改 
  1. 更改主机名
vim /etc/sysconfig/network
NETWORKING=yes  
HOSTNAME=slave2
  1. IP映射
vim /etc/hosts
192.168.233.128 master
192.168.233.129 slave1
192.168.233.130 slave2
  1. ssh免密
ssh-keygen -t rsa
cd ~/.ssh
ls
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys //复制公匙
chmod 600 ~/.ssh/authorized_keys //给600权限
cat authorized_keys //查看slave1 slave2的公匙并将slave1slave2的秘匙复制到master
scp ~/.ssh/authorized_keys hadoop@slave2:~/.ssh/ 
//将master公匙文件复制到slave1slave2
  1. 关闭防火墙
service iptables stop   // 关闭防火墙服务
chkconfig iptables off  // 禁止防火墙开机自启,就不用手动关闭了
  1. 安装java
----yum安装
sudo yum install java-1.7.0-openjdk java-1.7.0-openjdk-devel
打开文件添加
vim ~/.bashrc
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.231.x86_64
文件生效
source ~/.bashrc
检测Java安装是否成功
java -version
----安装包安装
tar -zxvf  jdk-7u80-linux-x64.tar.gz //解压
mv jdk1.7.0_80 jdk1.7  //重命名
配置环境变量
vim ~/.bashrc
export JAVA_HOME=/usr/Java/jdk1.7
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JRE_HOME=$JAVA_HOME/jre
source ~/.bashrc
检测Java安装是否成功
java -version
  1. 安装hadoop
tar -zxvf hadoop-2.7.3.tar.gz //解压
mv  hadoop-2.7.3 hadoop2.7 //重命名
vim ~/.bashrc //环境变量
export HADOOP_HOME=/usr/local/hadoop
export PATH=$HADOOP_HOME/bin$PATH
source ~/.bashrc
  1. 在主节点创建文件夹
cd /usr/local/hadoop/
mkdir -p dfs/name
mkdir -p dfs/data
mkdir temp
  1. 配置hadoop文件

《一》 slaves文件

vim slaves
slave1
slave2

《二》 core-site.xml 文件

vim  core-site.xml 
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/temp</value>
<description>Abase for other temporary directories.</description>
</property>

《三》 hdfs-site.xml 文件

vim hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
 <value>master:50090</value>
 </property>
 <property>
 <name>dfs.replication</name>
 <value>3</value>
</property>
 <property>
<name>dfs.namenode.name.dir</name>
 <value>file:/usr/local/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
 <value>file:/usr/local/hadoop/dfs/data</value>
</property>
</configuration>

《四》mapred-site.xml 文件

vim mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
 <value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
 <property>
 <name>mapreduce.jobhistory.webapp.address</name>
 <value>master:19888</value>
</property>
</configuration>

《五》yarn-site.xml 文件

vim yarn-site.xml
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
 </property>
</configuration>
将master节点Hadoop文件夹传输到slave1 slave2
scp -r /usr/local/hadoop slave2:/usr/local/
初始化
hadoop namenode -format
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
智慧校园整体解决方案是响应国家教育信息化政策,结合教育改革和技术创新的产物。该方案以物联网、大数据、人工智能和移动互联技术为基础,旨在打造一个安全、高效、互动且环保的教育环境。方案强调从数字化校园向智慧校园的转变,通过自动数据采集、智能分析和按需服务,实现校园业务的智能化管理。 方案的总体设计原则包括应用至上、分层设计和互联互通,确保系统能够满足不同用户角色的需求,并实现数据和资源的整合与共享。框架设计涵盖了校园安全、管理、教学、环境等多个方面,构建了一个全面的校园应用生态系统。这包括智慧安全系统、校园身份识别、智能排课及选课系统、智慧学习系统、精品录播教室方案等,以支持个性化学习和教学评估。 建设内容突出了智慧安全和智慧管理的重要性。智慧安全管理通过分布式录播系统和紧急预案一键启动功能,增强校园安全预警和事件响应能力。智慧管理系统则利用物联网技术,实现人员和设备的智能管理,提高校园运营效率。 智慧教学部分,方案提供了智慧学习系统和精品录播教室方案,支持专业级学习硬件和智能化网络管理,促进个性化学习和教学资源的高效利用。同时,教学质量评估中心和资源应用平台的建设,旨在提升教学评估的科学性和教育资源的共享性。 智慧环境建设则侧重于基于物联网的设备管理,通过智慧教室管理系统实现教室环境的智能控制和能效管理,打造绿色、节能的校园环境。电子班牌和校园信息发布系统的建设,将作为智慧校园的核心和入口,提供教务、一卡通、图书馆等系统的集成信息。 总体而言,智慧校园整体解决方案通过集成先进技术,不仅提升了校园的信息化水平,而且优化了教学和管理流程,为学生、教师和家长提供了更加便捷、个性化的教育体验。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值