Hadoop2.6.4分布式搭建

用虚拟机搭建了一个三台虚拟机的hadoop集群,一台master,两台slaves,系统用的是centos6.5


安装jdk

我安装的是jdk1.8,这里就不写了

配置hosts文件


设置ssh免密码登录


安装hadoop

1 下载hadoop2.6.4并解压,我把他解压到了/home文件夹下面

tar -zxvf hadoop-2.6.4.tar.gz

2 配置hadoop-env.sh文件

[root@Master hadoop-2.6.4]# vi etc/hadoop/hadoop-env.sh

在这里配置JAVA_HOME和hadoop文件路径

使用echo $JAVA_HOME命令可以查看java环境变量

[root@Slave1 usr]# echo $JAVA_HOME
/usr/java/jdk1.8.0_92


# Licensed to the Apache Software Foundation (ASF) under one
# or more contributor license agreements.  See the NOTICE file
# distributed with this work for additional information
# regarding copyright ownership.  The ASF licenses this file
# to you under the Apache License, Version 2.0 (the
# "License"); you may not use this file except in compliance
# with the License.  You may obtain a copy of the License at
#
#     http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.

# Set Hadoop-specific environment variables here.

# The only required environment variable is JAVA_HOME.  All others are
# optional.  When running a distributed configuration it is best to
# set JAVA_HOME in this file, so that it is correctly defined on
# remote nodes.

# The java implementation to use.
export JAVA_HOME=/usr/java/jdk1.8.0_92

export HADOOP_PREFIX=/home/hadoop-2.6.4

3 配置core-site.xml

[root@Master hadoop-2.6.4]# vi etc/hadoop/core-site.xml

<configuration>
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://master.hadoop:9000</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/home/local/hadoop/tmp</value>
</property>
</configuration>

fs.defaultFS是NameNode的URI    hdfs://主机名:端口/
hadoop.tmp.dir为hadoop默认临时路径,此文件夹应提前创建好


4 配置mapred-site.xml

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master.hadoop:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master.hadoop:19888</value>
</property>
</configuration>

注意主机名应换成自己hosts文件里配置的主机名


5 配置hdfs-site.xml


<configuration>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>master.hadoop:50090</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:/home/local/hadoop/dfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/home/local/hadoop/dfs/data</value>
        </property>
</configuration>

dfs.replication是数据需要备份的数量,默认是3,如果此数大于集群的机器数会出错

设置name.dir和data.dir路径时要注意该路径可用的磁盘空间大小,若空间不足会导致hdfs上传文件失败

 此处的name和data等目录不能提前创建,如果提前创建会出问题

6 配置master和slaves主从节点

[root@Master hadoop-2.6.4]# vi etc/hadoop/masters 

master.hadoop

[root@Master hadoop-2.6.4]# vi etc/hadoop/slaves 

slave1.hadoop
slave2.hadoop

7 配置yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master.hadoop</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

8 把配置好的/home/hadoop-2.6.4文件夹拷到另外两个slaves节点上

scp -r /home/hadoop-2.6.4 root@slave1.hadoop:/home/

9 配置环境变量

每台机器都要配置

[root@Master hadoop-2.6.4]# vi /etc/profile

#set hadoop path
export HADOOP_HOME=/home/hadoop-2.6.4
export HADOOP_HOME_WARN_SUPPRESS=1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

source /etc/profile        使profile文件立即生效

10 在每台机器上执行格式化

hdfs namenode -format

start-all.sh 命令启动服务

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
智慧校园整体解决方案是响应国家教育信息化政策,结合教育改革和技术创新的产物。该方案以物联网、大数据、人工智能和移动互联技术为基础,旨在打造一个安全、高效、互动且环保的教育环境。方案强调从数字化校园向智慧校园的转变,通过自动数据采集、智能分析和按需服务,实现校园业务的智能化管理。 方案的总体设计原则包括应用至上、分层设计和互联互通,确保系统能够满足不同用户角色的需求,并实现数据和资源的整合与共享。框架设计涵盖了校园安全、管理、教学、环境等多个方面,构建了一个全面的校园应用生态系统。这包括智慧安全系统、校园身份识别、智能排课及选课系统、智慧学习系统、精品录播教室方案等,以支持个性化学习和教学评估。 建设内容突出了智慧安全和智慧管理的重要性。智慧安全管理通过分布式录播系统和紧急预案一键启动功能,增强校园安全预警和事件响应能力。智慧管理系统则利用物联网技术,实现人员和设备的智能管理,提高校园运营效率。 智慧教学部分,方案提供了智慧学习系统和精品录播教室方案,支持专业级学习硬件和智能化网络管理,促进个性化学习和教学资源的高效利用。同时,教学质量评估中心和资源应用平台的建设,旨在提升教学评估的科学性和教育资源的共享性。 智慧环境建设则侧重于基于物联网的设备管理,通过智慧教室管理系统实现教室环境的智能控制和能效管理,打造绿色、节能的校园环境。电子班牌和校园信息发布系统的建设,将作为智慧校园的核心和入口,提供教务、一卡通、图书馆等系统的集成信息。 总体而言,智慧校园整体解决方案通过集成先进技术,不仅提升了校园的信息化水平,而且优化了教学和管理流程,为学生、教师和家长提供了更加便捷、个性化的教育体验。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值