20180610hadoop的初识以及完全安装

第一部分:分布式了解

相对于集中式
                      集中式特点:
                                       一台机器,所有东西(软件)都放在此计算机上(安装)
                      分布式特点:
                                       多台机器:将东西进行划分,每台机器存储一部分
   
主从架构
                      主节点:管理,项目经理, 管理者,调度者
                      从节点: 被管理者,干活的
分布式文件系统HDFS
                      主节点: NameNode:就是在系统中启动一个进程JVM process
                             功能: 将存储的文件划分block块进行存储(128M),每个block的副本是3个。
                      从节点: DataNode真正存储数据块的地方(实际存储在机器的硬盘上)
分布式集群资源管理YARN
                      集群的资源(内存和cpu core)
                      任务(job)调度
                      主节点: ResouceManager:管理集群的所有资源接收客户端提交的应用
                      从节点: NodeManager:管理当前节点资源

伪分布式安装

从创建一个虚拟机,并对虚拟机进行网络配置开始。

1、创建一个虚拟机
2、修改VMware Vmnt8的适配器网段地址192.168.59.0

3、修改主机名:vi /etc/syconfig/network
4、配置ip和主机名映射
                vi /etc/hosts
                     192.168.59.160 bigdata-hpsk01.huadian.com bigdata-hpsk01
                     测试:ping bigdata-hpsk01.huadian.com
                     注意:window也改一下,
                     C:\Windows\System32\drivers\etc\hosts
                     192.168.59.160 bigdata-hpsk01.huadian.com bigdata-hpsk01

5、使用远程连接
6、配置自己的普通用户拥有sudo权限   visudo

7、关闭防火墙
                       当前关闭: sudo service iptables stop

                       开机不启动: sudo chkconfig iptables off
                       检查设置是否成功: chkconfig iptables --list

                       关闭selinux
                                        vi /etc/selinux/config
                                        vi /etc/sysconfig/selinux
                                        设置SELINUX=disabled  该设置必须重启才能生效
8、在opt下创建四个目录    /datas    /softwares    /modules    /tools    
                                          修改四个目录所属者跟所属组:chown huadian:huadian /datas /softwares /modules /tools
9、下载Linux自带的上传与下载的软件:sudo yum install -y lrzsz
10、安装jdk

                        注意:Linux安装jdk类似于Windows安装一个绿色版本软件直接解压,然后配置环境变量即可
                               (1)使用rz将jdk上传到/opt/softwares
                               (2)解压: tar -zxf jdk-8u91-linux-x64.tar.gz -C /opt/modules/
                               (3)配置环境变量
                                                             sudo vi /etc/profile
                                                             #JAVA_HOME
                                                             export JAVA_HOME=/opt/modules/jdk1.8.0_91
                                                             export PATH=${PATH}:${JAVA_HOME}/bin
                                                             使其生效:    source /etc/profile
                                                             验证: java -version
11、关机,快照
12、开机,开始伪分布式安装,上传解压
13、查看目录结构,并删除里面的文件: bin/*.cmd      sbin/*.cmd    share/doc
14、修改三个模块的环境变量(*.evn):hadoop-env.sh、 yarn-env.sh、mapred-env.sh

15、给三个模块添加可执行权:chmod u+x hadoop-env.sh yarn-env.sh mapred-env.sh
16、common配置:core-site.xml
17、HDFS配置:hdfs-site.xml    slaves

18、启动HDFS
                    格式系统: bin/hdfs namenode -format

                                    启动
                                      主节点
                                                    sbin/hadoop-daemon.sh start namenode
                                                    sbin/hadoop-daemon.sh stop namenode
                                      从节点
                                                    sbin/hadoop-daemon.sh start datanode
                                                    sbin/hadoop-daemon.sh stop datanode
                    验证是否启动成功
                                      方式一:jsp
                                      方式二: 通过webUI 界面查看bigdata-hpsk03.huadian.com:50070

                    测试HDFS
                                      帮助文档: bin/hdfs dfs
                                      HDFS文件系统目录和Linux目录结构类似, 命令也类似     
                                      创建目录: bin/hdfs dfs -mkdir /datas 
                                      查看目录: bin/hdfs dfs -ls /datas
                                      上传文件: bin/hdfs dfs -put /opt/datas/input.data /datas/
                                      查看文件内容: bin/hdfs dfs -text /datas/input.data
                                      下载文件: bin/hdfs dfs -get /datas/input.data ./
                                      删除文件: bin/hdfs dfs -rm -r /datas/input.data
19、配置YARN,yarn-site.xml,slavex(前面以及配置过)
20、启动节点
                    启动:
                             主节点:resourceManager         sbin/yarn-daemon.sh start resourcemanager
                             从节点:nodeManager              sbin/yarn-daemon.sh start nodemanager 
                    验证:
                             方式一:jps  === ps -ef |grep java
                             方式二:bigdata-hpsk01.huadian.com:8088
21、MapReduce配置    首先在/etc/hadoop    运行cp mapred-site.xml.template mapred-site.xml
22、配置历史服务器    mapred-site.xml    启动历史服务器sbin/mr-jobhistory-daemon.sh start historyserver
23、日志聚集功能    yarn-site.xml 
24、到此为止,全部配完,关机,快照


  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop是一个开源的分布式计算框架,用于处理大规模数据集的存储和分析。下面是Hadoop完全分布式安装的基本步骤: 1. 安装Java:首先确保你的系统已经安装了Java环境,Hadoop是基于Java开发的。你可以从Oracle官网下载并安装适合你系统的Java版本。 2. 下载Hadoop:从Apache官网下载Hadoop的最新稳定版本。解压下载的压缩包到你选择的目录。 3. 配置环境变量:编辑你的系统环境变量文件(如.bashrc或者.bash_profile),添加以下内容: ``` export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin ``` 4. 配置Hadoop:进入Hadoop的安装目录,找到`etc/hadoop`目录,修改以下配置文件: - `hadoop-env.sh`:设置JAVA_HOME为你的Java安装路径。 - `core-site.xml`:配置Hadoop的核心参数,如文件系统类型、NameNode地址等。 - `hdfs-site.xml`:配置HDFSHadoop分布式文件系统)相关参数,如副本数量、数据块大小等。 - `mapred-site.xml`:配置MapReduce相关参数,如任务调度器类型、任务并行度等。 - `yarn-site.xml`:配置YARN(Yet Another Resource Negotiator)相关参数,如资源管理器地址、节点管理器地址等。 5. 配置SSH免密登录:Hadoop需要通过SSH与集群中的节点通信,因此需要配置SSH免密登录。生成SSH密钥对,并将公钥分发到所有节点上。 6. 格式化HDFS:在NameNode节点上执行以下命令,格式化HDFS: ``` hdfs namenode -format ``` 7. 启动Hadoop集群:依次启动Hadoop集群的各个组件,可以使用以下命令: ``` start-dfs.sh # 启动HDFS start-yarn.sh # 启动YARN ``` 8. 验证安装:通过访问Hadoop的Web界面,如NameNode的http://localhost:50070和ResourceManager的http://localhost:8088,来验证Hadoop是否成功安装和运行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值