Hadoop学习笔记(一)(Hadoop简介与环境搭建)

Hadoop

http://hadoop.apache.org/
对于Apache的顶级项目来说,projectname.apache.org
Hadoop: hadoop.apache.org
Hive: hive.apache.org
Spark: spark.apache.org
HBase: hbase.apache.org


为什么很多公司选择Hadoop作为大数据平台的解决方案?
1)源码开源
2)社区活跃、参与者很多  Spark
3)涉及到分布式存储和计算的方方面面: 
    Flume进行数据采集
    Spark/MR/Hive等进行数据处理
    HDFS/HBase进行数据存储
4)已得到企业界的验证

Hadoop环境搭建:

1) 下载Hadoop
    http://archive.cloudera.com/cdh5/cdh/5/2.6.0-cdh5.7.0

    wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.7.0.tar.gz

2)安装jdk
    下载
    解压到app目录:tar -zxvf jdk-7u51-linux-x64.tar.gz -C ~/app/
    验证安装是否成功:~/app/jdk1.7.0_51/bin      ./java -version
    建议把bin目录配置到系统环境变量(~/.bash_profile)中
        export JAVA_HOME=/home/hadoop/app/jdk1.7.0_51
        export PATH=$JAVA_HOME/bin:$PATH
    使得环境变量生效: source ~/.bash_profile
    验证java是否配置成功: java -v


3)机器参数设置
    hostname: hadoop001
    
    修改机器名: /etc/sysconfig/network
        NETWORKING=yes
        HOSTNAME=hadoop001

    设置ip和hostname的映射关系: /etc/hosts
        192.168.199.200 hadoop001
        127.0.0.1 localhost

4)安装ssh
    sudo yum install ssh
    ssh-keygen -t rsa
    cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys    
    chmod 600 ~/.ssh/authorized_keys
    
    ll  以点开头的文件是隐藏的 ls -al
    测试:ssh localhost


    ssh免密码登陆(本步骤可以省略,但是后面你重启hadoop进程时是需要手工输入密码才行)
        ssh-keygen -t rsa
        cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

5)Hadoop配置文件修改: ~/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop
    hadoop-env.sh
        export JAVA_HOME=/home/hadoop/app/jdk1.7.0_51

    core-site.xml
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://hadoop001:8020</value>
        </property>    

        <property>
            <name>hadoop.tmp.dir</name>
            <value>/home/hadoop/app/tmp</value>
        </property>    

    hdfs-site.xml
        <property>
            <name>dfs.replication</name>
            <value>3</value>
        </property>

        slaves   配置datanode的hostname

6)格式化HDFS
    注意:这一步操作,只是在第一次时执行,每次如果都格式化的话,那么HDFS上的数据就会被清空
    bin/hdfs namenode -format

7)启动HDFS
    sbin/start-dfs.sh

    验证是否启动成功:
        jps
            DataNode
            SecondaryNameNode
            NameNode

        浏览器
            http://hadoop001:50070/


8)停止HDFS
    sbin/stop-dfs.sh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值