hadoop 环境准备

21 篇文章 0 订阅
10 篇文章 0 订阅

  1  上传JDK文件jdk-6u45-linux-i586.bin 到/home/bigdata/
     1.1 赋权   chmod +x  jdk-6u45-linux-i586.bin
     1.2 解压   ./ jdk-6u45-linux-i586.bin
     1.3 配置环境变量
         vi  /etc/profile
        增加 到文件末尾
   export JAVA_HOME=/home/bigdata/jdk


   export PATH=$PATH:$JAVA_HOME/bin


   export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar


   export JAVA_HOME JAVA_BIN PATH CLASSPATH
 


 2 关闭防火墙  


   service iptables stop
 
  chkconfig iptables off


 3  上传Hadoop文件  hadoop-1.1.2.tar.gz到 /home/bigdata/ 目录


   3.1 解压 tar -zxvf   hadoop-1.1.2.tar.gz
       该名称   mv  hadoop-1.1.2.tar.gz  hadoop 


   3.2 配置Hadoop 环境变量
       vi /etc/profile 


  export HADOOP_HOME=/home/bigdata/hadoop/bin


  export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME
4 修改主要配置文件


  4.1 修改Hadoop/conf文件中的 hadoop-env.sh
    export JAVA_HOME=/home/bigdata/jdk
   


  4.2 修改core-site.xml,如下:
<configuration>  
        <property>  
                <name>fs.default.name</name>  
                <value>hdfs://master:9000</value>  
        </property>  


     <property>
              <name>hadoop.tmp.dir</name>
                <value>/home/root/tmp</value>
                        <description>A base for other temporary directories.</description>
                </property>




</configuration>


  4.3 修改hdfs-site.xml,如下:
<configuration>
        <property>
                <name>dfs.name.dir</name>
                <value>/home/bigdata/hadoopdata/hdfs/name</value>/*这个目录要事先建立好,然后赋权*/
        </property>
        <property>
                <name>dfs.data.dir</name>
                <value>/home/bigdata/hadoopdata/hdfs/data</value> /*这个目录要事先建立好,然后赋权*/
        </property>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
                <name>dfs.permissions</name>
                <value>false</value>
        </property>
</configuration>
 


4.4  修改mapred-site.xml,如下:
<configuration>  
        <property>  
                <name>mapred.job.tracker</name>  
                <value>master:9001</value>  
        </property>  
</configuration>






5  将namenode机器下的jdk文件夹,hadoop文件夹以及/etc/profile文件拷贝到datanode机器上相同的路径下。


  5.1  修改三台机器的hosts文件


修改每台机器下/etc文件夹下的hosts文件
127.0.0.1 localhost
192.168.119.128  master


192.168.119.129 slave1


192.168.119.130 slave2






6 SSH配置


 先在各机器新建文件夹  /root.ssh




在namenode机器的/root文件夹下生成密钥对,执行:
$ ssh-keygen -t rsa
然后一直按Enter键,就会按照默认选项生成密钥对保存在/root/.ssh/id_rsa文件中。


继续执行如下命令,把密钥传递给每个datanode节点:
$ cd ~/.ssh  
$ cp id_rsa.pub authorized_keys
$ scp authorized_keys slave1:/root/.ssh/authorized_keys  
$ scp authorized_keys slave2:/root/.ssh/authorized_keys


克隆配置ssh
scp authorized_keys h2slave1:/root/.ssh/authorized_keys 
scp authorized_keys h2slave2:/root/.ssh/authorized_keys 
scp authorized_keys h2slave3:/root/.ssh/authorized_keys 




7 启动格式化
hadoop namenode -format  


8 检查运行情况
  jps






然后可以通过如下地址来查看集群运行状况:
http://master:50030  
http://master:50070 






另一种生成ssh,免密码登陆


     ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
     
   1   生成私钥和公钥:ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
   2   把公钥(id_dsa.pub)追加到授权的key中去:cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

您好!为了准备Hadoop环境,您需要执行以下步骤: 1. 安装Java:Hadoop是用Java编写的,因此您需要安装Java Development Kit(JDK)。您可以从Oracle官方网站下载并安装适合您操作系统的JDK版本。 2. 下载Hadoop:您可以从Apache Hadoop官方网站下载最新的稳定版本。选择适合您操作系统的二进制版本。 3. 解压Hadoop压缩文件:将下载的Hadoop二进制文件解压到您选择的目录。 4. 配置环境变量:打开您的bash配置文件(例如.bashrc或.bash_profile)并添加以下行: ``` export HADOOP_HOME=/path/to/your/hadoop/directory export PATH=$PATH:$HADOOP_HOME/bin ``` 保存更改后,执行`source`命令以使更改生效,或者重新启动终端。 5. 配置Hadoop:进入Hadoop目录,并编辑`etc/hadoop/hadoop-env.sh`文件。设置`JAVA_HOME`为您安装的JDK路径。 6. 配置核心Hadoop文件:编辑`etc/hadoop/core-site.xml`文件,设置Hadoop的核心配置参数,如文件系统URL和Hadoop临时目录。 7. 配置HDFS:编辑`etc/hadoop/hdfs-site.xml`文件,设置HDFS相关配置参数,如副本数量和数据块大小。 8. 启动Hadoop集群:通过运行以下命令启动Hadoop集群: ``` $HADOOP_HOME/sbin/start-dfs.sh $HADOOP_HOME/sbin/start-yarn.sh ``` 这将启动HDFS和YARN。 这些步骤将帮助您准备Hadoop环境。请根据您的具体需求进行适当的配置和调整。祝您成功搭建Hadoop环境!如果您有任何疑问,请随时提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值