Hadoop单机安装

JDK 的安装

将下载好的 jdk 文件放到/usr/local,配置环境变量

vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.8.0_211
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=$JAVA_HOME/lib 

Hadoop 的安装

官网下载Hadoop,下载到/usr/local 目录下并解压并在 /etc/profile文件中配置环境变量

export HADOOP_HOME=/usr/local/hadoop-2.10.0
export PATH=$HADOOP_HOME/bin:$PATH
刷新配置
source profile
查看版本
hadoop version
hadood文件配置
进入目录 cd /usr/local/hadoop-2.10.0/etc/hadoop/
配置以下几个文件
core-site.xml   hadoop-env.sh     hdfs-site.xml     mapred-site.xml     yarn-site.xml
core-site.xml 里添加如下配置 
<configuration>
<property>
<name>fs.defaultFS</name>
<!-- 这里填的是你自己的 ip,端口默认-->
<value>hdfs://172.18.40.66:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<!-- 这里填的是你自定义的 hadoop 工作的目录,端口默认-->
<value>/data/hadoop/tmp</value>
</property>
<property>
<name>hadoop.native.lib</name>
<value>false</value>
<description>Should native hadoop libraries, if present, be used. </description>
</property>
<property>
<name>fs.permissions.umask-mode</name>
<value>037</value>
</property>
 <property>
<name>hadoop.proxyuser.root.hosts</name>
 <value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
</configuration>
hdfs-site.xml 配置
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<!-- 跟core-site.xml保持一致-->
<property>
    <name>dfs.datanode.data.dir</name>
    <value>/data/hadoop/tmp</value>
</property>    
<property>
<name>dfs.secondary.http.address</name>
<!--这里是你自己的 ip,端口默认-->
<value>172.18.40.66:50090</value>
</property>
</configuration>
 
复制默认的 cp mapred-site.xml.template ./mapred-site.xml
配置命名为 mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.map.memory.mb</name>
<value>2048</value>
</property>
</configuration>
yarn-site.xml
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<!-- 自己的 ip 端口默认 -->
<value>172.18.40.66</value>
</property>
<!-- reducer 获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
   <name>yarn.nodemanager.vmem-pmem-ratio</name>
    <value>5</value>
</property>
<property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
</property>
</configuration>

hadoop-env.sh 里的配置改动

JAVA_HOME 配置成你自己的 jdk 安装路径
export JAVA_HOME=/usr/local/jdk1.8.0_211

配置免密登陆

ssh-keygen -t rsa
出现任何东西全部回车不需要你输入任何东西,都是默认。
将公钥信息保存在授权认证的文件中:
cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys
配置好之后切换到 sbin 目录下 cd /usr/local/hadoop-2.10.0/sbin/
格式化 hadoop 文件格式,执行命令 hadoop namenode -format ,成功之后启动执行
启动所有命令 ./start-all.sh
使用 jps 查看进程,能看到这些进程证明启动成功了,也可以通过网页来查
localhost:50070

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

今朝花落悲颜色

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值