Hadoop window win10 基础环境搭建(2.8.1)

下面运行步骤除了配置文件有部分改动,其他都是参照hadoop下载解压的share/doc/index.html。




hadoop下载:http://apache.opencas.org/hadoop/common/

解压至无空格目录下即可,下面是目录结构:


下面配置windows环境:

Java JDK :

我采用的是1.8的,配置JAVA_HOME,如果默认安装,会安装在C:\Program Files\Java\jdk1.8.0_51。此目录存在空格,启动hadoop时将报错,JAVA_HOME is incorrect ...此时需要将环境变量JAVA_HOME值修改为:C:\Progra~1\Java\jdk1.8.0_51,Program Files可以有Progra~代替。

Hadoop 环境变量: 

新建HADOOP_HOME,指向hadoop解压目录,如:D:/hadoop。path环境变量中增加:%HADOOP_HOME%\bin;。

Hadoop 依赖库:

winutils相关,hadoop在windows上运行需要winutils支持和hadoop.dll等文件,下载地址:http://download.csdn.net/detail/fly_leopard/9503059

注意hadoop.dll等文件不要与hadoop冲突。为了不出现依赖性错误可以将hadoop.dll放到c:/windows/System32下一份。


hadoop环境测试

起一个cmd窗口,起到hadoop/bin下,hadoop version,显示如下:



hadoop基本文件配置:hadoop配置文件位于:hadoop/etc/hadoop下

core-site.xml / hdfs-site.xml / mapred-site.xml / yarn-site.xml

core-site.xml:

[html]  view plain  copy
 print ?
  1. <configuration>  
  2.   
  3.    <property>  
  4.   
  5.        <name>fs.defaultFS</name>  
  6.   
  7.        <value>hdfs://localhost:9000</value>  
  8.   
  9.    </property>  
  10.   
  11. </configuration>  
save_snippets.png




hdfs-site.xml:


 






[html]  view
plain
 copy



 print ?




  1. <configuration>  

  2.   

  3.        <property>  

  4.   

  5.                <name>dfs.replication</name>  

  6.   

  7.                 <value>1</value>  

  8.   

  9.        </property>  

  10.   

  11.        <property>  

  12.   

  13.                 <name>dfs.namenode.name.dir</name>  

  14.   

  15.                <value>file:/hadoop/hadoop272/data/dfs/namenode</value>  

  16.   

  17.        </property>  

  18.   

  19.        <property>  

  20.   

  21.                <name>dfs.datanode.data.dir</name>  

  22.   

  23.                <value>file:/hadoop/hadoop272/data/dfs/datanode</value>  

  24.   

  25.        </property>  

  26.   

  27. </configuration>  

save_snippets.png




mapred-site.xml:






[html]  view
plain
 copy



 print ?




  1. <configuration>  

  2.   

  3.        <property>  

  4.   

  5.           <name>mapreduce.framework.name</name>  

  6.   

  7.           <value>yarn</value>  

  8.   

  9.        </property>  

  10.   

  11. </configuration>  

  12.   

  13. yarn-site.xml:  

  14.   

  15. <configuration>  

  16.   

  17.        <property>  

  18.   

  19.           <name>yarn.nodemanager.aux-services</name>  

  20.   

  21.           <value>mapreduce_shuffle</value>  

  22.   

  23.        </property>  

  24.   

  25.        <property>  

  26.   

  27.           <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>  

  28.   

  29.           <value>org.apache.hadoop.mapred.ShuffleHandler</value>  

  30.   

  31.        </property>  

  32.   

  33. </configuration>  

save_snippets.png




格式化系统文件:


hadoop/bin下执行 hdfs namenode -format


待执行完毕即可,不要重复format。


格式化完成后到hadoop/sbin下执行 start-dfs启动hadoop


访问:http://localhost:50070








(不是必须的 ) 创建目录:用于输入和输出,Linux上是/user/用户名/xx
windows上可能没具体要求,我创建也是按照liunx目录方式的。参照的api doc上面







创建完成可以通过hdfs dfs-ls 目录名称查看,也可以在浏览器中查看创建的目录或文件




input输入文件到目录:login_weibo2是我自己创建的文本文件,位于hadoop一个盘的。此处是D:/hadoop/login_weibo2





如果了解命令参数输入hdfs dfs回车查看dfs命令参数 。hdfs dfs -put回车查看put相关参数。其他命令也是这样。


查看input输入的文件内容:





运行hadoop给的examples,做个参考,运行下面命令等待执行完成。hadoop jar jar文件位置 grep 输入目录(包含被处理文件的目录)  输出目录(运行结果输出目录)





然后查看文件夹下多了些东西,就是运行结果输出目录,结果般存在part-r-xxxx里面。





在hadoop/sbin下启动start-yarn,访问http://localhost:8088可查看 资源、节点管理


Tip:
(1)自己按照这个帖子配置好了,也启动成功了,因此放到第一个,我用的版本的2.8.1,执行启动的时候不要先入为主的认为切换到bin目录,实际是切换到sbin目录!
(2)至于“winutils”和“hadoop.dll”的文件下载,文中地址失效了!可以去这个地址https://github.com/steveloughran/winutils下载,而且下载的时候不要用右键-->另存为,而是要点击“winutils.exe”后到页面中找到Download按钮下载!

转载于:https://www.cnblogs.com/jpfss/p/7677964.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值