hadoop学习过程(一)

本文详细介绍了在Ubuntu系统上进行Hadoop伪分布式安装的步骤,包括创建hadoop用户、SSH无密码登录、JDK安装、Hadoop下载与配置、伪分布式运行示例。同时,还涵盖了Ubuntu下Eclipse的下载安装、Maven插件配置以及Hadoop插件的安装,为Hadoop开发环境的搭建提供全面指导。
摘要由CSDN通过智能技术生成

内容提示:
——双系统安装(Ubuntu)
——Hadoop 伪分布式安装
——Ubuntu下eclipse的下载安装与配置
——eclipse中Maven插件的下载安装与配置
——eclipse中hadoop插件的下载安装与配置
——HDFS bash命令
——HDFS Java API 基本编程

注:Ubuntu安装与卸载mysql,jdk,eclipse,tomcat,workbench
参考链接:https://blog.csdn.net/t1dmzks/article/details/52079791

一、Linux系统安装(Ubuntu16.0.4LTS)双系统安装
第一步:制作安装 U 盘
参考链接:http://jingyan.baidu.com/article/59703552e0a6e18fc007409f.html
第二步:双系统安装
参考链接:http://jingyan.baidu.com/article/dca1fa6fa3b905f1a44052bd.html
注:
1.Ubuntu下载地址:https://www.ubuntu.com/download/desktop
(如:ubuntu-16.04.4-desktop-amd64.iso)
2.安装前设置U盘启动,打开BIOS设置启动项(不同型号的电脑不同)
3.安装的过程中最好不要联网
二、Hadoop 伪分布式安装
参考链接:https://www.cnblogs.com/87hbteo/p/7606012.html

创建hadoop用户->设置无密码登录->JDK的下载与安装配置->
hadoop的下载与安装配置->伪分布式配置->启动hadoop->运行实例

1.创建hadoop用户
sudo useradd -m username -s /bin/bash #/bin/bash作为shell
sudo passwd 123 #设置密码,如:123
sudo adduser username #sudo为用户增加管理员权限
su - lln #切换当前用户为lln
2.安装SSH,设置SSH无密码登陆
sudo apt-get install openssh-server #安装SSH server
ssh localhost #登陆SSH,第一次登陆输入yes
exit #退出登录的ssh localhost
cd ~/.ssh/ #如果没法进入该目录,执行一次ssh localhost
ssh-keygen -t rsa  #接下来连续敲击三次enter键
cat ./id_rsa.pub >> ./authorized_keys #加入授权
ssh localhost #此时即可免密码登录
3.JDK的下载安装与配置
下载:http://www.oracle.com/technetwork/java/javase/downloads/index.html
(如:jdk-8u162-linux-x64.tar.gz)
解压:sudo tar zxvf jdk-7u80-linux-x64.tar.gz -C /usr/lib/jvm ( 解压到/usr/lib/jvm目录下)
配置:vim ~/.bashrc

export JAVA_HOME=/usr/lib/jvm/java
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

生效:source ~/.bashrc
查看版本号:java -version
注:
vim的安装:sudo apt-get install vim

4.hadoop的下载安装与配置
下载:http://hadoop.apache.org/releases.html
(如:hadoop-2.6.5.tar.gz)
解压:sudo tar -zxvf hadoop-2.6.0.tar.gz -C /usr/local (解压到/usr/local目录下)
权限:sudo chown -R hadoop ./hadoop #修改文件权限
配置:

export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

生效:source ~./bashrc
查看版本号:hadoop version

5.伪分布式配置
修改core-site.xml

<configuration>
        <property>
             <name>hadoop.tmp.dir</name>
             <value>file:/usr/local/hadoop/tmp</value>
             <description>Abase for other temporary directories.</description>
        </property>
        <property>
             <name>fs.defaultFS</name>
             <value>hdfs://localhost:9000</value>
        </property>
</configuration>

修改配置文件 hdfs-site.xml

<configuration>
        <property>
             <name>dfs.replication</name>
             <value>1</value>
        </property>
        <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
             <name>dfs.datanode.data.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
</configuration>

NameNode 的格式化: ./bin/hdfs namenode -format
启动hadoop:./sbin/start-all.sh
查看java进程:jps
Web 界面查看: http://localhost:50070

注:
localhost:9000failed on connection exception:java.net.ConnectException:拒绝链接
解决:通常是namenode没有启动,检查配置路径是否出错(core-site.xml、hdfs-site.xml)

6.Hadoop运行WorldCount示例
找到hadoop自带worldcount jar包示例的路径->准备需要的输入输出路径以及上传的文件->运行实例
路径:cd /usr/local/hadoop-2.6.5/share/hadoop/mapreduce
创建目录: hadoop fs -mkdir -p /data/wordcount
hadoop fs -mkdir -p /output/
这里写图片描述
本地创建输入文件:vim /usr/inputWord
上传至HDFS:hadoop fs -put /usr

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值