Hdaoop的安装配置

配置hadoop

先安装vmware实现文件的拖拽

  1. pwd //查看文件的位置
  2. ls // 查看一下文件夹
  3. cd Desktop/
  4. ls // 查看Desktop文件中的文件
  5. cd 加上Desktop文件中的文件名
  6. ls //找到安装文件
  7. sudo passwd root //设置权限的密码
  8. sudo ./加上安装文件名 //点斜杠的意思是当前目录下
  9. sudo shutdown -r now //完成后重启一下
  10. 将hadoop的压缩文件拖拽进虚拟机

    创建hadoop用户

1.sudo useradd -m hadoop -s /bin/bash
2.输入密码
3.sudo passwd hadoop //修改密码
4.输入要修改的密码
5.sudo adduser hadoop sudo //增加管理权限

//更新软件源 sudo apt-get update
点击System Settings
点击Software
下载服务网络选择china中的阿里云
//下载安装包
sudo apt-get update // 安装软件

安装vim ssh

  • sudo apt-get install vim //安装vim
  • 输入密码确认
  • sudo apt-get install openssh-server //安装ssh
  • ssh localhost
  • exit;
  • cd ~/.ssh/
  • ls
  • ssh-keygen -t rsa //设置免密登陆
  • cat ./id_rsa.pub >> ./authorized_key
  • sudo apt-get install openjdk-7-jre openjdk-7-jdk //安装jdk
    // 可能会出现jdk没更新的情况 这时候应该先更行一下再进行安装
  • sudo apt-get update //更新jdk
    //配置jdk环境变量
    //ctrl+shift+t //分外打开一个窗口
  • cd /usr/lib/jvm/
  • ls //查看jvm内的文件
  • vim ~/.bashrc
    按G可以跳到命令行的尾部
    按i可以进行编辑
  • export JAVA_HOME=/usr/lib/jvm/加上jvm内的文件名
  • 按esc进入命令行模式然后 :wq保存并退出
  • source ~/.bashrc // 使这个文件生效
  • java -version // 查看一下
  • $JAVA_HOME/bin/javac -version //查看
  • 将hadoop的压缩文件拖拽进来
  • pwd
  • ls //查看在哪
  • cd Desktop
  • ls // 会发现里面有hadoop的压缩文件
    //解压hadoop
  • sudo tar zxvf 加上hadoop压缩包的名称 -C解压到指定的文件夹 /usr/local
    // 修改hadoop的那个文件名
  • cd /usr/local/
  • ls
  • sudo mv hadoop-2.7.1 hadoop
  • ls
  • sudo chown -R hadoop ./hadoop // 文件夹权限的所属用户移到hadoop用户中
    cd haddop
  • bin/hadoop version //查看它的版本 如果有版本的出现说明安装成功了
  • vim ~/.bashrc //设置hadoop的环境
    33.进入命令行模式 输入 export HADOOP_HOME=/usr/local/hadoop
  • 输入 export PATH= PATH: P A T H : HADOOP_HOME/bin:$HADOOP_HOME/sbin
  • ~
  • wq //保存
  • source ~/.bashrc
  • cd etc/hadoop/
  • ls
  • vim core-site.xml //对这个文件进行编辑
  • vim hdfs-site.xml //对这个文件进行编辑
  • 在命令行的模式下连续按两下d即可将这一行删除
  • :wq
  • vim hadoop-env.sh //配置一下javahome
  • export JAVA_HOME=/usr/lib/jvm/加上15行的那么文件的文件名
    export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop/
  • :wq
  • source ./hadoop-env.sh

  • // 执行NameNode 的格式化

  • hadoop namenode -format
  • 运行start-dfs.sh就可以启动NameNode
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值