Centos6 磁盘挂载

1. Centos6磁盘挂载

  • 添加一块磁盘
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

2. 分区,格式化,挂载新磁盘

  • 磁盘挂载
df -lh
fdisk -l
fdisk /dev/sdb   这个命令执行后依次输 n  p  1  回车  回车  w
fdisk -l
mkfs -t ext4 -c /dev/sdb1   格式化我们的分区
mkdir /data02
mount -t ext4 /dev/sdb1 /data02
df –lh
  • 如果系统重启,重新执行一下挂载命令即可
mount -t ext4 /dev/sdb1 /data02

在这里插入图片描述

3. centos6.5制作本地yum源(可以不需要)

mkdir -p /centos64/centos01
cd  /dev
ll cdrom
man mount
mount -o loop -t iso9660 /dev/cdrom /centos64/centos01/
ln -s /centos64/centos01/ centos01
cd /etc/yum.repos.d/
mkdir bak
mv ./*.repo bak
cp bak/CentOS-Media.repo localcentos.repo
vi localcentos.repo
[localcentos]
name=localcentos
baseurl=http://hadoop-ehp01.cloudyhadoop.com/centos01/
gpgcheck=0
enabled=1

yum clean all
yum list|grep httpd

4. 制作本地yum源安装impala服务

yum  -y install httpd
service httpd start
cd /etc/yum.repos.d
vi localcdh.repo
[localcdh]
name=localcdh
baseurl=http://node02/cdh5.14.0/
gpgcheck=0
enabled=1

5. 开始安装impala

yum  install  impala
yum install impala-server
yum install impala-state-store
yum install impala-catalog
yum  install  impala-shell
  • 创建连接到配置目录下来
ln -s /export/servers/hadoop-2.7.5/etc/hadoop/core-site.xml /etc/impala/conf/core-site.xml
ln -s /export/servers/hadoop-2.7.5/etc/hadoop/hdfs-site.xml /etc/impala/conf/hdfs-site.xml
ln -s /export/servers/apache-hive-1.2.1-bin/conf/hive-site.xml /etc/impala/conf/hive-site.xml
  • 修改所有的hdfs-site.xml添加以下配置
    所有节点创建文件夹
mkdir -p /var/run/hdfs-sockets
<property>
		<name>dfs.client.read.shortcircuit</name>
		<value>true</value>
	</property>
	<property>
		<name>dfs.domain.socket.path</name>
		<value>/var/run/hdfs-sockets/dn</value>
	</property>
	<property>
		<name>dfs.client.file-block-storage-locations.timeout.millis</name>
		<value>10000</value>
	</property>
  • 创建文件夹 /var/run/hadoop-hdfs/
    给这个文件夹赋予权限,例如如果我们用的是普通用户,那就直接赋予普通用户的权限
    例如:
    chown -R hadoop:hadoop /var/run/hadoop-hdfs/
    因为我这里直接用的root用户,所以不需要赋权限了
  • 所有datanode节点的hdfs-site.xml中添加以下配置启用文件block块追踪
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>
  • 重启datanode
    sbin/stop-dfs.sh
    sbin/start-dfs.sh
  • 所有节点更改impala默认配置文件
    vim /etc/default/impala
    在这里插入图片描述
    ln -s /export/servers/apache-hive-1.2.1-bin/lib/mysql-connector-java-5.1.38.jar /usr/share/java/mysql-connector-java.jar

6. 启动Impala服务

  • 主节点启动以下三个服务进程
    service impala-state-store start
    service impala-catalog start
    service impala-server start
  • 从节点启动impala-server即可
    service impala-server start
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值