simple hadoop
simple hadoop
hao难懂
这个作者很懒,什么都没留下…
展开
-
01HDFS准备
hdfs安装详细步骤1、创建一个虚拟机(母机),并安装好centos(minimal)系统2、从母机克隆出另外3台虚拟机3、启动这4台虚拟机,登录进去修改(网卡名、ip地址配置、主机名、域名映射)①改主机名: vi /etc/sysconfig/network②改网卡名: mv /etc/sysconfig/network-scripts/ifcfg-eth0 /etc/sysc...原创 2019-07-28 13:46:09 · 157 阅读 · 1 评论 -
02HDFS配置
== 上篇为1-到9 请点击这里进入 01HDFS准备 ==10、修改配置文件vi hdfs-site.xml核心参数1:namenode在哪台机器上运行 参数名:dfs.namenode.rpc-address 参数值: node01:9000核心参数2:namenode存元数据的本地目录 参数名:dfs.namenode.name.dir 参数值:...原创 2019-07-28 13:56:44 · 222 阅读 · 1 评论 -
03HDFS命令
HDFS的命令行客户端常用操作:1.查看目录 hadoop fs -ls /2.上传文件 hadoop fs -put /本地/路径 /hdfs/路径 hadoop fs -put /root/a.txt /3.下载文件 hadoop fs -get /hdfs/文件路径 /本地/路径 hadoop fs -get /a.txt ...原创 2019-07-28 13:58:15 · 294 阅读 · 0 评论 -
Hadoop,Hive过程详解
1.三台机器基本配置更改主机名 vi /etc/sysconfig/network 更改映射 vi /etc/hosts 更改ip地址 vi /etc/sysconfig/network-scripts/ifcfg-e* 注释HWADDR,删除UUID,启用网卡ONBOOT=YES,写死为静态BOOTPROTO=static IP地址:IPADDR=192.16...原创 2019-09-01 21:45:19 · 284 阅读 · 2 评论 -
两种加密算法
一、dsa首先生成密钥对 ssh-keygen -t dsa在其余机器上生成.ssh目录 ssh localhost 将公钥分发给其余机器 scp id_dsa.pub root:node02:/root/.ssh/node01.pub (node03)将公钥加入keys中 cat id_dsa.pub >> authorized_keys (node01) c...原创 2019-09-02 15:43:53 · 353 阅读 · 1 评论