hadoop配置

配置项1

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://mini1:9000</value>
</property>

hdfs://mini1:9000 nameNode+Port
URI: jdbc:mysql://localhost:3306
schema
hadoop要使用哪一种文件系统

配置项2

<property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/hdpdata</value>
</property>

在hdfs-site.xml中配置
//默认是3份

<property>
    <name>dfs.replication</name>
    <value>2</value>
</property>

在mapred-site.xml中配置
//方法一个资源调度平台上跑,yarn负责分配内存等
//不配置的话,默认是local,即本地模拟运行,不会在集群中运行

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

在yarn-site.xml中配置
//配置yarn的老大在哪里

<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>mini1</value>
</property>

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

启动的时候,加一台就认一台。

./hadoop-daemon.sh start namenode
在mini2或者3/4 启动dataNode

./hadoop-daemon.sh start datanode
dataNode与nameNode怎么握手?
dataNode通过配置知道nameNode,协同工作。
如果启动失败,则查看日志。

etc中Hadoop中slaves中,给自动化启动脚本用的。
这个自动化脚本是start-dfs.sh和stop-dfs.sh?

start-dfs.sh中

本质上是这样ssh mini2 hadoop-daemon.sh start datanode

免密码登录

ssh-keygen

ssh-copy-id mini1
ssh-copy-id mini2
ssh-copy-id mini3
ssh-copy-id mini4

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop的SASL(简单认证服务协议Simple Authentication and Security Layer)主要用于安全地在网络通信中传输数据,特别是跨集群的数据共享。配置Hadoop使用SASL通常涉及以下几个步骤: 1. **安装必要的依赖**:确保JDK和Hadoop版本支持SASL,比如Hadoop 2.x及以上版本默认启用SASL。 2. **修改`core-site.xml`**:这个文件位于Hadoop配置目录下(通常是`$HADOOP_HOME/conf`)。你需要添加SASL相关的属性,例如: ``` <property> <name>hadoop.security.authentication</name> <value>SASL</value> </property> <property> <name>hadoop.security.authorization</name> <value>true</value> </property> ``` 这里设置`hadoop.security.authentication`为"SASL",开启授权功能。 3. **启用Kerberos**:如果要在Hadoop中使用SASL/Kerberos,需要配置KDC(Key Distribution Center),这包括创建服务票证、用户票证以及适当的realm设置等。参考Kerberos官方文档进行配置。 4. **配置`hdfs-site.xml`**:添加HDFS连接使用的SASL配置,如: ``` <property> <name>hadoop.security.auth_to_local</name> <value>RULE:[2:$1@$0]</value> </property> <property> <name>dfs.client.use.datanode.hostname</name> <value>true</value> </property> ``` `dfs.client.use.datanode.hostname`确保使用的是DataNode的实际主机名而不是IP地址。 5. **启动服务并检查日志**:重启Hadoop的服务(`start-dfs.sh`和`start-yarn.sh`)后,查看Hadoop的日志,确认SASL配置是否成功。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值