centos镜像安装

下载镜像:

http://cloud.centos.org/centos/7/images/   这里下载镜像,注意是qcow2镜像还是raw镜像。

https://wiki.centos.org/zh/Download


修改img 密码:

yum install libguestfs-tools 

systemctl start libvirtd

sudo virt-customize -a CentOS-7-x86_64-GenericCloud.qcow2 --root-password password:xxx   修改镜像密码


参考:

http://blog.csdn.net/nirendao/article/details/76451491

http://www.cnblogs.com/think8848/p/6308672.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. 下载Hadoop镜像文件 从官网或镜像站点下载Hadoop镜像文件,例如:https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz 2. 解压Hadoop镜像文件 使用tar命令解压下载的Hadoop镜像文件: ``` tar -xzvf hadoop-3.3.1.tar.gz ``` 3. 配置Hadoop环境变量 将Hadoop的bin目录添加到环境变量中,以便在任何目录下都可以直接运行Hadoop命令: ``` export HADOOP_HOME=/opt/hadoop-3.3.1 export PATH=$HADOOP_HOME/bin:$PATH ``` 4. 配置Hadoop集群 进入Hadoop的conf目录,编辑core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml文件,配置Hadoop集群: ``` cd $HADOOP_HOME/etc/hadoop vi core-site.xml ``` 配置core-site.xml文件: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 配置hdfs-site.xml文件: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/opt/hadoop-3.3.1/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/opt/hadoop-3.3.1/hdfs/datanode</value> </property> </configuration> ``` 配置mapred-site.xml文件: ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 配置yarn-site.xml文件: ```xml <configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration> ``` 5. 格式化HDFS文件系统 使用hdfs namenode -format命令格式化HDFS文件系统: ``` hdfs namenode -format ``` 6. 启动Hadoop集群 使用start-all.sh命令启动Hadoop集群: ``` start-all.sh ``` 7. 验证Hadoop集群 使用jps命令查看Hadoop集群进程: ``` jps ``` 输出类似如下结果: ``` 3537 Jps 3264 ResourceManager 3007 DataNode 3151 NodeManager 3374 SecondaryNameNode 2920 NameNode ``` 表示Hadoop集群已经启动成功。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值