hadoop伪分布式安装

我使用的是CentOS6.5,注意是64位的,大小是4GB,需要下载一段时间的。其实6.x的版本都可以,不一定是6.5。
我使用的是VMWare虚拟机,分配了2GB内存,20GB磁盘空间。内存太小,会比较慢;磁盘太小,编译时可能会出现空间不足的情况。上述不是最低配置,根据自己的机器配置修改吧。还有,一定要保持linux联网状态。

设置操作系统环境
1.设置ip地址
  1)通过centos桌面操作
    使用命令ifconfig查看ip地址
当修改了ip之后,使用命令service network restart重新启动网络服务
  vi /etc/sysconfig/network-scripts/ifcfg-eth0
2.设置主机名
  hostname查看主机名称
  vi /etc/sysconfig/network
  绑定主机名到ip上
  vi /etc/hosts增加一行记录192.168.1.97 crxy97
  错误unknow host :hadoop1之类的原因在于主机名hadoop1没有绑定到ip上面
3.关闭防火墙
  service iptables stop
4.关闭防火墙的自启动功能
  chkconfig --list |grep iptables
  chkconfig iptables off
5.设置SSH免密码登录
  ssh-keygen -t rsa
  ssh-copy-id -i localhost
6.安装jdk
  把jdk-7u79-linux-x64.tar.gz放到linux的/usr/local目录下
  执行命令tar -zxvf jdk-7u79-linux-x64.tar.gz解压缩
  执行命令vi /etc/profile 增加两行内容,分别是
     export JAVA_HOME=/usr/local/jdk1.7.0_79
export PATH=.:$JAVA_HOME/bin:$PATH
保存退出。执行命令source /etc/profile
  执行命令java -version查看刚才操作是否生效。
-------------------------------------------------------
HDFS伪分布搭建


修改配置文件etc/hadoop/hadoop-env.sh:
   JAVA_HOME=/usr/local/jdk1.7.0_79
   
修改配置文件etc/hadoop/core-site.xml:
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.1.97:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop-2.6.0/tmp</value>    
</property>
    <property>
        <name>fs.trash.interval</name>
        <value>1440</value>
    </property>
</configuration>


修改配置文件etc/hadoop/hdfs-site.xml:
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
<property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
</configuration>




格式化文件系统:
  $ bin/hdfs namenode -format


启动HDFS集群:
  $ sbin/start-dfs.sh


访问web浏览器:
NameNode - http://localhost:50070/


练习:
  创建目录:
  $ bin/hdfs dfs -mkdir /user
  $ bin/hdfs dfs -mkdir /user/root
  复制文件:
  $ bin/hdfs dfs -put /etc/profile input


  
关闭集群:
  $ sbin/stop-dfs.sh






安装Yarn




修改配置文件etc/hadoop/mapred-site.xml:
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>


修改配置文件etc/hadoop/yarn-site.xml:
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>


启动Yarn集群:
  $ sbin/start-yarn.sh


访问web浏览器:
ResourceManager - http://localhost:8088/


运行例子:
  $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar wordcount input output


查看结果:
  $ bin/hdfs dfs -cat output/*


关闭Yarn集群:
  $ sbin/stop-yarn.sh
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
图像识别技术在病虫害检测中的应用是一个快速发展的领域,它结合了计算机视觉和机器学习算法来自动识别和分类植物上的病虫害。以下是这一技术的一些关键步骤和组成部分: 1. **数据收集**:首先需要收集大量的植物图像数据,这些数据包括健康植物的图像以及受不同病虫害影响的植物图像。 2. **图像预处理**:对收集到的图像进行处理,以提高后续分析的准确性。这可能包括调整亮度、对比度、去噪、裁剪、缩放等。 3. **特征提取**:从图像中提取有助于识别病虫害的特征。这些特征可能包括颜色、纹理、形状、边缘等。 4. **模型训练**:使用机器学习算法(如支持向量机、随机森林、卷积神经网络等)来训练模型。训练过程中,算法会学习如何根据提取的特征来识别不同的病虫害。 5. **模型验证和测试**:在独立的测试集上验证模型的性能,以确保其准确性和泛化能力。 6. **部署和应用**:将训练好的模型部署到实际的病虫害检测系统中,可以是移动应用、网页服务或集成到智能农业设备中。 7. **实时监测**:在实际应用中,系统可以实时接收植物图像,并快速给出病虫害的检测结果。 8. **持续学习**:随着时间的推移,系统可以不断学习新的病虫害样本,以提高其识别能力。 9. **用户界面**:为了方便用户使用,通常会有一个用户友好的界面,显示检测结果,并提供进一步的指导或建议。 这项技术的优势在于它可以快速、准确地识别出病虫害,甚至在早期阶段就能发现问题,从而及时采取措施。此外,它还可以减少对化学农药的依赖,支持可持续农业发展。随着技术的不断进步,图像识别在病虫害检测中的应用将越来越广泛。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值