【源】从零自学Hadoop(04):Linux准备下

阅读目录

本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作。

文章是哥(mephisto)写的,SourceLink

 

  我们已经准备好了网络访问,防火墙,Hosts,SSH等设置,下面我们根据上篇中的检查列表处理下剩下的内容,包括yum,时间同步,本地仓库等。

  我们开始吧。

搭建环境

一:检查yum,出现了列表就说明已经安装。
rpm -qa|grep yum

二:修改yum源

  由于国内网络的情况,所以尽量还是找点国内的镜像,或者比较快的国外镜像。

  目前俺只找到一个源还行(上海交通大学的),不过大家有好的源,还是分享出来吧。

#进入目录
cd /etc/yum.repos.d/
#列表
ls -al

  在这里我们就修改CentOS-Base.repo就可以了。

  将原来的注释掉,然后加入baseurl=http://ftp.sjtu.edu.cn/centos/$releasever/os/$basearch/

vim CentOS-Base.repo

三:H30时间服务器安装

  这里需要安装时间服务器,其他的服务器通过这个来进行多机器时间的同步。

yum install ntp

  配置ntp.conf

vim /etc/ntp.conf

  将H30的本地时钟作为时间供给源,这样,即便它失去网络连接,它也可以继续为网络提供服务。

server 127.127.1.0
fudge 127.127.1.0 stratum 10

  如果集群是在一个封闭的局域网内,可以屏蔽掉默认的server。

#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst

  [restrict]参数设定方式:
  restrict [address] mask [netmask_ip] [parameter]
  其中parameter的参数主要有:
    ignore        :    拒绝所有类型的ntp连接
    nomodify    :    客户端不能使用ntpc与ntpq两支程式来修改服务器的时间参数
    noquery        :    客户端不能使用ntpq、ntpc等指令来查询服务器时间,等于不提供ntp的网络校时
    notrap        :    不提供trap这个远程时间登录的功能
    notrust        :    拒绝没有认证的客户端
    nopeer        :    不与其他同一层的ntp服务器进行时间同步

restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap

  这一行的含义是授权192.168.1.0网段上的所有机器可以从这台机器上查询和同步时间。这里的配置涉及到了一些网络知识。 对于第一个参数[address] 它可能是一个IP,也可能是一个网段,这取决于后面给出的子网掩码。如果这里的子网掩码是255.255.255.255,那么配置就变成了只授权给IP是192.168.1.0的那一台机器连接!但是这里子网掩码是255.255.255.0,则此时的192.168.1.0就是一个网络标识了!它代表的是这样一个网段:192.168.1这个网段了。

  启动ntp服务

#启动
service ntpd start
#开机启动
chkconfig ntpd on
#状态
service ntpd status

四:其他客户机配置

  安装

  修改ntp.conf

  手动同步时间

  这里暂时不要开ntpd服务,开了就不能手动同步了,因为使用同一个端口。

ntpdate 192.168.1.30

这里出一个思考题,学习得举一反三,掌握基本的原理,其他的只是组合搭配了。

  ntpdate H30 行不行得通。

  然后,我们开启服务

#开启服务
service ntpd start
#开机启动
chkconfig ntpd on

  检查状态

ntpstat

ntpq -p

  这两个命令都可以查看是否与H30同步了。

watch ntpq -p

   这样,我们的时间同步就做到位了。

五:H30搭建本地仓库

  那些库文件都不小,而且从yum上下,很多都不稳定,下的你开始怀疑自己的智商,所以,作为生产环境,我们还是辛苦点,一部到位,做个属于我们自己的本地仓库。

  本篇下面的内容均是介绍本地仓库的搭建。这次我们搭建的是基于html的本地仓库。

六:安装httpd服务

  httpd是Apache超文本传输协议(HTTP)服务器的主程序。被设计为一个独立运行的后台进程,它会建立一个处理请求的子进程或线程的池。

yum install httpd
service httpd start
chkconfig httpd on

  我们打开浏览器,输入192.168.1.30

  这样说明httpd服务正常运行。

七:安装createrepo
yum install createrepo

八:安装yum-utils
yum install yum-utils

九:拷贝资源文件

  通过Xftp4将文件copy到/var/www/html/hdp目录,如果没有该目录,创建。

cd /var/www/html
ls -al
#创建hdp目录
mkdir hdp

  开始Copy,这里使用的都是最新的hdp和ambari,大家是不是开始激动了。

  这里主要是HDP-2.3.0.0-centos6-rpm.tar和HDP-UTILS-1.1.0.20-centos6.tar要拷贝进来,剧透下,后面我们使用ambari安装的时候,需要这两个库。

十:解压缩文件
tar zxvf HDP-2.3.0.0-centos6-rpm.tar.gz 

tar zxvf HDP-UTILS-1.1.0.20-centos6.tar.gz

  我们可以明显的看到多了两个绿色的目录。

十一:创建基于html的创建源

  在html的目录下,执行

createrepo hdp

  执行完成后,我们可以看到hdp目录会多一个repodata的新目录。

-------------------------------------------------------------------------------

  到此,我们这部分内容暂时落幕,剩下的本地库的留到下一章节补充完善。

 

 

系列索引

  【源】从零自学Hadoop系列索引

 

 

 

 

本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作。

文章是哥(mephisto)写的,SourceLink

 

1、资项目码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买代码。 1、资项目码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买代码。 1、资项目码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值