文章目录
- 大数据开发
- 安装部署
大数据开发
3.大数据选型
3.1物理机和云主机
3.1.1云主机
是指在云计算平台上提供的虚拟化的计算资源,用户可以按需购买和使用。云主机是在物理服务器上通过虚拟化技术划分出的一部分资源,每个云主机具有独立的计算资源,并在逻辑上与其他云主机隔离。云主机具有灵活性、可伸缩性和弹性的特点,用户可以根据实际需求动态调整资源的配置和数量。
3.1.2物理机
指的是一台实际的物理服务器,通常是由企业自己购买或租赁的服务器设备。物理机具有独立的硬件资源和独占的计算能力,适用于需要高性能、高安全性和大规模数据处理的应用。物理机需要企业自行管理和维护,包括硬件的维护、软件的安装和配置等。
3.1.3相比较而言
物理机具有更高的性能和安全性,适用于对计算资源和数据安全要求较高的企业应用。而云主机则具有更高的灵活性和可伸缩性,适用于对资源需求有变化和波动的应用场景。选择使用物理机还是云主机,需要根据具体的应用需求、预算和运维能力来进行评估和决策。
3.2大数据开发-物理服务器采购
3.2.1参数
以128G内存,20核物理CPU,40线程,8THDD和2TSSD硬盘,戴尔品牌;单台报价4W出头,一般物理机寿命5年左右;需要有专业的运维人员以及电费等开销。
3.2.1内存(Memory)*
内存是见算计用于存储数据和程序的临时工作空间;在大数据开发中,内存的容量对于大数据的加载和处理速度至关重要;
- 大的内存容量提高数据处理效率;
- 减少频繁的磁盘读写操作。
大数据处理需要大量的内存来存储和处理数据。根据数据规模和处理需求,确定所需的内存容量。一般来说,大数据处理服务器的内存容量应在几十GB到几百GB之间。
3.2.2磁盘(Disk)*
磁盘是用于长期存储数据的设备。在大数据开发中,磁盘的容量和性能对于存储和访问大量数据至关重要。
- 较大的磁盘容量可以存储更多的数据
- 高性能的磁盘(如SSD)可以提供更快的数据读写速度
大数据涉及存储大量的数据。根据数据量和存储需求,选择具有足够容量的硬盘(如HDD或SSD)。可以考虑使用多个硬盘组成RAID阵列,提高数据的可靠性和访问速度。
3.2.3CPU(Core)*
CPU Core是处理器的核心处理器。在大数据处理中,较多的CPU核心可以提供更高的计算能力和并行处理能力,加速数据的处理速度;多核心的处理器可以同时处理多个任务,提高系统的吞吐量。
大数据处理需要强大的计算能力。选择具有多核心和高性能的处理器,以支持并行计算和高效处理大数据量。考虑核心数量、主频和缓存等参数。
3.2.4网络带宽
大数据处理通常需要数据传输和网络通信。确保服务器具有高速网络接口和较大的带宽,以支持数据的快速传输和处理。
3.2.5扩展性
大数据处理通常需要集群计算。考虑服务器的可扩展性,选择支持扩展的服务器,以便将来可以根据需求进行扩容和增加计算节点。
3.2.6可靠性和稳定性
大数据处理对服务器的可靠性和稳定性要求较高。选择具有良好品牌和质量保证的服务器,以减少硬件故障和维护成本。
3.2.7兼容性
确保服务器的操作系统和软件环境兼容大数据处理所需的软件和工具,如Hadoop、Spark等。
3.2.8预算和成本效益
根据预算和成本效益进行综合评估。比较不同品牌和型号的服务器,评估其性能和价格的关系。
3.3大数据开发-云主机
3.3.1参数
以阿里云为例,差不多相同配置,每年5W;运维方面都由阿里云完成,运维相对轻松;
3.4大数据项目开发前期和后期
3.4.1数据规模
在项目的前期,可能需要处理大量的原始数据进行收集、清洗和预处理。这时需要考虑选择具有足够存储容量和处理能力的服务器。
在项目的后期,数据规模可能会更大,需要更高的存储容量和计算能力来支持数据分析和处理。
3.4.2计算需求
在项目的前期,主要的计算需求可能是数据的清洗和预处理。这时需要选择具有一定计算能力的服务器。
在项目的后期,可能需要进行更复杂的数据分析和机器学习算法的训练,需要更高性能的服务器来支持并行计算和深度学习任务。
3.4.3可扩展性*
在项目的前期,可能只需要一台或几台服务器来进行数据处理和分析。
在项目的后期,随着数据规模和计算需求的增加,可能需要构建一个集群或分布式系统来支持大规模的数据处理和分析。在后期的服务器选择中,需要考虑服务器的可扩展性和集群管理的能力。
3.4.4预算和成本效益
在项目的前期,可能预算有限,需要根据实际需求和预算选择服务器。
在项目的后期,可能根据项目的发展和收益情况,有更大的预算用于选择更高性能的服务器。
3.4.5综合来说
虽然大数据开发项目的前期和后期在服务器选择上可能有一些不同的考虑因素,但也有一些共同的要求,如数据存储能力、计算能力、可扩展性和安全性等。根据具体的项目需求和预算,综合考虑这些因素,选择合适的服务器来支持项目的不同阶段是关键
3.5采购回服务器-大数据开发人员后续安排
3.5.1硬件安装和连接
根据服务器的用户手册或指导文档,进行服务器的安装和连接。这可能包括将服务器放置在机架或机柜中,连接电源和网络等。
由IT团队或专业的硬件工程师负责执行。
3.5.2操作系统安装和配置
根据公司的要求和服务器的规格,安装适当的操作系统,如Linux、Windows等。配置操作系统的网络设置、安全设置和其他必要的系统配置。
通常由系统管理员或IT团队的成员来完成。
3.5.3软件安装和配置*
根据项目的需求,安装和配置所需的大数据软件,如Hadoop、Spark等。这包括安装相应的软件包、配置文件和环境变量等。
大数据开发人员可能需要安装和配置相关的大数据软件,但也可能会有专门的数据工程师或运维团队来负责。
3.5.4网络设置和连接
配置服务器的网络设置,确保服务器可以与其他设备和服务器进行通信。这可能涉及配置IP地址、子网掩码、网关等网络参数。
由网络工程师或系统管理员负责执行。
3.5.5存储设置和管理
根据项目的需求,配置服务器的存储设置。这包括创建和管理存储卷、文件系统、数据备份和恢复等。
可能由存储工程师、数据库管理员或系统管理员来负责。
3.5.6集群配置和管理
如果大数据项目涉及到集群配置,大数据开发人员需要配置和管理集群。这包括添加和删除节点、配置节点之间的通信和协作等。
集群配置和管理通常由专门的集群工程师或运维团队来负责。
3.5.7监控和维护
设置服务器的监控和日志记录机制,以及其他必要的维护工具。定期检查服务器的性能和运行状态,处理任何故障或问题。
监控和维护服务器通常是由运维团队或系统管理员来负责。
3.5.8数据处理和分析
根据项目需求,利用服务器进行大数据处理和分析任务。使用适当的工具和技术,编写和执行数据处理和分析的代码。
大数据开发人员负责编写和执行数据处理和分析的代码。
3.5.9安全性和权限管理
确保服务器的安全性,配置适当的权限和访问控制。限制对服务器的访问和操作,保护数据和系统的安全。
安全性和权限管理通常由安全团队或系统管理员负责。
3.5.10故障排除和问题解决
在运行过程中,可能会遇到各种故障和问题。大数据开发人员需要具备故障排除和问题解决的能力,及时处理和解决这些问题。
大数据开发人员可能需要协助故障排除和问题解决,但这通常是团队共同努力的结果。
3.6服务器部署操作系统安装和配置
3.6.1选择合适的操作系统
根据公司的要求和服务器的规格,选择适合的操作系统。常见的选择包括Linux发行版(如CentOS、Ubuntu等)或Windows Server。
3.6.2准备安装介质
从官方网站或其他靠来源获取操作系统的安装镜像或光盘。
3.6.3创建引导设备
将操作系统安装介质(镜像或光盘)写入引导设备,如USB闪存驱动器或光盘。
3.6.4进入服务器BIOS
启动服务器时,根据服务器品牌和型号的指南进入BIOS设置。在BIOS设置中,确保服务器从正确的引导设备(如USB或光盘)启动。
3.6.5启动服务器
使用创建的引导设备启动服务器,以开始安装过程。
3.6.6安装操作系统
按照安装向导的指示进行安装。这可能包括选择安装类型(如全新安装或升级),选择磁盘分区和文件系统,以及设置管理员密码等。
3.6.7安装所需的软件包
一般情况下,操作系统的安装不会包含所有的大数据软件和工具。在安装完成后,根据项目需求安装所需的软件包,如Java、Python等。
3.6.8网络配置
配置操作系统的网络设置,确保服务器能够与其他设备和服务器进行通信。这可能涉及配置IP地址、子网掩码、网关和DNS等网络参数。
3.6.9安全设置
配置操作系统的安全设置,包括防火墙、用户权限和访问控制等。确保服务器的安全性和数据的保密性。
3.6.10更新和维护
安装操作系统的最新更新和补丁,确保服务器的稳定性和安全性。定期进行系统维护和更新,以确保服务器的正常运行。
3.7服务器部署进行软件安装和配置 *
3.7.1确保电脑和服务器都连接到同一个网络
确保电脑和服务器都连接到同一个网络,可以是局域网(LAN)或广域网(WAN)。
3.7.2获取服务器的IP地址
获得服务器的IP地址,这将用于在电脑上进行连接。
3.7.3远程连接到服务器
使用远程连接工具(如SSH,远程桌面等)在电脑上建立与服务器的连接。在连接过程中,可能需要输入服务器的IP地址、用户名和密码等信息。
3.7.4验证连接
一旦成功建立连接,可以通过在电脑上执行一些简单的命令来验证连接是否正常。例如,可以使用ping命令来测试与服务器的连通性。
3.7.5安装和配置大数据软件
一旦成功连接到服务器,可以在服务器上安装和配置所需的大数据软件。这可能包括下载软件包、解压缩文件、编辑配置文件等步骤。
3.7.6在电脑上进行管理和操作
在服务器上安装和配置完大数据软件后,可以在电脑上使用相应的工具和界面来管理和操作服务器。
3.8大数据软件的安装包和部署资料的官方渠道*
3.8.1Apache官方网站
许多大数据项目都是由Apache Software Foundation管理和维护的。您可以访问Apache官方网站。
(https://www.apache.org/)
3.8.2Cloudera官方网站
Cloudera是一个提供大数据解决方案的商业供应商,他们提供了许多大数据软件的安装包和部署资料。
(https://www.cloudera.com/)
3.8.3Hortonworks官方网站
Hortonworks也是一个提供大数据解决方案的商业供应商,他们提供了许多大数据软件的安装包和部署资料。您可以访问Hortonworks官方网站.
(https://www.hortonworks.com/)
3.8.4GitHub
GitHub是一个开源代码托管平台,许多大数据项目的代码和文档都可以在GitHub上找到。您可以在GitHub上搜索特定的大数据项目,找到相应的仓库并获取相关资源。
3.9大数据开发-数据量级别划分
3.9.1字节(B)
一个字节通常表示8个比特(bit)的数据,它可以用来表示8个二进制位(0或1)的组合。例如,一个字节可以表示一个英文字母、一个数字或一个特定的字符。
3.9.2千字节(KB)
约等于1000字节,即1000个字节。常见的例子是一个1MB的照片文件,它大约包含1000个KB。
3.9.3兆字节(MB)
约等于1000千字节,即1000 * 1000个字节,或者约为1000万个字节。常见的例子是一个电子书的文件大小,通常在几MB到几十MB之间。
3.9.4千兆字节(GB)
约等于1000兆字节,即1000 * 1000 * 1000个字节,或者约为100亿个字节。常见的例子是一个高清电影的文件大小,通常在几GB到几十GB之间。
3.9.5万亿字节(TB)
约等于1000千兆字节,即1000 * 1000 * 1000 * 1000个字节,或者约为1万亿个字节。常见的例子是一个大型数据库的容量,通常在几TB到几百TB之间。
3.9.6千万亿字节(PB)
约等于1000万亿字节,即1000 * 1000 * 1000 * 1000 * 1000个字节,或者约为1千万亿个字节。常见的例子是一个全球互联网的存储容量,估计在数百PB到数千PB之间。
3.9.7千亿亿字节(EB)
约等于1000千万亿字节,即1000 * 1000 * 1000 * 1000 * 1000 * 1000个字节,或者约为1亿亿个字节。常见的例子是一个全球大型数据中心的存储容量,估计在几EB到几十EB之间。
3.9.8千万亿亿字节(ZB)
约等于1000千亿亿字节,即1000 * 1000 * 1000 * 1000 * 1000 * 1000 * 1000个字节,或者约为1千万亿亿个字节。
4.企业处理数据规模
4.1日活数据量大约2000万数据量
4.1.1生产类型产出数据统计 (偏大)
(产线)44 * (数据量)20000 *(每条产线工序量) 9
4.1.2服务器选型
- 内存(RAM):建议选择至少几十GB的内存,以便能够存储和处理大规模数据集。2000万日活数据的项目可能需要几十GB到上百GB的内存容量,具体取决于项目的数据处理工作负载和需求。
- CPU(处理器):建议选择具有多个核心和高主频的CPU,以支持并行计算和高效处理能力。对于2000万日活数据的项目,至少选择4核或更多的CPU,以确保能够处理大量数据的计算需求。
- 硬盘(存储):建议选择高速、大容量的硬盘来存储和处理数据。对于大数据项目,可以考虑使用固态硬盘(SSD)或多个磁盘组成的RAID阵列,以提供高性能和可靠的数据存储。
4.2百万级别的数据量
4.2.1实例配置示例(项目前期)
内存:32GB - 64GB RAM
CPU:4核 - 8核
存储:512GB - 1TB SSD
网络:根据实际需求配置
4.3千万级别的数据量
4.2.1实例配置示例(项目前期)
- 内存:64GB - 128GB RAM
- CPU:8核 - 16核
- 存储:1TGB - 2TB SSD
- 网络:千万级数据处理可能涉及更多的数据传输和分布式计算,因此需要一个更高速和可靠的网络连接。
5.工作汇报
5.1汇总大数据离线开发实现的功能(202312041620)
- 用户行为分析:通过对用户在电商平台上的浏览、搜索、购买等行为进行分析,可以了解用户的偏好、购买习惯和需求,从而针对性地进行产品推荐、个性化营销等,提高用户满意度和转化率。
- 商品销售分析:通过对电商平台上的商品销售数据进行分析,可以了解不同商品的销售情况、热门商品和滞销商品等,有针对性地进行库存管理、价格策略调整等,提高销售业绩和盈利能力。
- 市场趋势分析:通过对电商平台上的销售数据、用户行为数据和市场数据进行分析,可以了解市场的发展趋势、竞争格局和潜在机会,为电商平台提供决策参考,制定合理的产品策略和市场营销策略。
- 客户细分和精准营销:通过对用户数据进行分析,可以将用户划分为不同的细分群体,了解不同细分群体的特点和需求,从而进行精准的营销策略定制,提高营销效果和ROI(投资回报率)。
- 风险控制和欺诈检测:通过对用户和交易数据进行分析,可以识别出潜在的风险和欺诈行为,及时采取措施进行风险控制和欺诈检测,保护电商平台和用户的利益。
- 数据驱动的决策:通过对大数据的分析和挖掘,可以为电商平台提供数据驱动的决策支持,帮助管理者和决策者做出准确、科学的决策,提高业务运营效率和竞争优势。
5.2大数据前期部署(CentOS7虚拟机)
模块一
- 使用旧版虚拟机启动离线开发
- 使用sqoop将SQLServer表数据写入HDFS中
- 使用Hive创表并将HDFS数据导入
- 结果落地到SQLserver数据库
- DataEase可视化工具连接SQLServer数据库
- Azkaban调度工具执行sqoop命令
- 实现定时调度
模块二
- 模型机Hadoop101
- 克隆三台服务器Hadoop102,Hadoop103,Hadoop104
- zeekpear部署
- hadoop部署
- hive部署
- sqoop部署
安装部署
1.Vuejs Windown
首先安装node.js环境:
node.js安装推荐文章:
[https://www.cnblogs.com/zhouyu2017/p/6485265.html]
基于node.js安装淘宝镜像
npm install -g cnpm --registry=https://registry.npm.taobao.org
安装全局vue-cli脚手架,用于帮助搭建所需的模板框架
在cmd里
1)输入:cnpm install -g vue-cli,回车,等待安装...
2).输入:vue,回车,若出现vue信息说明表示成功
到这里整个vue就安装完成了,接下来就是创建vue工程:
打开cmd输入:
vue init webpack 文件名 回车 vue init webpack-simple 创建简单工程
加入依赖,启动工程
Vue web页面网址
Vue Web页面
2.CentOS7虚拟机部署
2.1kafka部署
2.1.1在 cd /opt/software/创建目录
mkdir kafka
2.1.2解压安装包
tar -zxvf kafka_2.11-2.4.1.tgz -C /opt/module/
2.1.3修改解压后的文件名称
mv kafka_2.11-2.4.1/ kafka
2.1.4在/opt/module/kafka 目录下创建 logs 文件夹
mkdir logs
2.1.5修改配置文件
vim config/server.properties
修改或者增加以下内容:
#broker 的全局唯一编号,不能重复
broker.id=0
#删除 topic 功能使能
delete.topic.enable=true
#kafka 运行日志存放的路径
log.dirs=/opt/module/kafka/data
#配置连接 Zookeeper 集群地址
zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181/kafka
2.1.6配置环境变量
sudo vim /etc/profile.d/my_env.sh
内容
#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin
使生效
source /etc/profile.d/my_env.sh
2.1.7分发安装包
xsync kafka/
**注意:
**分发之后记得配置其他机器的环境变量
2.1.8分别在 hadoop103 和 hadoop104 上修改配置文件
/opt/module/kafka/config/server.properties 中的 broker.id=1、broker.id=2
2.1.9启动kafka
#zookeeper启动
zk.sh start
#kafka启动
kfk.sh start
#查看进程
xcall jps
2.2DataEase可视化工具部署
2.2.1一键部署
curl -sSL https://dataease.oss-cn-hangzhou.aliyuncs.com/quick_start.sh | bash
执行完上述命令,应该半天不能启动mysql,原因是本地有mysql启动,需要修改端口,如下:
cd /opt/dataease/
进入dataease目录
[root@hadoop102 dataease]# vim ./docker-compose-mysql.yml
在修改如下配置:
[root@hadoop102 dataease]# vim ./.env
再次执行
curl -sSL https://dataease.oss-cn-hangzhou.aliyuncs.com/quick_start.sh | bash
......
2.2.2登陆DataEase
2.2.3后台启动
#启动
[root@hadoop102 dataease]# service dataease start
#关闭
[root@hadoop102 dataease]# service dataease stop
#状态
[root@hadoop102 dataease]# service dataease status
#重启
[root@hadoop102 dataease]# service dataease restart
2.3Flume部署
2.3.1资源
下载
wget http://mirrors.hust.edu.cn/apache/flume/1.6.0/apache-flume-1.6.0-bin.tar.gz
解压
tar -zxvf apache-flume-1.6.0-bin.tar.gz
移动到指定目录
mv apache-flume-1.6.0 /opt/moudule/flume
2.3.2配置
source 使用 necat 类型,sink 采用 file_roll 类型, 从监听端口获取数据,保存到本地文件。 拷贝配置模板:
cp conf/flume-conf.properties.template conf/flume-conf.properties
编辑配置如下:
# The configuration file needs to define the sources,
# the channels and the sinks.
# Sources, channels and sinks are defined per agent,
# in this case called 'agent'
agent.sources = r1
agent.channels = c1
agent.sinks = s1
# For each one of the sources, the type is defined
agent.sources.r1.type = netcat
agent.sources.r1.bind = localhost
agent.sources.r1.port = 8888
# The channel can be defined as follows.
agent.sources.r1.channels = c1
# Each sink's type must be defined
agent.sinks.s1.type = file_roll
agent.sinks.s1.sink.directory = /flume/log
#Specify the channel the sink should use
agent.sinks.s1.channel = c1
# Each channel's type is defined.
agent.channels.c1.type = memory
# Other config values specific to each type of channel(sink or source)
# can be defined as well
# In this case, it specifies the capacity of the memory channel
agent.channels.c1.capacity = 100
2.3.3建立输出目录
mkdir -p /flume/log
2.3.4启动服务
bin/flume-ng agent --conf conf -f conf/flume-conf.properties -n agent& Dflume.root.logger=INFO,console
运行日志位于logs目录,或者启动时添加-Dflume.root.logger=INFO,console 选项前台启动,输出打印日志,查看具体运行日志,服务异常时查原因。
2.3.5发送数据
nc localhost 8888
输入
hello world!
hello Flume!
2.3.6.查看数据文件
查看log目录
2.4SQL Server数据库
2.4.1确保网络是通的
[root@hadoop102 opt]# ping www.baidu.com
2.4.2下载 Microsoft SQL Server Red Hat 存储库配置文件
curl -o /etc/yum.repos.d/mssql-server.repo https://packages.microsoft.com/config/rhel/7/mssql-server-2017.repo
2.4.3yum安装(yum已搭好)
yum clean all
yum makecache
yum -y install mssql-server
2.4.4执行命令安装数据库
/opt/mssql/bin/mssql-conf setup
(此处需要选择版本,语言,以及账户sa的密码,密码应符合要求)
2.4.5 查看是否启动成功
systemctl status mssql-server.service
2.4.6使用命令
#启动
systemctl start mssql-server.service
#关闭
systemctl stop mssql-server.service
#重启
systemctl restart mssql-server.service
2.5sqoop导入导出
vim /etc/profile.d/my_env.sh环境变量
查看Sqoop连接到SQL Server数据库并查询数据
./bin/sqoop eval \
--connect "jdbc:sqlserver://172.15.1.26:1433;database=MES_DataDB" \
--username sa \
--password Rdfmes2022 \
--query "SELECT * FROM P_TestItemData_T_20231010"
3.辅助工具
3.1sqlcmd命令行工具部署
3.1.1步骤
curl https://packages.microsoft.com/config/rhel/7/prod.repo > /etc/yum.repos.d/msprod.repo
exit
sudo yum update
sudo ACCEPT_EULA=Y yum install -y mssql-tools unixODBC-devel
echo 'export PATH="$PATH:/opt/mssql-tools/bin"' >> ~/.bash_profile
source ~/.bash_profile
3.1.2使用
安装完成后,你可以使用以下命令来连接并进入SQL Server数据库:
sqlcmd -S hadoop102 -U SA -P 'Rdf123456.'
3.2CentOS7自带调度工具Cron
打开终端并以root用户身份登录到服务器
3.2.1使用以下命令编辑Cron表
crontab -e
-
在Cron表达式中,可以使用以下通配符代表不同的值:
*
:代表所有可能的值。例如,*
在分钟字段中表示每分钟都执行。*/n
:代表每隔n个单位执行一次。例如,*/5
在分钟字段中表示每隔5分钟执行一次。n
:代表具体的值。例如,5
在分钟字段中表示第5分钟执行。
因此,如果您只想在每小时的第5分钟执行备份任务,可以使用以下Cron表达式:
5 * * * * /usr/bin/rsync -avz /path/to/source /path/to/backup
3.2.2这个Cron表达式的含义是:
- 第一个字段表示分钟数,这里为
5
,表示在每小时的第5分钟执行任务。 - 第二个字段表示小时数,这里为
*
,表示每小时都执行任务。 - 第三个字段表示日期,这里为
*
,表示每天都执行任务。 - 第四个字段表示月份,这里为
*
,表示每个月都执行任务。 - 第五个字段表示星期几,这里为
*
,表示每周都执行任务。
这样,备份任务将在每小时的第5分钟执行一次。
3.3Cron可视化web监控工具Webmin
3.3.1添加Webmin软件源
打开终端,以root用户身份执行以下命令:
echo "[Webmin]
name=Webmin Distribution Neutral
baseurl=http://download.webmin.com/download/yum
enabled=1" | tee /etc/yum.repos.d/webmin.repo
3.3.2导入Webmin GPG密钥
执行以下命令导入Webmin GPG密钥:
rpm --import http://www.webmin.com/jcameron-key.asc
3.3.3安装Webmin
执行以下命令安装Webmin
yum install webmin -y
3.3.4配置防火墙
如果您的CentOS 7服务器上启用了防火墙,您需要打开Webmin的端口(默认为10000)。
执行以下命令添加防火墙规则:
firewall-cmd --zone=public --add-port=10000/tcp --permanent
firewall-cmd --reload
3.3.5启动Webmin服务
systemctl start webmin
3.3.6配置Webmin访问
打开Web浏览器,输入服务器的IP地址和端口号
https://192.168.10.102:10000
输入root用户的用户名和密码进行登录
3.3.7查看任务
[root@hadoop102 ~]# cd /var/spool/cron/root