- 博客(19)
- 资源 (11)
- 收藏
- 关注
原创 Heat验证服务报503错误
运行openstack orchestration service list报错ERROR: 503 Service Unavaibe查看heat-api日志:tail -n 100 /var/log/heat/heat-api.log解决方案:经过仔细查看配置文件后,发现缺少keystone_authtoken模块,这9个配置信息要写到keystone_authtoken模块下面。vi /etc/heat/heat.conf修改完成后重启服务:systemctl rest
2021-06-24 18:21:02 427
原创 swift stat启动失败503错误 Account HEAD failed: http://controller:8080/v1/AUTH 503 Service Unavailable
swift stat启动失败503错误swift statClientExtion: Account HEAD failed: http://controller1931607097:8080/v1/AUTH 547ba336f9274773af7367ec63de7d0d 503 Service Unavailable查看各节点所有swift服务状态,会看到部分服务出现以下情况。解决方案:方案一:查看防火墙是否开启,如防火墙已开启就关闭防火墙,如果不关闭防火墙就把所有swift端口添加到
2021-06-24 14:27:51 5899 2
原创 DevOps jenkins自动获取账号下所有仓库,提交代码自动拉取最新版本
一、DevOps jenkins自动获取账号下所有仓库,提交代码自动拉取最新提交代码的仓库gitee创建私人令牌jenkins在系统管理-凭证管理 里面创建远程仓库私人api凭证新建任务-选择自由风格构件项目在对应的远程仓库选择连接凭证选择参数化构建过程,输入构建时需要的参数,根据自己需求填写。-源码管理选择无,然后选择对应远程仓库的webhookjenkins生成webhook密钥在远程仓库新建webhook,密钥填写jenkins生成的密钥编写构建脚本,
2021-05-27 23:50:00 509
原创 python 文件操作,txt文件读写,可拿去直接使用
python 文件操作,可直接使用python 文件操作,txt文件读写,可拿去直接使用files.py#写入数据,以‘\t’,‘\n’或‘,’分隔def writeTxt(file, data, end): file = open(file, mode='a') file.write(data + end) # 将数据第写入txt文件中并换行 file.close()#记取数据,以‘\t’,‘\n’或‘,’分隔,返回列表def redTxt(file, end):
2021-05-27 22:10:13 235
原创 python3 excle读写数据,拿去可直接用
python3 Excle读写数据,拿去可直接用excle.py文件# coding=UTF-8import xlrd3 as xlrdimport openpyxl'''调用方法 Excle(xx.xls, Sheet1)ex = Excle(test.xls, test)data = ex.getRowData(1, 2) #2行开始,第3列为空的一行数据while True: try: userData = next(data) # 一行数据
2021-05-27 21:57:18 98
原创 使用shell脚本自动安装配置大数据平台,master和slave双节点
此脚本仅供参考,请谨慎使用!!!当时是为了解决平台在部署中出现的问题而写的脚本。当遇到没有任何解决办法的资料时,一时间也找不到问题的根源,我就使用排除法。然后找到并解决问题。#############本脚本在master节点执行。##################################执行脚本前,两个节点必须是纯净的系统。先将大数据镜像放到master节点/opt目录下,然后配置好两台主机的hosts文件和hostname以及免密登陆。################master=192
2020-09-14 14:09:07 331
原创 使用shell脚本安装配置DNS、DHCP、SAMBA、PHP、MYSQL、FTP、TELNET、Apache
这是我2018年学习Linux的时候编写的脚本,跟现在的软件版本有所差异。(当时使用的系统为CentOS 6.5,只写了部分配置)此代码仅供参考,请谨慎使用!#DNS#!/bin/bash#ip add | awk -F '[ /]+' 'NR==8 {print $3}'#echo $IPIP="192.168.2.129"RIP="2.168.192"DN="hihihi.com"Name="192.168.2"######################备份###########
2020-09-12 18:22:32 531
原创 Python实现简单自动升级exe程序版本并自动运行,适合Python自动化运维。
Python实现简单自动升级exe程序版本并自动运行,适合Python自动化运维。一、此教程是使用bat脚本+NFS实现自动更新。(也可以使用FTP或者使用html实现自动更新)1、编写version.ini文件2、编写update.py3、修改主程序一、此教程是使用bat脚本+NFS实现自动更新。(也可以使用FTP或者使用html实现自动更新)检查NFS服务器上的version.ini配置文件和当前运行的程序版本是否一至,如果检测出来有新的版本,程序就自动编写upgrade.bat脚本将旧版本的程序删
2020-07-19 00:23:12 10374 4
原创 处理进入hive报用户和权限的问题Permission denied: user=root,inode=“/tmp/hive”:hadoop:supergroup:drwxr-xr-x
问题一:[root@Hadoop~]# hiveSLF4J: Class path contains multiple SLF4J bindings.SLF4J: Found binding in [jar:file:/root/hive/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]SLF4J: Found binding in [jar:file:/usr/hadoop/share/hadoop.
2020-06-20 19:22:14 6390
原创 大数据运维题库2018年
501.配置master Node的主机名为:master;slaver1 Node的主机名为:slaver1。将查询2个节点的主机名信息以文本形式提交到答题框。[root@master ~]# hostnamemaster[root@slave ~]# hostnameslave502.修改2个节点的hosts文件,配置IP地址与主机名之间的映射关系。将查询hosts文件的信息以文本形...
2019-06-26 21:58:26 4546
原创 大数据运维Spark
Spark 题:在先电大数据平台部署 Spark 服务组件,打开 Linux Shell 启动 spark-shell终端,将启动的程序进程信息以文本形式提交到答题框中。[root@master ~]# spark-shellSetting default log level to “WARN”.To adjust logging level use sc.setLogLevel(ne...
2019-06-26 21:23:04 1806 6
原创 大数据运维Flume
Flume 题:1.在 master 节点安装启动 Flume 组件,打开 Linux Shell 运行 flume-ng 的帮助命令,查看 Flume-ng 的用法信息。[root@master ~]# flume-ng helpUsage: /usr/hdp/2.6.1.0-129/flume/bin/flume-ng.distro [options]…commands:help...
2019-06-26 21:17:10 785
原创 大数据运维Mahout
Mahout 题:在 master 节点安装 Mahout Client,打开 Linux Shell 运行 mahout 命令查看Mahout 自带的案例程序。[root@master ~]# mahoutMAHOUT_LOCAL is not set; adding HADOOP_CONF_DIR to classpath.Running on hadoop, using /us...
2019-06-26 21:12:33 873
原创 大数据运维Pig
Pig 题:在 master 节点安装 Pig Clients,打开 Linux Shell 以 MapReduce 模式启动它的 Grunt。[root@master ~]# pig -x mapreduce19/05/13 12:22:05 INFO pig.ExecTypeProvider: Trying ExecType : LOCAL19/05/13 12:22:05 IN...
2019-06-26 21:06:54 1018
原创 大数据运维Sqoop
Sqoop 题:在 master 和 slaver 节点安装 Sqoop Clients,完成后,在 master 节点查看Sqoop 的版本信息。[root@master ~]# sqoop-versionWarning: /usr/hdp/2.6.1.0-129/accumulo does not exist! Accumulo imports will fail.Please ...
2019-06-26 21:00:46 738
原创 大数据运维Hive
Hive 题:启动先电大数据平台的 Hive 数据仓库,启动 Hvie 客户端,通过 Hive 查看 hadoop 所有文件路径(相关数据库命令语言请全部使用小写格式)。[root@master ~]# hivelog4j:WARN No such property [maxFileSize] in org.apache.log4j.DailyRollingFileAppender....
2019-06-26 20:55:57 1437
原创 大数据运维HBase
HBase 题:启动先电大数据平台的 Hbase 数据库,其中要求使用 master 节点的RegionServer。在 Linux Shell 中启动 Hbase shell,查看 HBase 的版本信息。(相关数据库命令语言请全部使用小写格式)[root@master ~]# hbase shellHBase Shell; enter ‘help’ for list of supp...
2019-06-26 20:44:45 1454 2
原创 大数据运维MapReduce
MapReduce 题:在集群节点中/usr/hdp/2.4.3.0-227/hadoop-mapreduce/目录下,存在一个案例JAR 包 hadoop-mapreduce-examples.jar。运行 JAR 包中的 PI 程序来进行计算圆周率π的近似值,要求运行 5 次 Map 任务,每个 Map 任务的投掷次数为 5。root@master ~]# su hdfs[hdfs...
2019-06-26 20:33:09 724
原创 大数据运维HDFS
HDFS 题:在 HDFS 文件系统的根目录下创建递归目录“1daoyun/file”,将附件中的BigDataSkills.txt 文件,上传到 1daoyun/file 目录中,使用相关命令查看文件系统中 1daoyun/file 目录的文件列表信息。[root@master ~]# su hdfs[hdfs@master ~]$ hadoop fs -mkdir -p /1dao...
2019-06-26 20:19:49 1004
java实训报告+源码.zip
2020-06-16
毕业设计-IaaS与大数据平台方案设计与实施.docx
2020-06-16
VMware vSphere 5.x ProductKey.exe
2019-07-24
ip_to_country.txt
2019-02-22
大数据分析
2019-02-19
数独游戏数据文件,可随意编辑
2019-02-19
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人