- 博客(27)
- 收藏
- 关注
原创 Zabbix -设置钉钉报警脚本
一、创建一个群聊,把需要得到监控信息的人加到一起。并在该群中创建自定义钉钉机器人,并复制保存 webhook 。二、zabbix-server配置1、编辑 zabbix_server.conf 配置文件,设置 AlertScriptsPath 默认脚本路径[root@zabbix /]# vi /etc/zabbix/zabbix_server.confAlertScriptsPath=/usr/lib/zabbix/alertscripts #zabbix报警脚本路径2、编辑钉钉报
2020-12-03 15:30:41 1309
原创 03.安装 Granfa
Granfa 安装wget 获取 二进制安装包,如果下载速度慢,可用下载工具下载后上传[root@Prom opt]# wget https://dl.grafana.com/oss/release/grafana-7.0.3.linux-amd64.tar.gz解压[root@Prom opt]# tar -zxvf grafana-7.0.3.linux-amd64.tar.gz启动[root@Prom grafana-7.0.3]# cd bin[root@Prom bin]#
2020-06-12 11:22:22 2076
原创 02.安装 node_exporter 插件
安装 node_exporter 插件Prometheus 如果要监控 Linux 系统运行状态,需要安装 node_exporter 插件获取安装包创建 node_exporter 目录[root@Prom ~]# mkdir -p /opt/node_exporter获取安装包地址:右键获取链接,wget 方式获取[root@Prom opt]# wget https://github.com/prometheus/node_exporter/releases/download/v1
2020-06-12 10:34:47 3168
原创 01.CentOS7 安装 Prometheus,并配置后台启动
CentOS7 安装 Prometheus,并配置后台启动官网获取下载链接地址:https://prometheus.io/download/1、创建安装目录[root@Prom ~]# mkdir -p /opt/prometheus切换目录[root@Prom ~]# cd /opt/2、获取安装包[root@Prom prometheus]# wget https://github.com/prometheus/prometheus/releases/download/v2.19
2020-06-12 10:15:50 2473 1
转载 LVS-DR+keepalived 高可用群集
构建 LVS-DR+Keepalived 高可用群集-------client-------主LVS---------从LVS-----------WEB1-------------WEB2------------- 1.1.1.254 1.1.1.10 1.1.1.20 1.1.1.100 1.1.1.200 lo:0:1.1.1.1 lo:
2020-06-08 09:50:03 274
转载 当初我要是这么学习 Nginx 就好了
本文主要帮助大家熟悉 Nginx 有哪些应用场景、Nginx 特点和架构模型以及相关流程、Nginx 定制化开发的几种模块分类。读完本文你将对 Nginx 有一定的认识。本文将围绕如下几个部分进行讲解:Nginx 简介及特点Nginx 应用场景Nginx 框架模型介绍Nginx 内部流程介绍Nginx 自定义模块开发介绍Nginx 核心时间点模块介绍Nginx 分流模块介绍Nginx 动态 upstream 模块介绍Nginx query_upstre
2020-06-08 09:44:20 462
转载 CentOS7.x DNS设置
#显示当前网络连接nmcli connection showNAME UUID TYPE DEVICEeno1 5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03 802-3-ethernet eno1 #修改当前网络连接对应的DNS服务器,这里的网络连接可以用名称或者UUID来标识nmcli con mod eno1 ipv4.dns "114.114.114.114 8.8.8.8"#将
2020-06-02 14:37:34 206
原创 CentOS 7 IP地址配置
修改 ip 地址vi /etc/sysconfig/network-scripts/ifcfg-ens192 TYPE=Ethernet BOOTPROTO=static **静态 ip** DEFROUTE=yes IPV4_FAILURE_FATAL=no IPV6INIT=yes IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_FAILURE_FATAL=no NAME=en
2020-05-27 15:02:00 213
转载 ceph 运维操作 - POOL
ceph 运维操作 - POOL1. 说明1.1 介绍pool 是 ceph 存储数据时的逻辑分区,它起到 namespace 的作用。其他分布式存储系统,比如 Mogilefs、Couchbase、Swift 都有 pool 的概念,只是叫法不同。每个 pool 包含一定数量的 PG,PG 里的对象被映射到不同的 OSD 上,因此 pool 是分布到整个集群的。2. 常用操作2.1 查看 pool 数量$ ceph osd lspools1 rbd,2 test_data,3 test_m
2020-05-26 15:38:18 1043
转载 如何在Proxmox VE中设置NFS服务器和配置NFS存储
NFS(网络文件系统)是Sun Microsystem开发的分布式文件系统协议。 NFS允许服务器通过网络共享服务器上文件夹的文件和目录。 当NFS共享安装在客户端系统上时,NFS允许用户访问远程系统上的文件和目录,就像它们在本地存储一样。在本教程中,将在CentOS 7上安装NFS服务器,如何在CentOS 7上创建一个新目录,然后通过NFS协议进行共享。 然后,我们将在Proxmox服务器上添加我们创建的NFS共享,作为虚拟机的备份空间。先决条件我们需要两台服务器。Proxmox服务器IP:1
2020-05-25 23:08:28 2784
转载 linux 磁盘管理系列三:LVM 的使用
甲方使用虚拟化平台,给的服务器都是虚拟化克隆的机器,操作系统安装时默认的分区,现状是根分区只有 50G,部署的时候使用软连接创建的部署目录,但是后续升级的同事没有注意,就把部署直接放在根分区,导致近期数据同步时 log 文件大,使用的 log 日志删除脚本任务计划未到执行执行时间服务日志文件就把磁盘占满了,处理如下。一、系统环境:操作系统:Centos_x64 6.5内核版本:2.6.32-431.el6.X86_64磁盘格式:EXT4二、现有分区情况与说明df -h #查看当前分区Fi
2020-05-22 16:44:25 568
原创 Proxmox VE 6.2 国内源设置
PROXMOX VE 6.x 国内源设置更换Debian源删除企业源rm -rf /etc/apt/sources.list.d/pve-enterprise.list下载秘钥wget http://download.proxmox.com/debian/proxmox-ve-release-6.x.gpg -O /etc/apt/trusted.gpg.d/proxmox-ve-release-6.x.gpg添加社区源echo "deb http://download.proxmox.wik
2020-05-22 15:39:41 8660 1
转载 Python中的json操作
Python中的json操作1.什么是Json?JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式,它是JavaScript的子集,易于人阅读和编写。前端和后端进行数据交互,其实就是JS和Python进行数据交互JSON注意事项:(1)名称必须用双引号(即:””)来包括(2)值可以是双引号包括的字符串、数字、true、false、null、JavaScript数组,或子对象。2.python数据类型与json数据类型的映射关系Python
2020-05-21 14:38:39 151
转载 [ceph 的通用解决方案] - 5.Ceph 双副本如何保证宕机数据的安全性
[ceph 的通用解决方案] - 5.Ceph 双副本如何保证宕机数据的安全性下面将从以下 6 个方面介绍 ceph 的通用解决方案性能方面:1、如何 ssd 作为 Ceph-osd 的日志盘使用2、如何同一个 Ceph 集群分别创建 ssd 和 hdd 池3、如何将 ssd 作为 hdd 的缓存池4、如何指定 ssd 盘为主 osd,hdd 为从 osd稳定及数据安全性方面:5、Ceph 双副本如何保证宕机数据的安全性6、Ceph 纠删码理论与实践注意:该文章同时在华云数据官方
2020-05-21 14:16:12 1308
转载 [ceph 的通用解决方案] - 4.如何指定 ssd 盘为主 osd,hdd 为从 osd
[ceph 的通用解决方案] - 4.如何指定 ssd 盘为主 osd,hdd 为从 osd将从以下 6 个方面介绍 ceph 的通用解决方案性能方面:1、如何 ssd 作为 Ceph-osd 的日志盘使用2、如何同一个 Ceph 集群分别创建 ssd 和 hdd 池3、如何将 ssd 作为 hdd 的缓存池4、如何指定 ssd 盘为主 osd,hdd 为从 osd稳定及数据安全性方面:5、Ceph 双副本如何保证宕机数据的安全性6、Ceph 纠删码理论与实践注意:该文章同时在华
2020-05-21 14:15:36 917
转载 [ceph 的通用解决方案] - 3.如何将 ssd 作为 hdd 的缓存池
[ceph 的通用解决方案] - 3.如何将 ssd 作为 hdd 的缓存池下面将从以下 6 个方面介绍 ceph 的通用解决方案性能方面:1、如何 ssd 作为 Ceph-osd 的日志盘使用2、如何同一个 Ceph 集群分别创建 ssd 和 hdd 池3、如何将 ssd 作为 hdd 的缓存池4、如何指定 ssd 盘为主 osd,hdd 为从 osd稳定及数据安全性方面:5、Ceph 双副本如何保证宕机数据的安全性6、Ceph 纠删码理论与实践注意:该文章同时在华云数据官方公
2020-05-21 14:14:06 2454
转载 [ceph 的通用解决方案] - 2.如何同一个 ceph 集群分别创建 ssd 和 hdd 池
下面将从以下 6 个方面介绍 ceph 的通用解决方案性能方面:1、如何 ssd 作为 Ceph-osd 的日志盘使用2、如何同一个 Ceph 集群分别创建 ssd 和 hdd 池3、如何将 ssd 作为 hdd 的缓存池4、如何指定 ssd 盘为主 osd,hdd 为从 osd稳定及数据安全性方面:5、Ceph 双副本如何保证宕机数据的安全性6、Ceph 纠删码理论与实践注意:该文章同时在华云数据官方公众号上发布过智汇华云 | Ceph 的正确玩法之同一个 Ceph 集群分别创
2020-05-21 14:12:29 982
转载 [ceph 的通用解决方案] - 1.如何 ssd 作为 ceph-osd 的日志盘使用
[ceph 的通用解决方案] - 1.如何 ssd 作为 ceph-osd 的日志盘使用开篇:目前企业的业务场景多种多样,并非所有 Ceph 存储解决方案都是相同的,了解工作负载和容量要求对于设 Ceph 解决方案至关重要。Ceph 可帮助企业通过统一的分布式集群提供对象存储、块存储或文件系统存储。在设计流程中,这些集群解决方案针对每项要求都进行了优化。该设计流程的首要因素包括 IOPS 或带宽要求、存储容量需求以及架构和组件选择,确保这些因素的合理性有助于完美平衡性能和成本。不同类型的工作负载需要不同
2020-05-21 14:11:12 2053 1
转载 Ceph 进阶系列(三):谈谈 Ceph Cache Tier (Cache Pool) 的配置 、原理 和 源码分析
从 GitHub 上 Clone Ceph 项目,我是基于 (ceph version 12.2.11 luminous 版本) 的代码来分析的一、Cache Tier(Cache Pool)是什么?在 Ceph 里创建 pool 时,可以设置一个 pool 为另一个 pool 的 cache 层,做缓存层的 pool 称为 cache pool (也就是 cache tier)。而真正存数据的 pool 就是我们常用的 data pool(代码里叫 base pool)。使用如下命令来创建 Cache
2020-05-21 14:09:42 867
转载 Ceph 进阶系列(二):如何让某个 pool 使用特定的 OSD 设备 (2 of 2,luminous 新特性)
从 GitHub 上 Clone Ceph 项目,我是基于 (ceph version 12.2.11 luminous 版本) 的代码来分析的一、前言:上一篇Ceph 进阶系列(二):如何让某个 pool 使用特定的 OSD 设备 (1 of 2,手动版)讲了复杂的手动版,如何让某个 pool 使用特定的 OSD 设备。而 luminous 版本的新特性因为有磁盘智能分组功能,用户只需要用命令创建一个新的 rule 就可以了,而不必手动编辑 crush map 文件。二、如何让某个 pool 使用特
2020-05-21 14:08:08 619
转载 Ceph 进阶系列(二):如何让某个 pool 使用特定的 OSD 设备 (1 of 2,手动版,早于 luminous 版本)
从 GitHub 上 Clone Ceph 项目,我是基于 (ceph version 12.2.11 luminous 版本) 的代码来分析的一、前言:有很多场景,你需要在指定的 OSD 设备上创建 Ceph Pool。因为 Ceph 集群中允许使用混合类型的磁盘,比如一部分磁盘是 NVME SSD,一部分是 SATA HDD。如果针对某些业务需要高速磁盘 SSD,而某些业务 HDD 就可以满足部署,在创建资源池 Pool 的时候可以指定它创建在某些 OSD 设备上。例如,Ceph 进阶系列(三):谈
2020-05-21 14:06:33 745
转载 Ceph 进阶系列(一):Ceph 三种(块 _ 文件 _ 对象)存储接口
1. Ceph 架构简介及使用场景介绍1.1 Ceph 简介Ceph 是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。Ceph 项目最早起源于 Sage 就读博士期间的工作(最早的成果于 2004 年发表),并随后贡献给开源社区。在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。RedHat 及 OpenStack 都可与 Ceph 整合以支持虚拟机镜像的后端存储。1.2 Ceph 特点高性能a. 摒弃了传统的集中式存储元数据寻址的方案,采用 CRU
2020-05-21 14:05:34 2779
转载 Ceph 入门系列(三):Ceph 的工作原理及流程
Ceph 学习之路(二)之 Ceph 的工作原理及流程一、RADOS 的对象寻址Ceph 存储集群从 Ceph 客户端接收数据 —— 不管是来自 Ceph 块设备、 Ceph 对象存储、 Ceph 文件系统、还是基于 librados 的自定义实现 —— 并存储为对象。每个对象是文件系统中的一个文件,它们存储在 对象存储设备上。由 Ceph OSD 守护进程处理存储设备上的读 / 写操作。在传统架构里,客户端与一个中心化的组件通信(如网关、中间件、 API 、前端等等),它作为一个复
2020-05-21 14:04:16 1193
转载 Ceph 入门系列(二):Ceph 三种(块 _ 文件 _ 对象)存储接口的由来和特点
“Ceph 是一个开源的、统一的、分布式的存储系统”,这是我们宣传 Ceph 时常说的一句话,其中 “统一” 是说 Ceph 可以一套存储系统同时提供块设备存储、文件系统存储和对象存储三种存储功能。一听这句话,具有一定存储基础的用户应该已经大致了解了 Ceph 的存储接口,而没有存储基础的小白用户则 一脸懵逼。本文旨在让小白用户理解 Ceph 的块存储、文件系统存储和对象存储接口。一. Ceph 的块设备存储接口首先,什么是块设备?块设备是 i/o 设备中的一类,是将信息存储在固定大小的块中,每个块
2020-05-21 14:02:05 816
转载 Ceph 入门系列(一):Ceph 技能图谱
注:图片 cephskill 出自 Ceph 社区转自:https://blog.csdn.net/don_chiang709/article/details/92815273
2020-05-21 14:00:50 356
转载 自动化运维之saltstack
自动化运维之saltstacksaltstack简介:SaltStack是一个服务器基础架构集中化管理平台,具备配置管理、远程执行、监控等功能,基于Python语言实现,结合轻量级消息队列(ZeroMQ)与Python第三方模块(Pyzmq、PyCrypto、Pyjinjia2、python-msgpack和PyYAML等)构建。通过部署SaltStack,我们可以在成千万台服务器上做到批量执行命令,根据不同业务进行配置集中化管理、分发文件、采集服务器数据、操作系统基础及软件包管理等,SaltStac
2020-05-21 12:31:33 264
原创 收藏夹 - 自动化运维
自动化运维:一键自动化脚本-shellhttps://www.cnblogs.com/luoahong/articles/8456203.html
2020-05-21 12:10:10 104
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人