prometheus安装部署(七)(process_exporter安装) process-exporter用来安装到被监控的主机上,服务器端通过调用默认端口9256来获取服务器信息。访问process-exporter。2、修改配置文件/usr/local/prometheus/prometheus-2.54.0/prometheus.yml。http://ip:9256/metrics,默认端口为9256。1、在consul添加节点。
prometheus安装部署(五)(consul+ConsulManager后羿可视化平台) 添加后,可以看到consul平台、Prometheus平台都已经自动更新了节点。这里我选择一键安装(如果自己先安装consul需要自己配置token)后羿:http://10.23.190.128:1026。查看consul的登录token。找到解压位置,执行下列命令。测试在后羿平台添加节点。
prometheus安装部署(四)(基于consul的服务自动发现) 本文档分为两部分:1、consul服务的安装,与Prometheus集成后能够实现命令行注册服务;2、consul-manager安装,可以用可视化界面进行服务注册和管理,简化操作。
prometheus安装部署(三)(alertmanager告警并发送到企业微信机器人) 使用 Prometheus 发出警报分为两部分。Prometheus 服务器的告警规则会将告警发送给Alertmanager。然后,Alertmanager 管理这些警报,包括静音、抑制、聚合和 通过电子邮件、随叫随到的通知系统和聊天平台等方法发送通知。
prometheus安装部署(二)(Grafana可视化) Grafana是一个通用的可视化工具。对于Grafana而言,Prometheus这类为其提供 数据的对象均称为数据源(Data Source)。目前,Grafana官方提供了对:Graphite, InfluxDB, OpenTSDB, tdengine,Prometheus, Elasticsearch, CloudWatch的支持。对于Grafana管理员而言,只需要将这些对象以数据源的形式添加到Grafana中,Grafana便可以轻松的实现对这些数据的可视化工作。
prometheus安装部署(一)(prometheus服务端和node_exporter监控节点) Prometheus 是一款基于时序数据库的开源监控告警系统,非常适合Kubernetes集群的监控。Prometheus的基本原理是通过HTTP协议周期性抓取被监控组件的状态,任意组件只要提供对应的HTTP接口就可以接入监控。不需要任何SDK或者其他的集成过程。这样做非常适合做虚拟化环境监控系统,比如VM、Docker、Kubernetes等。输出被监控组件信息的HTTP接口被叫做exporter 。目前互联网公司常用的组件大部分都有exporter可以直接使用,比如Varnish、Haproxy、Ngi
课程笔记:4-大数据:yarn部署 1.2、mapred-site.xml文件,添加如下配置信息。2,1、yarn-env.sh文件,添加如下4行环境变量内容。1.1、mapred-env.sh文件,添加如下环境变量。2.2、yarn-site.xml文件,配置如图属性。3、复制配置文件到node2、node3。1、配置MapReduce。4、启动、停止yarn。
课程笔记:3-大数据-hadoop-hdfs常用命令 hadoop命令(老版本用法),用法:hadoop fs [generic options]hdfs命令(新版本用法),用法:hdfs dfs [generic options]回收站默认位置在:/user/用户名(hadoop)/.Trash。无需重启集群,在哪个机器配置的,在哪个机器执行命令就生效。3、文件操作基础命令。4、命令官方指导文档。
课程笔记:1-大数据前置虚拟机主机配置 2、虚拟机镜像下载地址:https://vault.centos.org/7.6.1810/isos/x86_64/CentOS-7-x86_64-DVD-1810.iso。ssh-keygen -t rsa -b 4096,一路回车到底即可。passwd hadoop,设置hadoop用户密码为123456。7、配置jdk:/export/server/jdk。1、首先安装VMware,此处不再说明安装过程。6、配置hadoop用户及免密登录。修改selinux、进行三个主机时间同步。
课程笔记:2-大数据-hadoop安装配置 目前,已经基本完成Hadoop的配置操作,可以从node1将hadoop安装文件夹远程复制到node2、node3。以root身份,在node1、node2、node3三台服务器上均执行如下命令。以root身份,在node1、node2、node3三台服务器上均执行如下命令。datanode数据存放node1、node2、node3的/data/dn。4.7、在node1、node2和node3配置同样的环境变量。namenode数据存放node1的/data/nn。2、上传hadoop到服务器。
linux系统下,MySQL(8.0.37版本)下载安装 /系统默认会查找/usr/bin下的命令,如果命令不在这个目录下,会报错bash: mysql: 未找到命令,我们需要做的就是映射一个链接到/usr/bin目录下,相当于建立一个链接文件。mysql官网:https://www.mysql.com/downloads/初始化完成后,会生成一个默认密码,找到默认密码并记住,后面会用到。创建用户组和用户,启动mysql时要指定用户,提前创建好并赋权。#创建其他用户(也可以不创建,我的是单独创建一个给程序用)//进入到MySQL,依次执行。
linux系统安装kafka(新版本3.7.0) 如果你需要在生产环境中使用Kafka,你可能需要考虑配置Kafka集群或者使用更高级的管理和监控工具。openjdk11下载:https://mirrors.tuna.tsinghua.edu.cn/Adoptium/11/jdk/x64/linux/注意事项:kafka会用到jdk,kafka_2.13-3.7.0版本的kafka不再支持jdk8,我这里用的jdk11。首先要启动ZooKeeper服务,因为Kafka使用ZooKeeper,新版本中kafka集成了zookeeper。
windows下安装jdk8 1、下载地址:https://www.oracle.com/java/technologies/downloads/#java8。链接:https://pan.baidu.com/s/1yRdaO9D1dRC88ytDsfXZvw?这个过程会安装jdk和jre,建议安装同一个文件夹。新建系统变量(不是用户变量)“JAVA_HOME”没有oracle账号,可以从我的网盘下载。新建系统变量"CLASSPATH"新建系统变量"Path"右键:此电脑,选择属性。