- 博客(12)
- 资源 (11)
- 收藏
- 关注
原创 Prometheus(2):SpringBoot 2.X集成Prometheus
1、springboot接入Prometheus <dependencies> <!--micometer获取jvm相关信息,用于展示在Grafana上--> <dependency> <groupId>io.github.mweirauch</groupId> <artifactId>micrometer-jvm-extras</artifactId> <version>0.
2021-07-22 12:54:49 1079 1
原创 freemarker获取session的值
<#if Session["key"]?exists> ${Session["key"]}</#if>
2021-07-21 01:24:48 626
原创 Prometheus(1):Grafana集成Prometheus实战
1、新建一个data source2、填写名称和URL其中URL为Prometheus的地址3、创建完后保存可以在data source中看到创建新建的data source4、新建一个Dashboard5、指定data source为我们刚刚新建的data source6、配置信息进入http://192.168.32.145:9090/metrics,查找要监控的属性,我选择的是prometheus_http_request_durat
2021-07-21 00:18:28 235
原创 Linux:安装Grafana
1、下载Grafanahttps://grafana.com/grafana/download?pg=get&plcmt=selfmanaged-box1-cta1wget https://dl.grafana.com/oss/release/grafana-8.0.6-1.x86_64.rpmrpm -ivh grafana-8.0.6-1.x86_64.rpm2、启动服务grafana-serversudo systemctl start grafana-server.
2021-07-17 15:21:05 609
原创 Linux:Prometheus安装
1、下载Prometheus安装包https://prometheus.io/download/2、安装Prometheus解压:tar zxvf prometheus-2.28.1.linux-amd64.tar.gz解压后,进入Prometheus根目录执行以下命令:./prometheus --config.file=prometheus.yml --web.enable-lifecycle启动如下;启动后访问默认端口:9090访问地.
2021-07-15 22:15:43 211
原创 Hadoop(7):MapReduce计算模型介绍
1、理解 MapReduce 思想MapReduce思想在生活中处处可见。或多或少都曾接触过这种思想。MapReduce的思想核心是“分而治之”,适用于大量复杂的任务处理场景(大规模数据处理场景)。即使是发布过论文实现分布式计算的谷歌也只是实现了这种思想,而不是自己原创。Map负责“分”,即把复杂的任务分解为若干个“简单的任务”来并行处理。可以进行拆分的前提是这些小任务可以并行计算,彼此间几乎没有依赖关系。Reduce负责“合”,即对map阶段的结果进行全局汇总。这两个阶段合起来正是MapRedu
2021-07-11 22:16:46 671
转载 【Fpm】redis-6.2.4 rpm包制
下载rediswget http://download.redis.io/releases/redis-6.2.4.tar.gz编译安装tar zxvf redis-6.2.4.tar.gzcd redis-6.2.4make创建一个目录存放redis程序文件mkdir /app/redis/cp src/redis-server /app/redis/cp src/redis-benchmark /app/redis/cp src/r
2021-07-11 12:36:32 719
原创 kingbase定时备份脚本
#cipt: this script is used for kingbase database backup,before you run it,you should set the variables such as### kdb_home,kdbback_dest,kdb_user,kdb_pass,kdb_host,kdb_port,kdb_list,keep_time and so on.#####################################...
2021-07-04 15:45:17 1144 4
原创 Apache Flume(2): Flume简单案例
采集需求:服务器的某特定目录下,会不断产生新的文件,每当有新文件出现,就需要把文件采集到 HDFS 中去根据需求,首先定义以下 3 大要素采集源,即source——监控文件目录 : spooldir 下沉目标,即sink——HDFS文件系统 : hdfs sink source和sink之间的传递通道——channel,可用file channel也可以用内存channel# Name the components on this agenta1.sources = r1a1.s..
2021-07-04 02:06:10 319
原创 Hadoop(6):shell定时采集数据至HDFS
实现流程一般日志文件生成的逻辑由业务系统决定,比如每小时滚动一次,或者一定大小滚动一次,避免单个日志文件过大不方便操作。比如滚动后的文件命名为access.log.x,其中x为数字。正在进行写的日志文件叫做access.log。这样的话,如果日志文件后缀是1\2\3等数字,则该文件满足需求可以上传,就把该文件移动到准备上传的工作区间目录。工作区间有文件之后,可以使用hadoop put命令将文件上传。代码实现#!/bin/bash#set java envexport ...
2021-07-04 00:16:53 1110
原创 Hadoop(5):HDFS 的应用开发
1、HDFS的JAVA API操作HDFS在生产应用中主要是客户端的开发,其核心步骤是从HDFS提供的api中构造一个HDFS的访问客户端对象,然后通过该客户端对象操作(增删改查)HDFS上的文件。2、搭建开发环境2.1创建Maven工程引入pom依赖 <dependencies> <dependency> <groupId>org.apache.hadoop</groupId>
2021-07-04 00:13:13 484 2
原创 Hadoop(4):HDFS 基本原理
1、NameNode概述NameNode是HDFS的核心。 NameNode也称为Master。 NameNode 仅存储HDFS的元数据:文件系统中所有文件的目录树,并跟踪整个集群中的文件。 NameNode不存储实际数据或数据集。数据本身实际存储在DataNodes中。 NameNode知道HDFS中任何给定文件的块列表及其位置。使用此信息NameNode知道如何从块中构建文件。 NameNode并不持久化存储每个文件中各个块所在的DataNode的位置信息,这些信息会在系统启动时从数据节
2021-07-01 11:35:23 230
Spring Boot(六十四):SpringBoot集成Gzip压缩数据
2023-08-16
Disruptor专题简单案例资料
2023-06-17
lucene入门数据库资料
2023-05-21
sentinel-feign-parent
2023-05-09
springboot基于redis防止接口恶意刷新和暴力请求
2023-01-17
javawebuploader分片上传
2023-01-02
AT模式seate测试代码
2022-12-26
drools代码示例包
2022-08-12
mysql读写分离演示
2022-05-29
skywalkingRPC
2022-05-10
skywalkingspringboot
2022-05-10
java实现简单的单点登录
2020-03-03
Intellij Idea 创建JavaWeb项目入门(二)demo
2020-01-23
webapi基于Owin中间件的oauth2.0身份认证
2018-10-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人