HVR日志分析简单应用

原创 2016年05月31日 11:36:26

从其他地方拿到数据库的同步日志,如:123.out,如果想知道同步的大体信息,比如同步了多少DML等,那么可以使用命令:hvrstatustics搞定。

示例:

hvrstatistics -f e:\123.out

示例输出:

Captured Inserts              :            11437
Captured Updates              :           146390
Captured Deletes              :             7449
Captured Rows                 :           311666
Integrated Inserts            :             6926
Integrated Updates            :           101502
Integrated Deletes            :             7122
Integrated Changes            :           115550
DBMS Log Rows                 :           623332
Captured Transactions         :            72327
Integrated Transactions       :            30426
Transactions Logged in DBMS   :           144654
Maximum Capture Change Speed  :                1
Average Integrate Change Speed:              146
Total Capture Duration        :           304933
Maximum Capture Duration      :               31
Total Integrate Duration      :              789
Maximum Integrate Duration    :              235
Average Integrate Duration    :                0
Capture Cycles                :            43251
Integrate Cycles              :            34559
Routed Bytes                  :         31947549
Routed Bytes (uncompressed)   :        443118651
Capture Log Bytes Read        :      18994689392
DBMS Log Bytes Written        :      37989378784
Maximum Compression Ratio     :               99
Average Compression Ratio     :               92
Minimum Capture Latency       :                0
Maximum Capture Latency       :           158760
Minimum Integrate Latency     :            -1682
Maximum Integrate Latency     :             5256
Number of Errors              :              822
Last Error                    : 2016-04-05 18:04:22: u_by-cap-by: F_JG2111: Connect to host '172.15.0.6' and port 4343 for coprocess 'u_by-cap-by' failed. Error: WSAECONNREFUSED: Connection refused.



版权声明:本文为博主原创文章,如若转载请注明转载地址。

相关文章推荐

Hadoop-web日志信息挖掘MapReduce简单应用以及代码下载

结合上面两篇博文的内容,首先提一下hadoop的安装和配置。 Hadoop-利用java API操作HDFS文件 Hadoop-MapReduce初步应用-统计单词个数 上面两篇文章中提到了如何...

简单的iis日志分析软件

  • 2009年10月27日 09:23
  • 1.08MB
  • 下载

ACM练级日志:POJ 2318 叉积的简单应用

最近开始学习计(keng)算(die)几何,第一道入门题就是这道了。 本题最核心的问题,就是如何判断一个点在直线(线段)的什么位置。这一点叉积可以很容易地做到。 设直线(线段)的向量为S-...

MapReduce应用开发 简单筛选日志

利用hadoop eclipse插件可以方便的开发MapReduce程序,下面是一个简单的提取日志信息的示例,主要将日志中第一列、第二列和第六列中的信息提取出来,在代码中主要开发map的程序,redu...
  • sherld
  • sherld
  • 2014年12月30日 20:21
  • 400

spring cloud踩坑日志(5)- ribbon的简单应用

ribbon是springcloud提供的一个客户端负载均衡 本人没有实际的使用场景 ,只是结合目前公司的逻辑简单进行了些封装和探索。希望大神多指点,首先是POM 我们先构建ribbon...

linux 部署ELK 日志分析系统与简单测试

ELK stack是指由Elasticsearch,Logstash,Kibana三个组件结合起来而构成的一个日志收集,分析,可视化,本篇博客致力于教你配置elk环境与简单的“helloworld”测...

duilib库分析日志 (一) : 简单了解下duilib库

最近一直在想做个DirectUI库. 先找了几个UI库, 也没做过啥Demo. 1年前看过国外的viksoe库(URL: http://www.viksoe.dk/code/index.htm) 因水...

Linux部署ELK日志分析系统与简单测试

原文地址:http://blog.csdn.net/gamer_gyt/article/details/52654263 写在前边的话     ELK stack是指由Elas...

利用Jmap进行简单日志分析

root@ubuntu:/# jmap -heap 21711 Attaching to process ID 21711, please wait... Debugger attache...

基于Elasticsearch+Fluentd+Kibana的日志收集分析系统搭建与应用

基于Elasticsearch+Fluentd+Kibana的日志系统搭建与应用随着互联网技术的发展,原来的单机发展到多机再到大规模集群,nginx,tomcat,openStack,docker容器...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:HVR日志分析简单应用
举报原因:
原因补充:

(最多只允许输入30个字)