- 博客(6)
- 资源 (1)
- 收藏
- 关注
原创 Oracle使用并行的坑
现在要对5千万数据的表删除2千万的数据,怎么要快呢?直接删肯定不行,最好的方法是: 1.用create table as 2.并行建主键和索引 问题来了,头天晚上操作的,第二天上班发现了很严重的性能问题,那到底是什么问题呢?来做个实验吧!SQL> create table test as select * from dba_objects where ob
2015-08-28 15:32:09 3293
原创 mysql如何快速删除重复的数据
在mysql中去重,其实是一个很简单的事情,来看下面的例子:mysql> DROP TABLE test;Query OK, 0 rows affected (0.01 sec)mysql> CREATE TABLE test ( id INT, NAME VARCHAR(10) );Query OK, 0 rows
2015-08-28 14:50:48 2095
原创 mysql检测重复索引
mysql居然可以在相同的字段上重复建索引,oracle是不行的。需要安装pt-query-digest。[root@VM-10 ~]# pt-duplicate-key-checker -h10.10.11.208 -uroot -proot -P3316 --charset=gbk # ##################################################
2015-08-27 18:04:49 1622
原创 mysqlreport的使用
mysql参数怎么调是个问题,如果是Oracle,数据库报告上有很多建议,非常直观。mysql也有一个小工具mysqlreport,来统计一些信息指导调参数,最好是写一个任务,一个小时执行一次,这样可以看到高峰、低峰时期的统计信息,更有利于参数调优。1.先下载dbi、dbd-mysql、mysqlreport-3.5。2.安装dbi和dbd-mysql,安装之前确认安装过perl。
2015-08-26 17:40:36 1061
原创 mysql 慢日志分析工具pt-query-digest
之前windows下mysql5.6.20使用mysqldumpslow.pl分析慢日志,今天又看到一个工具pt-query-digest,原本打算在windows上安装使用,结果在windows上执行C:\Program Files\MySQL\MySQL Server 5.6\bin>pt-query-digest.pl F:\mysql\im-slow.log > F:\mysql\s
2015-08-13 15:08:47 4449
原创 oracle 存储过程最好的记录错误方式
当你的应用有调用存储过程,而节点有几十个或者上百个,找错是不是一个很麻烦的事情,这个时候,我建议写到数据库中,下面是我做的一个demo.1. 建立错误日志记录表drop table PUB_PROC_ERR_LOG purge;create table PUB_PROC_ERR_LOG( LOG_ID NUMBER, MODULE_NAME VARCHAR2(
2015-08-04 18:37:47 4447
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人