Oracle中数据文件大小(转)

Oracle中数据文件大小的限制

作者:eygle | English Version 【转载时请务必以超链接形式标明文章和作者信息及本声明
链接:

Oracle数据文件大小存在一个内部限制,这个限制是:
每个数据文件最多只能包含2^22-1个数据

这个限制也就直接导致了每个数据文件的最大允许大小
在2K Block_size下,数据文件最大只能达到约8G
在32K的Block_size下,数据文件最大只能达到约16*8G的大小

这个限制是由于Oracle的Rowid中使用22位来代表Block号,这22位最多只能代表2^22-1个数据块。

为了扩展数据文件大小,Oracle10g中引入了大文件表空间,在大文件表空间下,Oracle使用32位来代表Block号,也就是说,在新的技术下,大文件表空间下每个文件最多可以容纳4G个Block。
那么也就是说当Block_size为2k时,数据文件可以达到8T 。
当block_size为32K时,数据文件可以达到128T。

上周在做2K block_size测试时,第一次遇到了这个限制:

SQL> alter tablespace eygle add datafile 'f:\eygle02.dbf' size 8192M;
alter tablespace eygle add datafile 'f:\eygle02.dbf' size 8192M
*
ERROR 位于第 1 行:
ORA-01144: 文件 大小 (4194304 块) 超出 4194303 块的最大数

缩减一点,最后创建成功:

SQL> alter tablespace eygle add datafile 'f:\eygle02.dbf' size 8191M reuse;

表空间已更改。

已用时间: 00: 44: 42.08


计算一下,这台破烂的测试机的IO速度:
io speed = 8191 M / 00: 44: 42.08 = 8191 M / 44*60+42 = 8191M / 2682 s = 3.05M/s

够惊人的了吧。

-The End-

关于数据文件大小的讨论

读写效率不高不是文件大小引起的,而是因为extent扩展太多引起的,
不过数据文件过大对备份/恢复很不利

跟文件系统、数据库规模等来决定,应该没有什么标准,也不存在说用多大的文件效率会比较高这样的说法~ 大家一般都会从容易管理的角度来考虑吧

过大是针对于你的存储/备份速度来说的,retore/recover一个2G的文件和一个200G的文件,所需要的时间当然不同,看你在时间和管理上的一个折中吧
不过windows下最好不要超过2G,好像好多windows软件对大文件有些限制
上面说的大文件不影响效率,不准确,上次eygle大师的调优课上讲,操作系统级的文件管理,对于簇是以链式管理,有些类似index,当文件太大的时候会导致链的level增加,这会增加簇寻址的代价,不过具体是多大的文件会扩到3level,我不清楚了


我的意思就是根据你的数据库规模,然后更多地从易管理的角度来规划,而不用考虑太多文件大小对性能的影响问题,因为即使有也是很少的。

实际上平衡IO主要集中在文件的分布上,以及数据安全方面的考虑。

文件太大,整理碎片速度极慢,而且基本都不会很顺利

对文件大小的限制主要是操作系统的限制,太大了不好备份,如果文件损坏了,损失将更大,而且在micro的操作系统下对大文件不是很安全,增加数据文件不会对表空间有什么影响,建议增加数据文件,但最好不要大于2G

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/14075938/viewspace-483563/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/14075938/viewspace-483563/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值