Sql中的随机函数

NEWID()

从表中随机返回N条记录

SELECT TOP 10 * FROM ywle order by newid()

order by 一般是根据某一字段排序,newid()的返回值 是uniqueidentifier ,order by newid()随机选取记录是如何进行的
newid()在扫描每条记录的时候都生成一个值, 而生成的值是随机的, 没有大小写顺序. 所以最终结果再按这个排序, 排序的结果当然就是无序的了

RAND()

在查询分析器中执行:select rand(),可以看到结果会是类似于这样的随机小数:0.36361513486289558,像这样的小数在实际应用中用得不多,一般要取随机数都会取随机整数。

但如果查询是这样的

select top 10 rand() from [table]

会发现10条结果是一样的。所以如果要产生10个随机数的话,可以这样

select top 10 rand(checksum(newid())) from [table]

 

附示例:转载自:http://topic.csdn.net/u/20080417/14/64ff6dd7-7052-4777-9c94-052263b8772a.html

 

如何快速生成100万不重复的8位编号

最近在论坛看到有人问,如何快速生成100万不重复的8位编号,对于这个问题,有几点是需要注意的:


1.    如何生成8位随机数,生成的数越随机,重复的可能性当然越小
2.    控制不重复
3.    考虑性能

针对这个问题,我写了如下的示例来解决,希望能为有这类需求的人提供指导
生成100万条8位不重复数据的示例

 

代码
USE  tempdb

GO
--  创建测试表
CREATE   TABLE  tb(id  char ( 8 ))

--  创建用于自动过滤重复值的唯一索引
CREATE   UNIQUE   INDEX  IX_tb  ON  tb(id)
WITH  IGNORE_DUP_KEY 
GO

--  测试数据插入的处理时间, 记录开始处理的时间点
DECLARE   @dt   datetime
SET   @dt   =   GETDATE ()

--  插入随机数据
SET  NOCOUNT  ON

DECLARE   @row   int
SET   @row   =   1000000    --  设置总记录数
WHILE   @row   >
BEGIN
    
--  显示提示信息, 表示还需要插入多行数据
     RAISERROR ( ' need %d rows ' 10 1 @row WITH  NOWAIT

    
--  插入随机的位编码数据
     SET   ROWCOUNT   @row
    
INSERT  tb  SELECT
        id 
=   RIGHT ( 100000000   +   CONVERT ( bigint ABS (CHECKSUM( NEWID ()))),  8 )
    
FROM  syscolumns c1, syscolumns c2
    
SET   @row   =   @row   -   @@ROWCOUNT
END

--  显示插入数据使用的时间
SELECT  BeginDate  =   @dt , EndDate  =   GETDATE (), 
    Second 
=   DATEDIFF (Second,  @dt GETDATE ()),

GO

--  显示最终的结果记录是否正确
SELECT   COUNT ( * FROM  tb
GO
--  删除测试
DROP   TABLE  tb

 



解决中用到的技巧:

1. 控制产生的数据不重复,直接使用唯一索引中的 IGNORE_DUP_KEY 选项,使插入数据中的重复值自动过滤,避免手工处理重复 2.    使用 CHECKSUM 配合 NEWID() 函数,使生成的数据尽量随机,一般生成随机数会考虑使用 RAND() 函数,但这个函数是产生伪随机值,用下面的语句测试一下,会发现产生的数据全部是一样的,这不适用于想批量生成多个随机数,而NEWID() 函数生成的是GUID,基本上不会有重复的,再通过CHECKSUM将其转化成数字,这样产生重复的可能性会比较小

SELECT TOP 10

    
RAND()

FROM sysobjects

3.    在效率控制,使用循环+批量生成的方式,而不是传统的逐个生成。在SQL Server中,每个插入语句都会有一个内部的事务处理,如果逐条插入,则事务的开销太大,效率势必非常低;不考虑一次性生成100万数据,一则因为生成的数据可能有重复的,去掉重复就没有100万了,二则一次性生成100万数据,消耗的内存和CPU资源也很高,一般的电脑可能承受不住

转载于:https://my.oschina.net/leafe/blog/32917

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值