假设您的x和y坐标都是0到n之间的整数。对于小的n来说,一个简单的方法可能是使用np.mgrid生成所有可能的xy坐标集,将其重塑为一个(nx * ny, 2)数组,然后从中对随机行进行采样:nx, ny = 100, 200
xy = np.mgrid[:nx,:ny].reshape(2, -1).T
sample = xy.take(np.random.choice(xy.shape[0], 100, replace=False), axis=0)
如果nx和/或ny非常大,创建所有可能坐标的数组可能会变得非常昂贵,在这种情况下,最好使用生成器对象并跟踪以前使用的坐标,如James的答案所示。
根据晨曦的建议,另一种方法是从nx*ny索引集合中抽取样本,然后将其直接转换为x,y坐标,这样就避免了构建整个nx*ny可能的x,y排列数组。
为了进行比较,这里是我的原始方法的一个版本,该方法是针对N维数组的,加上使用新方法的版本:def sample_comb1(dims, nsamp):
perm = np.indices(dims).reshape(len(dims), -1).T
idx = np.random.choice(perm.shape[0], nsamp, replace=False)
return perm.take(idx, axis=0)
def sample_comb2(dims, nsamp):
idx = np.random.choice(np.prod(dims), nsamp, replace=False)
return np.vstack(np.unravel_index(idx, dims)).T
实际上并没有太大的差别,但是第二种方法的好处对于更大的阵列来说就更加明显了:In [1]: %timeit sample_comb1((100, 200), 100)
100 loops, best of 3: 2.59 ms per loop
In [2]: %timeit sample_comb2((100, 200), 100)
100 loops, best of 3: 2.4 ms per loop
In [3]: %timeit sample_comb1((1000, 2000), 100)
1 loops, best of 3: 341 ms per loop
In [4]: %timeit sample_comb2((1000, 2000), 100)
1 loops, best of 3: 319 ms per loop
如果您安装了scikit learn,^{}提供了一种更快的方法来生成随机索引,而不使用Floyd's algorithm进行替换:from sklearn.utils.random import sample_without_replacement
def sample_comb3(dims, nsamp):
idx = sample_without_replacement(np.prod(dims), nsamp)
return np.vstack(np.unravel_index(idx, dims)).T
In [5]: %timeit sample_comb3((1000, 2000), 100)
The slowest run took 4.49 times longer than the fastest. This could mean that an
intermediate result is being cached
10000 loops, best of 3: 53.2 µs per loop