官网的解释
tf.random.categorical:从一个分类分布中抽取样本(tf.multinomial()是多项分布)
tf.random.categorical(
logits,
num_samples,
dtype=None,
seed=None,
name=None
)
例子
# samples has shape [1, 5], where each value is either 0 or 1 with equal
# probability.
samples = tf.random.categorical(tf.math.log([[10., 10.]]), 5)
参数:
- logits: 形状为 [batch_size, num_classes]的张量. 每个切片 [i, :]代表对于所有类的未正规化的log概率。
- num_samples: 0维,从每一行切片中抽取的独立样本的数量。
- dtype: 用于输出的整数类型,默认为int64。
- seed: 一个Python整数,用于创建分布的随机种子。See tf.compat.v1.set_random_seedfor behavior.
- name: 操作的可选名字
Returns:
- 形状为[batch_size, num_samples]的抽取样本.
含义解析:
-
这个函数的意思就是,你给了一个batch_size × num_classes的矩阵,这个矩阵是这样的:
每一行相当于log(p(x)),这里假设p(x)=[0.4,0.3,0.2,0.1],(p(x)的特性就是和为1),
然后再取log,那么log(p(x))就等于[-0.9162907 -1.20397282 -1.60943794 -2.30258512]
函数利用你给的分布概率,从其中的每一行中抽取num_samples次,最终形成的矩阵就是batch_szie × num_samples了。 -
这里的抽样方法可以再详细解释一下,举个例子(请不要考虑真实性),给一行[1.0,2.0,2.0,2.0,6.0],采样4次,那么结果很大可能都是[4,4,4,4](不信可以试一下),因为下标为4的概率(6.0)远远高于其他的概率,当然也会出现比如[4,4,2,4]这样的情况,就是说其他的下标因为给定的概率就低,所以被采样到的概率也就低了。
-
官网解释中logits,也就是你给的矩阵,每个切片 [i, :] 代表对于所有类的未正规化的log概率(即其和不为1),但必须是小数,就像官网的样例一样,就算是整数,后面也要加一个小数点,否则会报错。
-
返回值是什么的问题,返回的其实不是抽取到的样本,而是抽取样本在每一行的下标。
为了能更加充分的理解,下面奉上一个小小的例子:
import tensorflow as tf;
for i in tf.range(10):
samples = tf.random.categorical([[1.0,1.0,1.0,1.0,4.0],[1.0,1,1,1,1]], 6)
tf.print(samples)
输出结果:
[[4 4 4 4 4 1]
[3 1 3 0 4 3]]
[[4 0 4 4 4 1]
[1 0 2 4 1 2]]
[[0 4 4 0 4 4]
[3 0 0 1 1 4]]
[[4 4 4 4 4 0]
[2 1 4 3 4 4]]
[[4 4 2 4 4 4]
[1 3 1 0 4 0]]
[[4 4 4 4 4 4]
[3 0 4 1 1 1]]
[[4 4 0 0 4 4]
[3 3 0 3 2 2]]
[[1 4 4 4 4 4]
[2 2 1 3 0 2]]
[[4 4 4 4 4 4]
[2 4 4 3 2 2]]
[[4 4 4 4 3 4]
[2 4 2 2 1 0]]
看到这估计你就能理解了,其中[[1.0,1.0,1.0,1.0,4.0],[1.0,1,1,1,1]]就是需要进行采样的矩阵,这里加小数点其实可以只加一个,只要让程序知道你用的是概率就行(当然实际都是通过tf.log()得到的不用手动输入),输出结果自然就是样本所在行的下标,多运行几次,就能更直观的感受到,设定的概率和采样结果之间的关系。(比如这里第一行的采样结果很多都是最后一个样本,第二行因为概率相同,采样结果就很均匀)