机器学习算法:tf.contrib.crf条件随机场

  1. tf.contrib.crf.crf_log_likelihood(inputs, tag_indices, sequence_lengths, transition_params=None)
    函数的目的:使用crf 来计算损失,里面用到的优化方法是:最大似然估计,即在一个条件随机场里计算标签序列的log_likelihood
    参数解析:

inputs: [batch_size, max_seq_len, num_tags] ,一般使用BiLSTM处理之后输出转化为它要求的形状作为crf层的输入;
tag_indices: [batch_size, max_seq_len] 真实标签
sequence_lengths: [batch_size] 表示每个序列的长度
transition_params: [num_tags, num_tags]转移矩阵

返回:

log_likelihood: 标量,log_likelihood
transition_params:[num_tags, num_tags]转移矩阵

  1. tf.contrib.crf.crf_decode(potentials, transition_params, sequence_length)
    在tensorflow内解码
    参数解析:

potentials: 一个形状为[batch_size, max_seq_len, num_tags] 的tensor,
transition_params: 一个形状为[num_tags, num_tags] 的转移矩阵
sequence_length: 一个形状为[batch_size] 的 ,表示batch中每个序列的长度

返回:

decode_tags:一个形状为[batch_size, max_seq_len] 的tensor,类型是tf.int32.表示最好的序列标记.
best_score: 有个形状为[batch_size] 的tensor, 包含每个序列解码标签的分数.

  1. tf.contrib.crf.viterbi_decode(score, transition_params)
    通俗一点,作用就是返回最好的标签序列.这个函数只能够在测试时使用,在tensorflow外部解码
    参数解析:

score: 一个形状为[seq_len, num_tags] matrix of unary potentials.
transition_params: 形状为[num_tags, num_tags] 的转移矩阵

返回:

viterbi: 一个形状为[seq_len] 显示了最高分的标签索引的列表.
viterbi_score: A float containing the score for the Viterbi sequence.

参考链接:
https://www.cnblogs.com/lovychen/p/8490397.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这段代码是一个基于卷积神经网络的分类器模型,以下是每一行代码的详细解释: ``` conv2 = tf.contrib.layers.convolution2d(pool1, N_FILTERS, FILTER_SHAPE2, padding='VALID') ``` 使用 `tf.contrib.layers.convolution2d` 函数对 `pool1` 进行卷积操作,其中 `N_FILTERS` 表示卷积核的数量,`FILTER_SHAPE2` 是一个 2 维的列表,表示卷积核的大小,`padding='VALID'` 表示边缘不填充。 ``` pool2 = tf.squeeze(tf.reduce_max(conv2, 1), squeeze_dims=[1]) ``` 对 `conv2` 进行池化操作,使用 `tf.reduce_max` 函数对每个卷积核的输出进行最大化,再使用 `tf.squeeze` 函数将第二维的大小为 1 的维度去掉。 ``` logits = tf.contrib.layers.fully_connected(pool2, 15, activation_fn=None) ``` 使用 `tf.contrib.layers.fully_connected` 函数连接一个全连接层,其中 `pool2` 是输入,`15` 是输出的类别数,`None` 表示没有激活函数。 ``` loss = tf.losses.softmax_cross_entropy(target, logits) ``` 计算损失,使用 `tf.losses.softmax_cross_entropy` 函数计算多分类交叉熵损失,其中 `target` 是目标标签,`logits` 是模型的输出。 ``` train_op = tf.contrib.layers.optimize_loss(loss, tf.contrib.framework.get_global_step(), optimizer='Adam', learning_rate=0.01) ``` 使用 `tf.contrib.layers.optimize_loss` 函数进行优化,其中 `loss` 是损失函数,`tf.contrib.framework.get_global_step()` 获取全局步数,`optimizer='Adam'` 使用 Adam 优化器,`learning_rate=0.01` 设置学习率。 ``` return ({ 'class': tf.argmax(logits, 1), 'prob': tf.nn.softmax(logits) }, loss, train_op) ``` 返回一个字典,包含了模型的输出和损失,其中 `'class'` 表示预测的类别,使用 `tf.argmax` 函数取最大值的索引作为预测结果,`'prob'` 表示预测的概率,使用 `tf.nn.softmax` 函数进行归一化处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值