自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 问答 (1)
  • 收藏
  • 关注

原创 Skip-gram负采样原理及代码实现(pytorch)

绝大多数的词向量学习模型本质都是建立在词和其上下文之间的联系。比如我们常见的CBOW模型,是根据上下窗口中的词的合集作为输入去预测目标词,即,其中其中的k为超参数文本窗口大小。而skip-gram模型在此基础上做了进一步的简化,使用中的每一个词作为独立的上下文对目标词进行预测。因此skip-gram模型可以用于建立词与词之间的共现关系,即,其中。

2023-05-12 17:58:27 1651 1

原创 自然语言处理的分词和子词任务

自然语言处理的一大特点就是任务种类繁多。今天来讲讲几种最近学到的任务及处理方法。

2023-05-05 18:47:33 213

原创 讲一下自注意力机制的原理,参考李宏毅老师的视频

sequence_length​是句长,而一个 mini-batch 是由多个不等长的句子组成的,我们需要按照这个 mini-batch 中最大的句长对剩余的句子进行补齐,一般用 0 进行填充,这个过程叫做 padding。自注意力机制,就是一个句子中的每一个词都当成,q,k,v参与计算,假设你输入的句子通过word embedding层得到了I矩阵,由a1,a2....ai组成,其中a1,a2....ai都是词向量。k:key,目标词周围的词,也可以说是上下文,你,人。有些人可能要问了,这个。

2023-04-24 15:57:30 169

原创 关于混淆矩阵和ROC的一些东西

FP:false positive,真实是negative,模型预测结果是positive,也被称为统计学上第一类错误。FN:false negative,真实是positive,模型预测结果是negative,也被称为统计学上第二类错误。通过遍历所有阈值,TPR和FPR所绘制成的曲线就叫ROC曲线,其中FPR为横坐标,TPR为纵坐标,如下图所示。TN:true negative,真实是negative,模型预测也是negative。,recall,也就是真实正样本中被预测为正的比例。假正率:1-特异度,

2023-04-24 09:14:41 115 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除