- 博客(4)
- 收藏
- 关注
原创 Transformer学习笔记(二)
传入Q:dec_outputs(dec_inputs计算完注意力机制的值)、K和V:enc_outputs(encoder编码器的输出),注意mask矩阵是encoder_inputsde padding矩阵,因为对于Decoder来说,当前时刻可以看到encoder全部的输入。注意力机制计算,这里用的是8头,设置的d_model为512,将512拆解成8*64,在计算Encoder的多头注意力机制的时候,只有Encoder的inputs,所以Q、K、V的的传入都是encoder_inputs。
2023-08-24 18:08:01 185 1
原创 python中Lambda函数
语法lambda 参数:表达式使用方法在python中可以通过 def function()的方式来定义函数,可以通过函数名称来进行调用;在python中也可以通过lambda的方式定义一些匿名函数,在lambda中参数就是输入,表达式就是对输入参数的处理,处理结果会自动返回举例输出结果:3+4=7...
2022-04-24 12:13:13 848
原创 客服场景下文本分类Fasttext文本分类算法的实践
FastText分析客户的来电原因,不仅有利于用户提供更好的服务,也有助于分析业务中的弊端,便于企业及时整改,逐步为客户提供智能化的自助服务。
2022-03-29 09:45:13 1052
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人