![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
show
文章平均质量分 60
gbchen99
这个作者很懒,什么都没留下…
展开
-
“Leveraging Pre-trained Checkpoints for Encoder-Decoder Models.ipynb”的副本
正在加载…“Leveraging Pre-trained Checkpoints for Encoder-Decoder Models.ipynb”的副本“Leveraging Pre-trained Checkpoints for Encoder-Decoder Models.ipynb”的副本_目录利用编码器-解码器模型的预训练语言模型检查点介绍BERTGPT2编码器-解码器热启动编码器-解码器模型(理论)回顾编码器-解码器模型使用 BERT的暖启动编码器-解码器 使用 BERT翻译 2022-07-03 16:09:20 · 434 阅读 · 1 评论 -
seq2seq attentio
encoder和decoder中的注意力机制注意力机制的核心思想:在decoder的每一步,把encoder中的 所有向量提供给decoder模型,让decode根据自己当前的情况来选择自己需要的信息。例子h1、2、3…是encoder的hiddens1是decode的第一个hidden第一步第二步多步之后...原创 2022-07-02 20:26:44 · 186 阅读 · 0 评论 -
T5-small的encoder,decoder模型结构
t5-small 的结构全部的结构原创 2022-06-25 17:40:31 · 1989 阅读 · 0 评论 -
Hugging Face Bert模型结构
Bert原创 2022-06-12 15:18:29 · 378 阅读 · 0 评论 -
聊天机器人demo库——gradio
介绍:聊天机器人在自然语言处理 (NLP)翻译 2022-06-07 15:37:12 · 5575 阅读 · 0 评论