大语言模型
文章平均质量分 65
星辰漫步之LLM
这个作者很懒,什么都没留下…
展开
-
GPTs - 定制版的ChatGPT
这些能力使GPTs能够执行更多种类的任务,提供更多样化的服务。这种定制化的方法为开发者提供了前所未有的灵活性和控制能力,使得GPTs不仅是一个强大的聊天机器人,而且是一个能够适应各种复杂应用场景的多功能工具。GPTs指的是定制版的ChatGPT (Custom versions of ChatGPT),它试图解决为不同用途定制ChatGPT的需求。:指定GPTs行为的指南或规则,它们定义了GPTs应该如何响应特定的输入或场景。:允许开发者上传自己的领域知识文件,这样GPTs就能提供更加丰富和准确的回答。原创 2024-02-28 16:25:12 · 710 阅读 · 0 评论 -
Self-attention与multi-head self-attention
多头自注意力不只是单一地关注输入序列的全局信息,而是同时从不同的角度去看待输入序列。这就好比你在看待一个问题时,可以从不同的角度去思考,这样就能够更全面地理解问题了。通过这些步骤,我们就得到了多头自注意力机制的最终输出,该输出保留了输入序列的各个部分,并且在多个注意力头的帮助下,能够更好地捕捉序列中的长程依赖关系。虽然自注意力专注于捕捉序列内部的依赖关系,但多头自注意力通过利用多个注意力头来捕捉不同类型的关系和依赖关系,提高了这种捕捉能力。的向量空间中,这是通过学习得到的权重矩阵。是输出层的权重矩阵。原创 2024-02-26 20:49:57 · 915 阅读 · 0 评论 -
Self-attention与Word2Vec
是两种不同的词嵌入技术,用于将单词映射到低维向量空间。原创 2024-02-24 18:03:10 · 486 阅读 · 0 评论