自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 大模型入门

2017年在论文《Attention Is All You Need》提出的Transformer,Transformer模型通过其自注意力机制和高度的并行化能力,极大地提高了序列处理任务的效率和效果,它能够在处理序列数据时捕捉全局依赖关系,同时具有并行计算的能力,是近年来自然语言处理领域的重要进展之一。大语言模型(大模型)是指那些具有大量参数、在大规模数据集上训练的语言模型。这导致有时会产生所谓的“幻觉”。● 参数数量庞大:大模型通常含有极多的参数,这些参数是模型在训练过程中学习到的权重和偏置。

2025-02-13 09:00:59 760

原创 sfghff

sfghsfthsth

2025-02-13 08:23:26 201

原创 函索JS中的函数秘密

【代码】函索JS中的函数秘密。

2025-02-04 23:49:15 267

大模型入门的md版本,用于语雀

大模型入门的md版本,用于语雀

2025-02-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除