- 博客(3)
- 收藏
- 关注
原创 大模型入门
2017年在论文《Attention Is All You Need》提出的Transformer,Transformer模型通过其自注意力机制和高度的并行化能力,极大地提高了序列处理任务的效率和效果,它能够在处理序列数据时捕捉全局依赖关系,同时具有并行计算的能力,是近年来自然语言处理领域的重要进展之一。大语言模型(大模型)是指那些具有大量参数、在大规模数据集上训练的语言模型。这导致有时会产生所谓的“幻觉”。● 参数数量庞大:大模型通常含有极多的参数,这些参数是模型在训练过程中学习到的权重和偏置。
2025-02-13 09:00:59
760
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人