自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 保护个人隐私:你的数据不是公开拍卖!

在大数据时代,个人信息隐私保护成为一个备受关注的话题。在享受互联网带来的便利和智能化服务的同时,我们也要意识到个人信息泄露的风险。

2023-07-05 12:23:04 86 1

原创 transformer基础知识

这样一来,当模型处理输入序列的每个词汇时,它能够关注到与该词汇相关的上下文,从而更好地理解文本。这种并行计算的方式大大提高了Transformer的效率和速度,让它在处理大规模数据时表现出色。当模型处理到“冰淇淋”这个词汇时,自注意力机制会帮助它关注到“冰淇淋”前面的“吃”和“爱”这两个词汇。当然,这只是Transformer的基础知识,还有更多深入的细节等待着我们去探索。嗯,首先,Transformer是一种用于自然语言处理的神奇神兽,它能够在翻译、摘要生成等任务上展现出色的表现。

2023-06-29 11:16:00 331

原创 transformer最基础介绍

想象一下,你正在读一篇文章,当你阅读其中的某一句话时,你会根据这句话和前面的上下文关系来理解它的意思。Transformer的问世,犹如一阵清风拂过互联网的大地,引领了自然语言处理的新时代。而Transformer的最大亮点就在于它引入了自注意力机制(Self-Attention),大大减少了对输入序列的人工设计特征的需求。嗯,让我为你揭开它的神秘面纱。传统的自然语言处理模型往往依赖于很多复杂的手工特征工程,这意味着我们需要大量的人力和时间来设计这些特征,工作量相当可观。

2023-06-29 10:56:56 66

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除