小白来到

小白的到来

个人介绍

博主今年大一 专业是计算机科学与技术,本科四年制。正在自学python和c++还有前端相关知识。因为我们专业大一上学期并不开设专业课所以我目前在网上寻找资源自学。

写作目的

我个人比较喜欢做笔记 尤其是纸质的感觉那样才记得住 (其实也不怎么看)。以后我会不定期在csdn上更新一些我自己总结的知识点或者笔记或者一些我遇见过的问题(解决了的或者是没解决的)我个人感觉应该被记下的我就会写成博客发出来
由于python我写的都是纸质笔记,包括一些实例代码我也都是手抄的 所以目前python笔记可能会更新较慢 c++和html的笔记正在努力 一边学习一边整理添加。
我个人更多的把csdn博客当作一个整理 记录 的方法 因为也在上课平常时间相对较紧张 但是希望我自己不要半途而废,也希望我可以一步步逆袭从小白变大牛!

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
引用:Transformer是一种近年来非常火热的模型,它的结构非常巧妙。简单来说,Transformer是一个由多个编码器和解码器组成的模型。编码器负责将输入序列转换成抽象的特征表示,解码器则根据编码器的输出和之前的输出来生成目标序列。Transformer主要的特点是使用了自注意力机制,这使得模型能够在处理长文本时也能保持较好的效果。 对于小白来说,理解Transformer的结构可能需要花费一些功夫。但是可以通过以下几个步骤来逐渐掌握Transformer的概念: 1. 首先,了解Transformer的整体结构。它由编码器和解码器组成,编码器负责将输入序列转换为特征表示,解码器根据编码器的输出和之前的输出生成目标序列。 2. 其次,研究Transformer的细节。其中一个关键的概念是自注意力机制,它允许模型在处理时对输入序列中的不同位置进行关注。这种机制有助于模型捕捉输入序列的上下文信息。 3. 最后,了解Transformer的优缺点。Transformer的优点是它在处理长文本时能够保持较好的效果,并且由于使用了自注意力机制,它能够捕捉全局上下文信息。然而,Transformer的缺点是它需要大量的计算资源和时间来训练,并且对于小样本数据可能不够鲁棒。 希望这些解释能帮助你对Transformer有一个初步的了解!<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [史上最小白之Transformer详解](https://blog.csdn.net/Tink1995/article/details/105080033)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

袁六加.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值