task01-熟悉规则,学习概览

一.第一次参加感想

之前学习的时候,经常都是跟着Datawhale的github上的资料进行学习,也曾经想过要参与其中,进行每个月的学习,抢过一两次,但是没抢到名额就只能遗憾了。昨天报名成功了,激动的心颤抖的手哈哈。大家都很活跃,大家会互相分享学习的资料,讨论学术问题,到了晚上自我介绍的时候,发现群里真是卧虎藏龙(群除我佬哈哈),几乎都是研究生,博士生(还有博士后),大厂工程师。感觉自己(弱鸡二本准大三)混入了一个不属于自己的世界,不过自己正常努力,争取早日成为群中大佬的一员哈哈!到了晚上的分队,自己也有了一艘小船(我依旧还是最弱的那个),很喜欢大家,很热心帮我解答一些问题,自己也解决了多次困扰的问题。
现在准大三了,想准备往NLP方向发展,刚好暑假碰到一个比赛可以做NLP的项目,所以就报名了这个比赛,但是自己还不太了解,暑假的时候看了一点深度学习的知识,LSTM,word2vec等。碰巧看到Datawhale八月组队学习有NLP,从Transformer入手进行NLP的入门。刚好碰巧这两天也在看2017年发布的论文《Attention Is All You Need》,想用Transformer去做这次的暑假比赛,于是就果断报了名。
对于这次学习的目标有以下几点:

  • 学习Transformer和Bert模型,以及完成一些模型的应用等。
  • 认识更多优秀的朋友。
  • 改变一下自己拖延的习惯,坚持每天打卡完成任务,并进行知识的输出。
  • 为暑假增加色彩嘻嘻。

二.NLP简介

1.(该段直接复制粘贴)
自然语言处理(Natural Language Processing, NLP)是一种重要的人工智能(Artificial Intelligence, AI)技术。我们随处可以见到NLP技术的应用,比如网络搜索,广告,电子邮件,智能客服,机器翻译,智能新闻播报等等。最近几年,基于深度学习(Deep Learning, DL)的NLP技术在各项任务中取得了很好的效果,这些基于深度学习模型的NLP任务解决方案通常不使用传统的、特定任务的特征工程而是仅仅使用一个端到端(end-to-end)的神经网络模型就可以获得很好的效果。
2.常见的NLP任务可以大致分为这四类:文本分类,序列标注,问答任务,生成任务

三.Transformer的发展

这个点就省略啦,毕竟这个作了解就行啦

四.为什么要使用Transformer模型

  • 从论文的摘要中可以知道Transformer模型由编码器和解码器组成,并且完全基于注意力机制,不需要Rnn和Cnn的参与。
    在这里插入图片描述

  • 序列的本质会阻止训练数据的并行化,由于内存限制限制了实例的批处理,这在长一点的句子中是很致命的。而Transformer模型就能够允许更多的并行化。
    在这里插入图片描述

  • 使用的原因:

便于使用先进的模型
更低的计算开销
对于模型生命周期的每一个部分都面面俱到
为需求轻松定制专属模型和用例

五.今日结语

这就是今天上午所学习到的一些知识,希望自己能够坚持下去,牢固掌握这些知识。

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值