清华NLP-刘知远团队大模型公开课(学习笔记)

本文档详细介绍了深度学习课程的内容,包括自然语言处理基础、大模型介绍、神经网络(如Word2Vec、RNN、GRU、LSTM、CNN)及其在Pytorch中的应用,以及编程环境和GPU服务器的配置。提供了丰富的课程大纲和实践案例。
摘要由CSDN通过智能技术生成

课件和代码分享链接:

链接: https://pan.baidu.com/s/1ZboqS6D5Rc705piL0ANXog?pwd=best
提取码: best

笔记目录

章节主要内容
1-1课程内容介绍介绍课程内容,未做笔记
1-2课程大纲介绍课程大纲,未做笔记
1-3课程计划介绍课程计划,未做笔记
1-4自然语言处理基础——基础与应用介绍NLP的应用,未做笔记
1-5自然语言处理基础——词表示与语言模型1.5 自然语言处理基础——词表示与语言模型
1-6大模型基础——大模型之旅1-6 大模型基础-大模型之旅
1-7 大模型基础-大模型背后的范式1-7 大模型基础-大模型背后的范式
1-8 大模型基础-示例介绍一些LLM的demo,未做笔记
1-9 编程环境和GPU服务器的介绍1-9 编程环境和GPU服务器的介绍
2-1 课程内容介绍介绍第二节课程概要,未做笔记
2-2 神经网络基础——大纲介绍同上,未做笔记
2-3 神经网络的基本组成元素2-3 神经网络的基本组成元素
2-4 如何训练神经网络2-4 如何训练神经网络
2-5 词向量Word2Vec2-5 词向量Word2Vec
2-5(篇外)词向量Word2Vec代码实战篇2-5(篇外)词向量Word2Vec代码实战篇
2-6 循环神经网络(RNN)2-6 循环神经网络(RNN)
2-7 门控循环单元(GRU)2-7 门控循环单元(GRU)
2-8 长短期记忆网络(LSTM)2-8 长短期记忆网络(LSTM)
2-9 双向RNN2-9 双向RNN
2-10 卷积神经网络(CNN)2-10 卷积神经网络(CNN)
2-11 演示:使用Pytorch训练模型2-11 演示:使用Pytorch训练模型
3-1 课程内容介绍介绍课程内容,未做笔记
3-2 注意力机制--原理介绍3-2 注意力机制--原理介绍
3-3 注意力机制--注意力机制的各种变式3-3 注意力机制--注意力机制的各种变式
3-4 注意力机制--注意力机制的特点3-4 注意力机制--注意力机制的特点
3-5 Transformer结构--概述3-5 Transformer结构--概述
3-6 Transformer结构--输入编码(BPE、PE)3-6 Transformer结构--输入编码(BPE、PE)
3-7 Transformer结构--Encoder Block3-7 Transformer结构--Encoder Block
3-8 Transformer结构--Decoder Block3-8 Transformer结构--Decoder Block
3-9 Transformer结构--优化Tricks3-9 Transformer结构--优化Tricks
3-10 Transformer结构--试验结果以及可视化3-10 Transformer结构--试验结果以及可视化
3-11 Transformer结构--优缺点3-11 Transformer结构--优缺点
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值