深度学习理解及学习推荐(持续更新)

主推YouTuBe和Bilibili

深度学习博主推荐:

Umar Jamil - YouTubeicon-default.png?t=N7T8https://www.youtube.com/@umarjamilai

StatQuest with Josh Starmer - YouTubeicon-default.png?t=N7T8https://www.youtube.com/@statquest

RNN 

Illustrated Guide to Recurrent Neural Networks: Understanding the Intuition (youtube.com)icon-default.png?t=N7T8https://www.youtube.com/watch?v=LHXXI4-IEns

Pytorch学习

Learn PyTorch for deep learning in a day. Literally. (youtube.com)icon-default.png?t=N7T8https://www.youtube.com/watch?v=Z_ikDlimN6A

自然语言处理NLP

词嵌入 

(9 封私信 / 16 条消息) 如何最简单、通俗地理解word embedding? - 知乎 (zhihu.com)icon-default.png?t=N7T8https://www.zhihu.com/question/445738869#:~:text=%E5%A6%82%E4%BD%95%E6%9C%80%E7%AE%80%E5%8D%95%E3%80%81%E9%80%9A%E4%BF%97%E5%9C%B0%E7%90%86%E8%A7%A3word%20embedding%EF%BC%9F%201%201%E3%80%81%E4%BB%80%E4%B9%88%E6%98%AF%E8%AF%8D%E5%B5%8C%E5%85%A5%EF%BC%9F%20%E8%AF%8D%E5%B5%8C%E5%85%A5%EF%BC%8C%E8%8B%B1%E6%96%87%20Word%20Embedding%EF%BC%8C%E6%98%AF%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86%E4%B8%AD%E7%9A%84%E4%B8%80%E9%A1%B9%E5%85%B3%E9%94%AE%E6%8A%80%E6%9C%AF%E3%80%82%20%E7%AE%80%E5%8D%95%E6%9D%A5%E8%AF%B4%EF%BC%8C%E5%AE%83%E5%B0%B1%E6%98%AF%E6%8A%8A%E5%8D%95%E8%AF%8D%E6%88%96%E6%B1%89%E5%AD%97%E8%BD%AC%E6%8D%A2%E6%88%90%E5%90%91%E9%87%8F%E7%9A%84%E8%BF%87%E7%A8%8B%E3%80%82,3%E3%80%81%E4%B8%80%E4%B8%AA%E4%BE%8B%E5%AD%90%20%E6%8E%A5%E4%B8%8B%E6%9D%A5%E7%9C%8B%E4%B8%80%E4%B8%AA%E4%BE%8B%E5%AD%90%EF%BC%8C%E6%9D%A5%E6%9B%B4%E7%9B%B4%E8%A7%82%E5%9C%B0%E7%90%86%E8%A7%A3%20word%20embedding%20%E7%9A%84%E4%BD%9C%E7%94%A8%E3%80%82%20%E5%81%87%E8%AE%BE%E6%88%91%E4%BB%AC%E8%A6%81%E5%AF%B9%E4%B8%80%E7%AF%87%E6%96%87%E7%AB%A0%E4%B8%AD%E7%9A%84%E5%8D%95%E8%AF%8D%E8%BF%9B%E8%A1%8C%E7%BC%96%E7%A0%81%EF%BC%8C%E6%9C%89%E5%9B%9B%E4%B8%AA%E5%8D%95%E8%AF%8D%EF%BC%9A%E2%80%9C%E7%8C%AB%E2%80%9D%E3%80%81%E2%80%9C%E7%8B%97%E2%80%9D%E3%80%81%E2%80%9C%E9%B1%BC%E2%80%9D%E3%80%81%E2%80%9C%E8%B7%91%E2%80%9D%E3%80%82%20%E9%A6%96%E5%85%88%EF%BC%8C%E7%94%A8%E6%95%B0%E5%AD%97%E8%A1%A8%E7%A4%BA%E8%BF%99%E4%BA%9B%E5%8D%95%E8%AF%8D%EF%BC%9A%20NLP(一)Word Embeding词嵌入 - 知乎 (zhihu.com)icon-default.png?t=N7T8https://zhuanlan.zhihu.com/p/150556238Word Embedding and Word2Vec, Clearly Explained!!! (youtube.com)icon-default.png?t=N7T8https://www.youtube.com/watch?v=viZrOnJclY0(14) A Complete Overview of Word Embeddings - YouTubeicon-default.png?t=N7T8https://www.youtube.com/watch?v=5MaWmXwxFNQ

 Attention注意力机制和self-attention

Attention注意力机制与self-attention自注意力机制 - 知乎Attention注意力机制与self-attention自注意力机制为什么要因为注意力机制在Attention诞生之前,已经有CNN和RNN及其变体模型了,那为什么还要引入attention机制?主要有两个方面的原因,如下: (1) 计算能力的限…icon-default.png?t=N7T8https://zhuanlan.zhihu.com/p/265108616动图轻松理解Self-Attention(自注意力机制) - 知乎前言 Self - Attention是Transformer中最核心的思想。我们在阅读Transformer论文的过程中,最难理解的可能就是自注意力机制实现的过程和繁杂的公式。本文在 Illustrated: Self-Attention这篇文章的基础上,加上了…icon-default.png?t=N7T8https://zhuanlan.zhihu.com/p/619154409

从RNN到Attention_短距离数据依赖模式是什么-CSDN博客文章浏览阅读845次,点赞2次,收藏16次。上次我们讲到,传统神经网络无法获取时序信息,但时序信息在自然语言处理任务中非常重要!例如 “我吃了一个苹果”这一句话,“苹果” 的词性和意思,取决于前面词的信息,如果没有 “我吃了一个” 这些词,“苹果”也可以翻译为乔布斯的“Apple”。RNN中的Attention注意力模型_短距离数据依赖模式是什么https://blog.csdn.net/weixin_68191319/article/details/129216141?spm=1001.2014.3001.5501 

hkproj/pytorch-transformer: Attention is all you need implementation (github.com)icon-default.png?t=N7T8https://github.com/hkproj/pytorch-transformerAttention 和 Self-Attention [一万字拆解 Attention,全网最详细的注意力机制讲解] - 知乎上一篇文章 从 RNN 到 Attention 我们在RNN的Encoder-Decoder框架下引入了Attention 机制,用来解决 RNN 模型中梯度下降以及性能瓶颈问题,如下图所示: 上图就是引入了 Attention 机制的 Encoder-Decoder 框架。…icon-default.png?t=N7T8https://zhuanlan.zhihu.com/p/609523552nlp中的Attention注意力机制+Transformer详解 - 知乎JayJay有自己的公众号啦,以后文章都在那里哦,欢迎关注《高能AI》公众号本文以QA形式对自然语言处理中注意力机制(Attention)进行总结,并对Transformer进行深入解析。 目录一、Attention机制剖析 1、为什么要引…icon-default.png?t=N7T8https://zhuanlan.zhihu.com/p/53682800

transfomer

Attention is all you need (Transformer) - Model explanation (including math), Inference and Training (youtube.com)icon-default.png?t=N7T8https://www.youtube.com/watch?v=bCz4OMemCcA

  • 17
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
学习深度学习需要了解以下几个方面: 1. 数学基础:深度学习涉及许多数学概念和方法,包括线性代数、概率论、微积分和优化理论。了解这些数学基础可以帮助你理解深度学习模型的原理和算法。 2. 机器学习基础:深度学习是机器学习的一个分支,因此了解机器学习的基本概念和方法是必要的。这包括监督学习、无监督学习、强化学习等常见的机器学习算法。 3. 神经网络:深度学习的核心是神经网络模型。需要了解神经网络的结构、工作原理和常见的神经网络层(如全连接层、卷积层、循环层等)以及它们的作用和特点。 4. 深度学习框架:选择并熟悉一种或多种流行的深度学习框架(如TensorFlow、PyTorch、Keras等),这些框架提供了方便的工具和接口来构建和训练深度学习模型。 5. 数据预处理:了解如何对数据进行预处理,包括数据清洗、特征选择、特征缩放、数据转换等,以准备好用于深度学习模型的数据。 6. 模型构建和训练:学习如何构建深度学习模型,包括选择适当的网络结构、调整超参数、选择合适的损失函数和优化器等。理解反向传播算法和梯度下降优化是构建和训练模型的关键。 7. 模型评估和调优:了解如何评估模型的性能,选择适当的评估指标,并使用验证集和测试集进行模型的调优和泛化性能的评估。 8. 预训练模型和迁移学习:了解预训练模型和迁移学习的概念和方法,以及如何利用预训练模型来加速模型的训练和提高性能。 9. 实践项目:通过实践项目来应用所学的知识,实践是巩固和提高深度学习技能的关键。可以从简单的任务开始,逐步挑战更复杂的问题。 以上是学习深度学习所需了解的一些主要方面,但深度学习是一个不断发展和变化的领域,需要持续学习和探索新的方法和技术。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

努力的小羽儿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值