![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 83
running snail szj
这个作者很懒,什么都没留下…
展开
-
B站视频下载扩展工具
这个网址https://chrome.pictureknow.com/tutorial提供的插件挺好用,教程详细。会自动有一个下载按钮。视频下载成flv格式,在网页上转换成mp4即可。此插件下载。原创 2022-02-28 13:04:27 · 1743 阅读 · 1 评论 -
【李宏毅机器学习】Self-attention架构详解 | 全程手码,放心食用(2021p23、24)
Self-attention想解决的问题是什么呢?一般network input 都是一个向量,输出可能是一个类别或者标量。假设我们遇到一个复杂的问题,输入是一排向量。假设输入为一个句子,每个词作为一个向量,即这个句子是多个向量。例如一段声音也可以当作一排向量,图中将25ms长度的声音信号当作一个向量。一秒声音信号可以分为一百个向量。那么输出都应该是什么呢?有三种可能:1、每一个向量都对应一个label,这个叫做Sequence labeling;机器回把句子的每个词都输出一个词性,动词名词原创 2021-12-31 10:15:47 · 1669 阅读 · 0 评论 -
【李宏毅机器学习】TransFormer框架基础储备知识(p51) 学习笔记 | 全程手码,放心食用
全文总结于哔哩大学的视频:李宏毅2020机器学习深度学习(完整版)国语2020版课后作业范例和作业说明在github上:点击此处李宏毅上传了2020版本的机器学习视频和吴恩达的CS229机器学习相比,中文版本的机器学习显得亲民了许多,李宏毅的机器学习是英文的ppt+中文讲解,非常有利于大家入门。吴恩达的CS229中偏向于传统机器学习(线性回归、逻辑回归、Naive Bayes、决策树、支持向量机等),李宏毅2020版本的机器学习中除了最前面的回归、分类,后面更多篇幅涉及卷积神经网络(CNN)、循环神经网原创 2021-12-06 23:16:23 · 625 阅读 · 0 评论 -
【李宏毅机器学习】Convolutiona Neural Network 卷积神经网络(p17) 学习笔记
全文总结于哔哩大学的视频:李宏毅2020机器学习深度学习(完整版)国语2020版课后作业范例和作业说明在github上:点击此处李宏毅上传了2020版本的机器学习视频和吴恩达的CS229机器学习相比,中文版本的机器学习显得亲民了许多,李宏毅的机器学习是英文的ppt+中文讲解,非常有利于大家入门。吴恩达的CS229中偏向于传统机器学习(线性回归、逻辑回归、Naive Bayes、决策树、支持向量机等),李宏毅2020版本的机器学习中除了最前面的回归、分类,后面更多篇幅涉及卷积神经网络(CNN)、循环神经网原创 2021-12-01 22:21:52 · 827 阅读 · 0 评论 -
【李宏毅机器学习】Why Deep Learning(p15) 学习笔记
全文总结于哔哩大学的视频:李宏毅2020机器学习深度学习(完整版)国语2020版课后作业范例和作业说明在github上:点击此处李宏毅上传了2020版本的机器学习视频和吴恩达的CS229机器学习相比,中文版本的机器学习显得亲民了许多,李宏毅的机器学习是英文的ppt+中文讲解,非常有利于大家入门。吴恩达的CS229中偏向于传统机器学习(线性回归、逻辑回归、Naive Bayes、决策树、支持向量机等),李宏毅2020版本的机器学习中除了最前面的回归、分类,后面更多篇幅涉及卷积神经网络(CNN)、循环神经网原创 2021-12-01 22:15:26 · 416 阅读 · 0 评论 -
【李宏毅机器学习】backpropagation 反向传播(p13) 学习笔记
全文总结于哔哩大学的视频:李宏毅2020机器学习深度学习(完整版)国语2020版课后作业范例和作业说明在github上:点击此处李宏毅上传了2020版本的机器学习视频和吴恩达的CS229机器学习相比,中文版本的机器学习显得亲民了许多,李宏毅的机器学习是英文的ppt+中文讲解,非常有利于大家入门。吴恩达的CS229中偏向于传统机器学习(线性回归、逻辑回归、Naive Bayes、决策树、支持向量机等),李宏毅2020版本的机器学习中除了最前面的回归、分类,后面更多篇幅涉及卷积神经网络(CNN)、循环神经网原创 2021-12-01 22:10:01 · 627 阅读 · 0 评论 -
【李宏毅机器学习】Classification_1 分类(p10) 学习笔记
全文总结于哔哩大学的视频:李宏毅2020机器学习深度学习(完整版)国语2020版课后作业范例和作业说明在github上:点击此处李宏毅上传了2020版本的机器学习视频和吴恩达的CS229机器学习相比,中文版本的机器学习显得亲民了许多,李宏毅的机器学习是英文的ppt+中文讲解,非常有利于大家入门。吴恩达的CS229中偏向于传统机器学习(线性回归、逻辑回归、Naive Bayes、决策树、支持向量机等),李宏毅2020版本的机器学习中除了最前面的回归、分类,后面更多篇幅涉及卷积神经网络(CNN)、循环神经网原创 2021-11-28 22:31:41 · 228 阅读 · 0 评论 -
二维图像分类、目标检测、语义分割、实例分割和全景分割的定义和区别?
二维上的计算机视觉的任务很多,有图像分类、目标检测、语义分割、实例分割和全景分割等,那它们的区别是什么呢?1、Image Classification(图像分类)图像分类:就是对图像判断出所属的分类,比如在学习分类中数据集有人(person)、羊(sheep)、狗(dog)和猫(cat)四种,图像分类要求给定一个图片输出图片里含有哪些分类,比如下图的例子是含有person、sheep和dog三种。2、Object detection(目标检测)目标检测:简单来说就是图片里面有什么?分别在哪里?(把原创 2021-11-25 16:48:19 · 1687 阅读 · 0 评论 -
【李宏毅机器学习2020】regress case study 回归案例研究(p3) 学习笔记
全文总结于哔哩大学的视频:李宏毅2020机器学习深度学习(完整版)国语李宏毅上传了2020版本的机器学习视频和吴恩达的CS229机器学习相比,中文版本的机器学习显得亲民了许多,李宏毅的机器学习是英文的ppt+中文讲解,非常有利于大家入门。吴恩达的CS229中偏向于传统机器学习(线性回归、逻辑回归、Naive Bayes、决策树、支持向量机等),李宏毅2020版本的机器学习中除了最前面的回归、分类,后面更多篇幅涉及卷积神经网络(CNN)、循环神经网络(RNN)、强化学习(RL)等深度学习的内容。博客内容多转载 2021-11-24 14:18:39 · 149 阅读 · 0 评论 -
【李宏毅机器学习2020】Basic Concept 基础概念(p4) 学习笔记
李宏毅机器学习学习笔记汇总 课程链接 Review 越复杂的model,在testing data上的error未必越低。 error来自两个地方: biasvariance f_star是f_hat的一个估测值,f_star可能不等于f_hat,距离可能来自于bias,也可能来自于variance方差 估测变量...转载 2021-11-24 13:50:59 · 188 阅读 · 0 评论 -
深度学习 通俗易懂GRU|门控循环单元(gated recurrent unit, GRU)(4.6)| 下
最近在恶补深度学习基础知识,以下为根据公众号“ 阿力阿哩哩”的《通俗易懂GRU|门控循环单元(gated recurrent unit, GRU)》而总结的内容。可以结合作者在哔哩大学的视频。4.6 RNN与RNN的变种结构...原创 2021-11-15 14:29:36 · 330 阅读 · 0 评论 -
深度学习 通俗易懂LSTM|RNN的变种结构 | LSTM长短期记忆网络(4.6)| 中
最近在恶补深度学习基础知识,以下为根据公众号“ 阿力阿哩哩”的《通俗易懂LSTM|RNN的变种结构 | LSTM长短期记忆网络》而总结的内容。可以结合作者在哔哩大学的视频。4.6 RNN与RNN的变种结构这一节,笔者将给大家介绍深度学习的RNN循环神经网络(Recurrent Neural Networks)与RNN结构变种LSTM长短期记忆网络(Long-Short Term Memory Networks)和GRU门控循环单元(Gated Recurrent Neural Network)。4.原创 2021-11-15 13:17:22 · 216 阅读 · 0 评论 -
深度学习通熟易懂RNN | RNN与RNN的变种结构(4.6)| 上
最近在恶补深度学习基础知识,以下为根据公众号“ 阿力阿哩哩”的《寄己训练寄己|自编码器》而总结的内容。可以结合作者在哔哩大学的视频。4.6 RNN与RNN的变种结构这一节,笔者将给大家介绍深度学习的RNN循环神经网络(Recurrent Neural Networks)与RNN结构变种LSTM长短期记忆网络(Long-Short Term Memory Networks)和GRU门控循环单元(Gated Recurrent Neural Network)。4.6.1 RNN与全连接神经网络的区别同原创 2021-11-14 11:11:49 · 307 阅读 · 0 评论 -
深度学习 | 寄己训练寄己 | 自编码器(4.5)
最近在恶补深度学习基础知识,以下为根据公众号“ 阿力阿哩哩”的《寄己训练寄己|自编码器》而总结的内容。可以结合作者在哔哩大学的视频。4.5 自编码器自编码器是一种输入等于输出的神经网络模型,可能大家会疑惑为什么要训练一个这样的模型,毕竟输入等于输出在大家看来就是一件多此一举的事情。一个简单的全连接神经网络自编码器模型如图 4.33所示。4.5.1 自编码器的原理全连接层神经网络组成的最简单的自编码器只有三层结构,中间的隐藏层才是我们所需要关注的地方,以隐藏层为界限,左边为编码器(encoder)原创 2021-11-14 10:50:00 · 3169 阅读 · 1 评论 -
深度学习 | 超参数(Hyperparameters)(4.4)| 下
最近在恶补深度学习基础知识,以下为根据公众号“ 阿力阿哩哩”的《超参数(Hyperparameters)| 下》而总结的内容。可以结合作者在哔哩大学的视频。4.4.4 常见的激励函数在谈及常见的激励函数前,我们得先知道激励函数是干什么用的。如图 4.3所示,神经元的输出值会经历一个f函数,我们将这个函数叫做激励函数(activation function)。加入激励函数的目的也非常纯粹,就是为了让神经网络模型能够逼近非线性函数。倘若我们去掉激励函数,神经元就只有线性函数y=wx+b,这样的神经网络就只原创 2021-11-13 23:56:55 · 447 阅读 · 0 评论 -
深度学习 | 超参数(Hyperparameters)(4.4)| 上
最近在恶补深度学习基础知识,以下为根据公众号“ 阿力阿哩哩”的《超参数(Hyperparameters)| 上》而总结的内容。可以结合作者在哔哩大学的视频。4.4 超参数(Hyperparameters)经过4.3节的CNN卷积神经网络原理的讲解,笔者相信大家已经迫不及待地想建属于自己的神经网络来训练了。不过,在此之前,笔者还是有一些东西要给大家介绍的。那就是神经网络的超参数(Hyperparameters),记忆力好的读者会发现笔者在上一节中就有提及超参数。不过,本节介绍的超参数与往期不同,它是所原创 2021-11-13 23:19:03 · 5129 阅读 · 0 评论 -
深度学习 | 一文掌握CNN卷积神经网络(4.3)
最近在恶补深度学习基础知识,以下为根据公众号“ 阿力阿哩哩”的《一文掌握CNN卷积神经网络》而总结的内容。可以结合作者在哔哩大学的视频。原创 2021-11-13 11:12:18 · 659 阅读 · 0 评论 -
深度学习开端 | 全连接神经网络(4.2)
最近在恶补深度学习基础知识,以下为根据公众号“ 阿力阿哩哩”的《深度学习开端-全连接神经网络》而总结的内容。可以结合作者在哔哩大学的视频。4.2全连接神经网络这一节开始,笔者开始给大家介绍深度学习的内容。至于为啥要先开始讲全连接神经网络(Fully Connected Neural Network),而不是一上来就是CNN、RNN、LSTM等。原因非常简单,上述所说的各种神经网络都是基于全连接神经网络出发的,最基础的原理都是由反向传播而来,所以读者们只要掌握了这节最基本的原理,接下来的各种网络也能学得原创 2021-11-13 10:48:10 · 209 阅读 · 0 评论 -
深度学习 | Keras 简介(4.1)
最近在恶补深度学习基础知识,以下为根据公众号“ 阿力阿哩哩”的《深度学习 | Keras 简介》而总结的内容。可以结合作者在哔哩大学的视频。4.1Keras简介说到深度学习,不可避免得会提及业界有哪些优秀的框架,Keras神经网络框架便是其中之一,它是一个高级神经网络APl,用Python编写,能够在TensorFlow,CNTK或Theano之上运行。它的开发重点是实现快速实验。能够以最小的延迟从理念到结果是进行良好研究的关键。接下来我们将要讲的神经网络原理与梯度求解,Keras都已经对它们有了很好原创 2021-11-13 10:37:12 · 921 阅读 · 0 评论