深度学习
深度学习
「已注销」
这个作者很懒,什么都没留下…
展开
-
“用Kaggle API”下载比赛部分数据文件夹 | 总结与翻译外网相关资源
基本上翻遍了国内论坛都没有相关解决方法,但在外网找到了,故翻译一下并且结合自身感想写一篇文章帮助有类似问题的朋友,如果觉得不错,还请点个赞,谢啦!本次着重解决的问题是: 在远端Linux服务器上如何“使用 Kaggle API 下载”比赛中的部分文件夹数据重点在于:文件夹,而不是其中的文件我们知道如果本地要下载Kaggle比赛数据可以直接点击网页上的 Download All 进行下载或者使用Kaggle API直接远程下载到服务器上如此大的数据,一般我们也不会选择在自己的电脑上面跑,.原创 2021-07-22 22:21:11 · 818 阅读 · 1 评论 -
PyTorch深度学习实践笔记#8 | 循环神经网络(高级篇)
嗨,我是error。我来记录PyTorch深度学习实践的笔记了,这会是这个系列的最后一篇文章。个人之前都是使用tensorflow进行深度学习实践,这是第一次学习Pytorch,若笔记有误欢迎提出纠正!课件采用自B站"刘二大人"老师的视频【传送门】本节课的内容主要通过以下一个实例的讲解来讲述RNN一些更细节的部分。实例的题目是要将输入一个名字,判断他是属于哪个国家的。在日常生活中,我们也有这样的认识,根据一个人的姓名可以大致判断这个人的所属国籍。相对于我们上一讲的n-n的RNN模型,我们这次.原创 2021-06-01 21:42:59 · 352 阅读 · 5 评论 -
PyTorch深度学习实践笔记#7 | 循环神经网络(基础篇)
PyTorch深度学习实践笔记#7 | 循环神经网络(基础篇)嗨,我是error。我来记录PyTorch深度学习实践的笔记了,这会是一个系列,后面会慢慢更新。个人之前都是使用tensorflow进行深度学习实践,这是第一次学习Pytorch,若笔记有误欢迎提出纠正!课件采用自B站"刘二大人"老师的视频【传送门】其实本质上来讲RNN也是线性计算,只不过是线性计算的独特组合方式而已,通过巧妙的结构设计来获取传统线性计算不能获取的数据之间相关联信息的反馈。同时,基于参数共享的思想,使得RNN在拥有较复杂原创 2021-05-30 15:12:23 · 303 阅读 · 0 评论 -
PyTorch深度学习实践笔记#6 | 卷积神经网络(高级篇)
PyTorch深度学习实践笔记#6 | 卷积神经网络(高级篇)嗨,我是error。我来记录PyTorch深度学习实践的笔记了,这会是一个系列,后面会慢慢更新。个人之前都是使用tensorflow进行深度学习实践,这是第一次学习Pytorch,若笔记有误欢迎提出纠正!课件采用自B站"刘二大人"老师的视频【传送门】本文主要记录如何通过pytorch实现经典的resnet和inception模型。上一篇基础篇我们主要讲述了如何实现线性的CNN模型,即如下图的结构,没有复杂的跳转,也没有嵌套,整个代码结原创 2021-05-23 18:34:16 · 272 阅读 · 0 评论 -
PyTorch深度学习实践笔记#5 | 卷积神经网络(基础篇)
嗨,我是error。我来记录PyTorch深度学习实践的笔记了,这会是一个系列,后面会慢慢更新。个人之前都是使用tensorflow进行深度学习实践,这是第一次学习Pytorch,若笔记有误欢迎提出纠正!课件采用自B站"刘二大人"老师的视频【传送门】...原创 2021-05-20 14:19:43 · 179 阅读 · 0 评论 -
深度学习论文阅读笔记 | MemNet&IAN情感分析论文EMNLP 2016
深度学习论文阅读笔记 | MemNet&IAN情感分析论文EMNLP 2016嗨,我是error。这又是我的一个新系列,主要记录我阅读过的一些论文的笔记,与大家一起分享讨论,不定期更新,若有错误欢迎随时指出。泛读首先说一下整一篇论文的结构,这篇论文作者从MemNet汲取灵感,应用在多情感分类问题上面,结合注意力模型和定位取得了不错的成绩,达到了当时的SOTA。论文的核心我也已经在思维导图中标记出来了,主要是在注意力模型和定位上面。AbstractWe introduce a原创 2021-05-19 15:18:00 · 694 阅读 · 2 评论 -
PyTorch深度学习实践笔记#4 | 多分类问题
嗨,我是error。我来记录PyTorch深度学习实践的笔记了,这会是一个系列,后面会慢慢更新。个人之前都是使用tensorflow进行深度学习实践,这是第一次学习Pytorch,若笔记有误欢迎提出纠正!课件采用自B站"刘二大人"老师的视频【传送门】...原创 2021-05-16 11:22:24 · 101 阅读 · 0 评论 -
如何零基础用tensorflow搭建基本的CNN框架 | 附训练断点续练、图像展示、参数保存模块
如何零基础用tensorflow搭建基本的CNN框架 | 附训练断点续练、图像展示、参数保存模块嗨,我是error。这次的笔记是关于tensorflow基本框架的搭建,零基础带你熟悉如何应用keras搭建自己的CNN模型,并训练自己的数据,实现深度学习。代码主要参考来源自【国家精品课程】北京大学人工智能实践-TensorFlow2.0CIFAR10数据集介绍,并使用卷积神经网络训练图像分类模型Keras的八股文构建方法这篇文章主要是写给tensorflow零基础但深度学习对CNN结构有一定原创 2021-05-16 09:55:19 · 692 阅读 · 0 评论 -
Optimization algorithm summary | 几种深度学习优化算法表格、思维导图总结对比
Optimization algorithm summary | 几种深度学习优化算法表格、思维导图总结对比 嗨,好久不见,我是error,废话不多说,直接上总结。 因为目前大多数深度学习都使用了Keras和Tensorflow框架,很多时候我们都只存在如何选择哪种算法的问题,因此这里着重对比各个算法,而不做详细的解释说明算法的原理问题。如果感兴趣算法的原理,可以上吴恩达老师的课,老师在课上都有详细的说明。思维导图借用了当时上课时的笔记,主要用于复习与回顾。表格对比此表格是我参考了网上许原创 2021-04-10 10:59:49 · 416 阅读 · 0 评论 -
C5W2总领思维导图『 吴恩达序列模型:自然语言处理与词嵌入 | Natural Language Processing and Word Embeddings-WEEK2 』
原创 2021-04-08 21:45:17 · 109 阅读 · 0 评论 -
C4W3总领思维导图『 吴恩达深度卷积网络:目标检测 | Object detection-WEEK3 』
原创 2021-03-27 20:28:22 · 98 阅读 · 0 评论 -
C4W2总领思维导图『 吴恩达深度卷积网络:实例探究 | Deep convolutional models:case studies-WEEK2 』
原创 2021-03-22 12:28:19 · 108 阅读 · 0 评论 -
C4W1总领思维导图『 吴恩达卷积神经网络 | Foundations of Convolutional Neural Networks-WEEK1 』
原创 2021-03-12 10:08:46 · 130 阅读 · 0 评论 -
C3W1总领思维导图『 吴恩达结构化机器学习项目 | 机器学习ML策略-WEEK1 』
原创 2021-03-01 22:18:37 · 139 阅读 · 0 评论 -
C2W3总领思维导图『 吴恩达改善深层神经网络 | 超参数调试、Batch正则化和程序框架-WEEK3 』
原创 2021-02-25 20:23:22 · 84 阅读 · 0 评论 -
C2W2总领思维导图『 吴恩达改善深层神经网络 | 优化算法Optimization algorithms-WEEK2 』
原创 2021-02-25 07:17:43 · 158 阅读 · 0 评论 -
C2W1总领思维导图『 吴恩达改善深层神经网络 | 深度学习的实践层面-WEEK1 』
原创 2021-02-24 09:35:55 · 117 阅读 · 0 评论 -
总领思维导图『吴恩达神经网络和深度学习补充资料Part4 DeepLearning-WEEK2』
原创 2021-02-05 21:59:02 · 68 阅读 · 0 评论 -
Logistic Regression with a Neural Network mindset编程作业笔记『吴恩达神经网络和深度学习 DeepLearning-WEEK2』
原创 2021-02-04 06:51:34 · 128 阅读 · 0 评论 -
机器学习、人工智能、深度学习概念区别,历史、图灵测试介绍『华盛顿大学人工智能学习笔记 Artificial Intelligence-Day1』
原创 2021-02-02 11:07:20 · 89 阅读 · 0 评论 -
如何理解矩阵的逆和转置?『吴恩达神经网络和深度学习补充资料Part3 DeepLearning-WEEK2』
矩阵的转置如果你已经写完了这周的编程作业,你会发现在神经网络中的Forward Propogation或者Backward Propogation都需要用到矩阵的转置,也许这个过程中你有许多疑问,什么时候要用转置?矩阵的转置究竟有什么意义?先了解下定义嗯,可能你还是没有一个直观的感受,首先,矩阵的转置并不是物理上面的转,不是把A向左或者向右翻转90度,而是一种映射的转。通俗点来讲,矩阵的转置就是将一个m x n的矩阵变成n x m维度的矩阵,那么“什么时候要用转置?”的问题就迎刃而解了。在之前.原创 2021-02-01 15:12:38 · 1503 阅读 · 0 评论 -
Python的点乘*和相乘np.dot的区别?『吴恩达神经网络和深度学习补充资料Part2 DeepLearning-WEEK2』
首先我们要明白的一点是在Python中的乘法分为矩阵点乘和矩阵相乘,其实根据字面意思就能够知道两者的区别。首先我们看下在课程中吴教授用英文的解释Recall that “np.dot(a,b)” performs a matrix multiplication on a and b, whereas “a*b” performs an element-wise multiplication.矩阵点乘首先看下英文的解释In numpy the “*” operator indicates el.原创 2021-01-23 12:38:44 · 492 阅读 · 1 评论 -
如何深度理解梯度?『吴恩达神经网络和深度学习补充资料Part1 DeepLearning-WEEK2』
[WEEK2]Basics of Neural Network programming可能大家学完了这一周的课,虽然吴教授通过图像的方式给大家直观的讲解了何为梯度的概念,但其实大家对梯度还没有很清楚的理解。下面我给出较为完整的定义,并让你知道其实我们不只有“梯度下降。下面采用回形针【一个人工智能的诞生】中的截图,若有版权问题请及时联系删除在微积分中,对多元函数(即含有很多个未知数的函数)求偏导数(如果你没有学到线性代数,其实可以理解为对一个多元函数的一个元求导就是偏导数),再把求得的各个.原创 2021-01-21 22:28:23 · 242 阅读 · 0 评论