自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Steve Wang's blog

点滴积累,点滴成长。

  • 博客(36)
  • 问答 (2)
  • 收藏
  • 关注

原创 卷积神经网络第四周作业2: Art Generation with Neural Style Transfer - v1

来自吴恩达深度学习系列视频:卷积神经网络第四周作业2: Art Generation with Neural Style Transfer - v1。如果英文阅读对你来说有障碍,可以参考中英】【吴恩达课后编程作业】Course 4 -卷积神经网络 - 第四周作业。参照对代码的注释并不完全正确,该作业中有一个很难发现的错误,我在下面注明了。预训练模型你可以在原论文官网 MatConvNet....

2018-12-31 14:01:35 887 1

原创 卷积神经网络第四周作业1 - Face Recognition for the Happy House - v1

来自吴恩达深度学习系列视频:卷积神经网络第四周作业part1 - Face Recognition for the Happy House - v1。如果阅读英文对你来说有困难,你可以参照:【中英】【吴恩达课后编程作业】Course 4 -卷积神经网络 - 第四周作业。参照对代码的解释并不完全正确,但你可以参考其对叙述部分的解释。完整的ipynb文件见博主的github:https://g...

2018-12-30 20:33:31 709 1

原创 人脸识别相关及其内部原理

整理并翻译自吴恩达深度学习视频,卷及神经网络第四章4.1-4.5,有所详略。人脸验证和人脸识别Verification与Recognition的差异:验证:输入图像,名字/ID输出输入的图像是否和输入的名字/ID是同一个人这是个1:1问题。识别:你有一个K个人的数据库获取一张图像作为输入如果它属于K个人之一,输出这张图像对应的ID(不属于任何一个,输出不能识别)这...

2018-12-28 20:35:08 711

原创 卷积神经网络第三周作业 Autonomous driving application - Car detection - v1

来自吴恩达深度学习系列视频,卷积神经网络第三周作业Autonomous driving application - Car detection - v1,如果英文对你来说有困难,请参照【中文】【吴恩达课后编程作业】Course 4 - 卷积神经网络 - 第三周作业,参照对代码的解释并不完全正确,请注意这点。作业最后一部分包含预训练参数的yoloh5文件是博主自己生成的,方法见:yolo.h...

2018-12-26 15:57:28 1409

原创 yolo.h5文件问题的解决 - 吴恩达深度学习:目标检测之YOLO算法

在吴恩达深度学习系列视频:卷积神经网络第三周作业中,加载预训练模型时:yolo_model = load_model("model_data/yolo.h5")你会遇到yolo.h5文件找不到的情况,而当你去网上下载了一个yolo.h5文件时,可能会遇到unknown opcode等其他错误。下面让我们来自己生成一个全新的yolo.h5文件。下载预训练的权重:Linuxwget ht...

2018-12-26 15:22:09 12444 18

转载 Pushdown Automata Introduction

Basic Structure of PDAA pushdown automaton is a way to implement a context-free grammar in a similar way we design DFA for a regular grammar. A DFA can remember a finite amount of information, but a ...

2018-12-22 11:03:36 508 1

原创 卷积神经网络 第三周作业:Residual+Networks+-+v1

来自吴恩达深度学习系列视频 卷积神经网络 第三周作业:Residual+Networks±+v1,它使用Keras实现了著名ResNet50。中文翻译参照:【中文】【吴恩达课后编程作业】Course 4 - 卷积神经网络 - 第二周作业 - Keras入门与残差网络的搭建 参照对代码的解释并非完全准确,这点还请注意:完整的ipynb文件参见博主github:https://github.c...

2018-12-21 22:50:54 4502 1

原创 ResNet50及其Keras实现

ResNet = Residual Network所有非残差网络都被称为平凡网络,这是一个原论文提出来的相对而言的概念。残差网络是2015年由著名的Researcher Kaiming He(何凯明)提出的深度卷积网络,一经出世,便在ImageNet中斩获图像分类、检测、定位三项的冠军。 残差网络更容易优化,并且能够通过增加相当的深度来提高准确率。核心是解决了增加深度带来的副作用(退化问题)...

2018-12-21 22:25:38 21158 9

原创 卷积神经网络 第三周作业 Keras+-+Tutorial+-+Happy+House+v1

来自吴恩达深度学习系列视频 卷积神经网络 第三周作业 Keras±+Tutorial±+Happy+House+v1,它是一个Keras的小教程。中文翻译参照:【中文】【吴恩达课后编程作业】Course 4 - 卷积神经网络 - 第二周作业 - Keras入门与残差网络的搭建 参照对代码的结束并非完全准确,这点还请注意:完整的ipynb文件参见博主github:https://github...

2018-12-21 11:34:08 648

原创 卷积神经网络 第一周作业 Convolution+model+-+Application+-+v1

来自吴恩达深度学习系列视频,卷积神经网络 第一周作业 Convolution+model±+Application±+v1如果英文对你来说有困难,请参照:【中文】【吴恩达课后编程作业】Course 4 - 卷积神经网络 - 第一周作业 - 搭建卷积神经网络模型以及应用(1&2) 参照对代码的解释并不完全正确 请注意这点在本次作业中,你会在forward_propagation那部...

2018-12-18 17:01:09 1725 4

原创 卷积神经网络 第一周作业 convolution+model+-+Step+by+Step+-+v1

Convolutional Neural Networks: Step by StepWelcome to Course 4’s first assignment! In this assignment, you will implement convolutional (CONV) and pooling (POOL) layers in numpy, including both forwa...

2018-12-17 20:59:07 1184

原创 NP-Completeness

NP-CompletenessThe “First” NP-Complete problemTheorem. CIRCUIT-SAT is NP-complete. [Cook 1971, Levin 1973]Pf.(sketch)Any algorithm that takes a fixed number of bits n as input and produces a ye...

2018-12-16 14:54:43 638

原创 为什么要使用卷积

整理并翻译自吴恩达深度学习系列视频:卷积神经网络1.11。为什么要使用卷积假设你有32X32X3的图像,一共3072个特征点,卷积成28X28X6的图像,一共4704个特征点。如果使用传统的网络,你需要3072*4704 ≈\approx≈ 14M个参数。32X32X3的图像已经是很小的图像了,如果你是1000*1000,参数可能多到使得计算举步维艰。卷积的优点参数共享:一个特...

2018-12-15 21:10:30 3129

原创 Pooling layers

整理并翻译自吴恩达深度学习系列视频:卷积神经网络1.9Pooling layersOther than convolutional layers, ConvNets often use pooling layers to reduce the size of their representation to speed up computation, as well as to make ...

2018-12-15 19:34:02 509

原创 Stride Convolution

StrideStride,步长的意思,指的是filter移动的长度。如上图,stride=2,filter的左边框从2移动到7,2个格子的长度,垂直移动的时候也要2个格子。使用步长的图像大小计算方法⌊n+2p−fs⌋+1×⌊n+2p−fs⌋+1\lfloor \frac{n+2p-f}{s}\rfloor+1 \times \lfloor \frac{n+2p-f}{s}\rfloor...

2018-12-15 11:17:07 1610

原创 Padding\Valid convolutions\Same convolutions

整理并翻译自吴恩达深度学习系列视频:卷积神经网络1.4。Padding在对一张6*6图片进行卷积后,它变成了一张4*4的图片。直接卷积有以下2个缺点:Shrinking the output(缩小输出图像大小)Throw away info from edge(相对于中间经过多次卷积计算的部分,图像边缘信息被抛弃了)为了解决这一点问题,我们可以在图像的边缘填充(padding)...

2018-12-15 10:24:46 1114

原创 Latex修改局部字体大小

按从小到大排列,只需把这些标识符加到card中(或者其他局部)的字体之前即可起作用。\tiny\scriptsize\footnotesize\small\normalsize\large\Large\LARGE\huge\Huge...

2018-12-13 19:58:37 44472

原创 端到端的深度学习

整理并翻译来自吴恩达深度学习系列视频:结构化机器学习项目2.90和2.10.One of the most exciting recent development in deep learning, has been the rise of end-to-end deep learning.Briefly, there have been some data processing sys...

2018-12-13 15:44:47 7432

原创 多任务学习(multi-task learning)

整理并翻译自吴恩达深度学习系列视频:结构化机器学习2.8。与迁移学习的对比在迁移学习时,你有一个顺序执行的过程,先学习任务A,然后迁移到任务B。在多任务学习中,你开始就使用一个神经网络同时做几个任务,并且希望这些任务里的每一个都可以帮助到其他的任务。如上图,你需要同时检测行人、车辆、停止标志、交通信号灯。多任务学习的网络结构重点在最后一层,有四个神经元。输出yhaty^{hat...

2018-12-13 15:03:37 2343 2

原创 迁移学习(Transfer learning)

来自吴恩达深度学习系列视频第三课:结构化机器学习。吴恩达在讲授迁移学习时用了引入的方法来介绍,和你直接去查迁移学习的概念可能有些不一样。这只是角度不同,它们描述的都是同一个概念。迁移学习如图上半部分所示,它原本是一个训练图像识别的网络,该网络经过大量的数据的训练已经得到了一组参数。现在我们去掉其最后一层(仅有一个神经元,可能使用的是logistic regression),添加一个新...

2018-12-13 14:34:30 1046

原创 偏差、方差和数据不匹配

整理并翻译自吴恩达深度学习结构化机器学习第二周2.5。数据的划分目前使用的数据划分pattern如上图所示,分为以下四个部分:train set(用来训练,前向传播、后向传播)train-dev set (增加这一部分是为了检验你从训练集得到的参数能否泛化到该数据集)dev set (dev set是为了衡量多个Classifier在该数据集上的表现)tes...

2018-12-13 13:04:41 782

原创 F1 - Score\Precision\Recall The Single number evaluation metric(单一评估标准)

以下指标可以作为衡量分类问题的准确度的标准PrecisionPrecision(%)=True positivenumber of predicted positive∗100=True positiveTrue positive+False&a

2018-12-10 20:50:59 309

原创 准确度不高的时候你可以尝试的策略(总简述)

整理并翻译自吴恩达深度学习系列视频第三课结构化机器学习项目。Ideas:收集更多数据收集更多样化的数据使用梯度下降训练更长的时间使用Adam算法替代梯度下降尝试更大的网络尝试更小的网络尝试dropout加上L2L_2L2​正则改变网络结构使用不同的激活函数改变隐藏单元数目…...

2018-12-10 15:02:04 197

原创 改善深层神经网络 - 第二课第三周作业 TensorFlow Tutorial

来自吴恩达深度学习系列视频第二课第三周作业:TensorFlow Tutorial这次的作业我就直接放完整版的,之前的博文参照的有太多错误,但你可以参考其中文翻译:【中文】【吴恩达课后编程作业】Course 2 - 改善深层神经网络 - 第三周作业 - TensorFlow入门TensorFlow TutorialWelcome to this week’s programming a...

2018-12-09 19:35:47 1475

原创 TensorFlow 程序的的一般结构

来自吴恩达深度学习系列视频,博主给差不过每行代码加了详细解释。import numpy as npimport tensorflow as tfcoefficients = np.array([[1.], [-20], [100.]]) #3行一列的系数矩阵w = tf.Variable(0, dtype=tf.float32) #创建变量w为0 类型为tf.float32x...

2018-12-08 21:49:25 402

原创 在Win10上使用Anaconda创建虚拟环境并安装tensorflow(2018.12.08)

安装Anaconda很简单,只需登录官网下载安装包安装即可,你可以参考博主之前的博文:在Win10上使用Anaconda搭建TensorFlow开发环境创建tensorflow虚拟环境检查安装的python版本(base) C:\Users\wangh>pythonPython 3.7.0 (default, Jun 28 2018, 08:04:48) [MSC v.1912 ...

2018-12-08 21:11:01 6409 1

原创 Batch Norm

Batch Norm本文总结自吴恩达深度学习系列视频:优化深层神经网络的Batch Norm部分,有所删减。在tensorflow中,实现Batch Norm只需要一行代码:tf.nn.batch_normalization下面我们就了解一下Batch Norm的基本原理和计算方法。Normalizing inputs to speed up learning回想之前对输入层的...

2018-12-08 14:13:33 415

原创 改善深层神经网络 - 第二课第二周作业 Optimization+Methods

来自吴恩达深度学习视频改善深层神经网络 - 第二周作业 Optimization+Methods。如果直接看代码对你有困难的话,参见:https://blog.csdn.net/u013733326/article/details/79907419本文写法与参照稍有不同,改正了其一些错误。这次作业实现了普通的梯度下降,动量梯度下降和Adam优化算法(可以参考博主之前的博文),并进行了准确度对...

2018-12-06 22:30:02 986

原创 Adam优化算法

Adam Optimization Algorithm.Adam refer to Adaptive Moment estimation.要看懂这篇博文,你需要先看懂:指数加权平均使用动量的梯度下降法RMSprop整理并翻译自吴恩达深度学习系列视频:https://mooc.study.163.com/learn/2001281003?tid=2001391036#/learn...

2018-12-05 19:47:14 8057

原创 RMSprop

RMSprop,全称:Root Mean Sqaure prop。要看懂这篇博文,你需要先看懂:指数加权平均使用动量的梯度下降法整理并翻译自吴恩达深度学习系列视频:https://mooc.study.163.com/learn/2001281003?tid=2001391036#/learn/content?type=detail&id=2001702124&ci...

2018-12-05 16:40:28 5505

原创 使用动量的梯度下降法

整理自吴恩达深度学习系列视频:https://mooc.study.163.com/learn/2001281003?tid=2001391036#/learn/content?type=detail&id=2001702123In one sentence, the basic idea is to compute an exponentially weighted average...

2018-12-05 15:53:21 3065

原创 指数加权平均

整理自吴恩达深度学习系列视频https://mooc.study.163.com/learn/2001281003?tid=2001391036#/learn/content?type=detail&id=2001701051Also called exponentially weighted moving averages in statistics.指数加权平均,是一种计算平...

2018-12-05 15:33:48 2505

原创 改善深层神经网络 - 第二课第一周作业 1.3 3.Gradient+Checking

来自吴恩达深度学习系列视频 改善深层神经网络 - 第一周作业 1.3 3.Gradient+Checking。如果直接看代码对你来说有困难,参见:https://blog.csdn.net/u013733326/article/details/79847918该作业实现了一个示例的J=theta*x梯度下降检测,又实现了一个真正的用于网络的梯度下降检测。最后我会给出原作业及参考博客没有指出...

2018-12-02 11:38:17 629 4

原创 改善深层神经网络 - 第二课第一周作业 1.2 Regularization

来自吴恩达深度学习视频,如果直接看代码对你来说有困难,参见:https://blog.csdn.net/u013733326/article/details/79847918#正则化模型请注意原博客与作业有一些差异而且计算L2 regularization时有一个错误,这篇博客完全正确且与原作业一致# import packagesimport numpy as npimport ma...

2018-12-01 22:16:47 898

原创 改善深层神经网络 - 第二课第一周作业 1.1 Initialization

来自吴恩达深度学习视频改善深层神经网络 - 第一周作业。如果直接看代码对你来说有困难,参见:https://blog.csdn.net/u013733326/article/details/79847918这里实现了三种初始化的方法,分别是全零,较大权值,he初始化,并绘图做了效果对比。import numpy as npimport matplotlib.pyplot as plt...

2018-12-01 11:14:39 310

原创 numpy.squeeze()

numpy.squeeze()在吴恩达深度学习视频的作业里,经常遇到这样的情况。ValueError: c of shape (1, 300) not acceptable as a color sequence for x with size 300, y with size 300这是因为matplotlib.pyplot接收的color sequence 参数c应该是单个值,直接传Y...

2018-12-01 10:52:26 779

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除