自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第四周课后习题 Deep Neural Network - Application v3

Good night and sweet dreams~

2017-12-20 23:57:37 633

原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第四周课后习题 Building your Deep Neural Network - Step by Step v5

今天状态好差。。。 感觉每执行一步都有错 : (

2017-12-20 22:53:25 2174

原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第三周课后习题 Key concepts on Deep Neural Networks Quiz, 10 questions

有两道题没有图片。。。难受

2017-12-20 17:41:23 2071

原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第三周课后习题 Planar data classification with a hidden layer

第一次,一次满分,开心

2017-12-19 21:50:22 1156

原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第三周课后习题 Shallow Neural Networks Quiz, 10 questions

这次的题有陷阱0.0

2017-12-19 20:42:39 3111 5

原创 numpy中的dot()函数

一开始看到这个函数的时候,总是把它想成点积,因为dot是点的意思。。。后来在经历了dot()和*完全搞混,犯下错误之后,才终于弄明白了。dot()计算的事我们经常计算的矩阵乘法,设A(2 * 3), B(3 * 4), 那么dot(A, B)就表示两个矩阵相乘,得到的结果是一个2 * 4的矩阵。而*,相当于matlab中的.*, 也就是真正的点积,即元素对应相乘。 两个向量a = [a1, a2

2017-12-19 09:22:23 32196 6

原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第二周课后习题 Logistic Regression with a Neural Network mindset

疑犯追踪(POI)里,Finch找到John说:You need a purpose.

2017-12-18 23:07:51 1746

原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第二周课后习题 Python Basics with numpy (optional)

get了截长图的新技能✅

2017-12-18 22:57:02 1530 2

原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第二周课后习题 Neural Network Basics Quiz, 10 questions

解决问题就像打怪

2017-12-18 22:46:13 2713

原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第一周课后习题 Neural Network Basics

我们的一生中,都在不断遇到问题,每解决一个问题,我们又强大了一点。

2017-12-18 22:31:28 3331

原创 numpy中的squeeze()函数

numpy.squeeze(a, axis=None)squeeze()函数的功能是:从矩阵shape中,去掉维度为1的。例如一个矩阵是的shape是(5, 1),使用过这个函数后,结果为(5,)。参数: a是输入的矩阵 axis : 选择shape中的一维条目的子集。如果在shape大于1的情况下设置axis,则会引发错误。栗子: 要使用numpy先导入numpy库 import nump

2017-12-18 20:50:13 23267

原创 中国大学MOOC-陈越、何钦铭-数据结构-起步能力自测题&代码

题目网址自测-1 打印沙漏(20 point(s))本题要求你写个程序把给定的符号打印成沙漏的形状。例如给定17个“*”,要求按下列格式打印所谓“沙漏形状”,是指每行输出奇数个符号;各行符号中心对齐;相邻两行符号数差2;符号数先从大到小顺序递减到1,再从小到大顺序递增;首尾符号数相等。给定任意N个符号,不一定能正好组成一个沙漏。要求打印出的沙漏能用掉尽可能多的符号。 输入格式:输入在一行给出1个正

2017-12-16 17:54:57 2430

原创 深度学习引论(三):损失函数、BP算法

损失函数(cost function)经过上一节课的学习,我们已经对神经网络有了一定的概念。而评价一个神经网络的性能,往往使用损失函数来评价。在有监督的学习中,每一次的训练,我们都已知目标输出,通常将神经网络真实的输出与已知目标输出的距离作为损失函数,两者相差越小,则认为神经网络性能越好,若两者相差很大,则认为神经网络性能不好。设目标输出为yLy^L,神经网络的输出为aLa^L(两者都是n*1的列向

2017-12-16 17:47:57 5531

原创 深度学习引论(二):计算模型

神经元的计算模型特征:多输入、单输出 基本功能:收集、转换 (图片来自百度图片(捂脸))x1, x2, …, xn表示神经元的输入,eg.要预测一套房子的价格时,输入可以是房子的面积、位置、装修等等w1, w2, …, wn表示连接权,可理解为上一步输入的内容每一项所占的权重,比如面积占的权重较大,位置所占的权重稍小神经元根据输入和连接权,计算输出。计算输出需要两步,首先是要把每个因素都考

2017-12-15 11:19:58 948

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除