- 博客(14)
- 收藏
- 关注
原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第四周课后习题 Deep Neural Network - Application v3
Good night and sweet dreams~
2017-12-20 23:57:37 633
原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第四周课后习题 Building your Deep Neural Network - Step by Step v5
今天状态好差。。。 感觉每执行一步都有错 : (
2017-12-20 22:53:25 2174
原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第三周课后习题 Key concepts on Deep Neural Networks Quiz, 10 questions
有两道题没有图片。。。难受
2017-12-20 17:41:23 2071
原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第三周课后习题 Planar data classification with a hidden layer
第一次,一次满分,开心
2017-12-19 21:50:22 1156
原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第三周课后习题 Shallow Neural Networks Quiz, 10 questions
这次的题有陷阱0.0
2017-12-19 20:42:39 3111 5
原创 numpy中的dot()函数
一开始看到这个函数的时候,总是把它想成点积,因为dot是点的意思。。。后来在经历了dot()和*完全搞混,犯下错误之后,才终于弄明白了。dot()计算的事我们经常计算的矩阵乘法,设A(2 * 3), B(3 * 4), 那么dot(A, B)就表示两个矩阵相乘,得到的结果是一个2 * 4的矩阵。而*,相当于matlab中的.*, 也就是真正的点积,即元素对应相乘。 两个向量a = [a1, a2
2017-12-19 09:22:23 32196 6
原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第二周课后习题 Logistic Regression with a Neural Network mindset
疑犯追踪(POI)里,Finch找到John说:You need a purpose.
2017-12-18 23:07:51 1746
原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第二周课后习题 Python Basics with numpy (optional)
get了截长图的新技能✅
2017-12-18 22:57:02 1530 2
原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第二周课后习题 Neural Network Basics Quiz, 10 questions
解决问题就像打怪
2017-12-18 22:46:13 2713
原创 coursera 吴恩达 -- 第一课 神经网络和深度学习 :第一周课后习题 Neural Network Basics
我们的一生中,都在不断遇到问题,每解决一个问题,我们又强大了一点。
2017-12-18 22:31:28 3331
原创 numpy中的squeeze()函数
numpy.squeeze(a, axis=None)squeeze()函数的功能是:从矩阵shape中,去掉维度为1的。例如一个矩阵是的shape是(5, 1),使用过这个函数后,结果为(5,)。参数: a是输入的矩阵 axis : 选择shape中的一维条目的子集。如果在shape大于1的情况下设置axis,则会引发错误。栗子: 要使用numpy先导入numpy库 import nump
2017-12-18 20:50:13 23267
原创 中国大学MOOC-陈越、何钦铭-数据结构-起步能力自测题&代码
题目网址自测-1 打印沙漏(20 point(s))本题要求你写个程序把给定的符号打印成沙漏的形状。例如给定17个“*”,要求按下列格式打印所谓“沙漏形状”,是指每行输出奇数个符号;各行符号中心对齐;相邻两行符号数差2;符号数先从大到小顺序递减到1,再从小到大顺序递增;首尾符号数相等。给定任意N个符号,不一定能正好组成一个沙漏。要求打印出的沙漏能用掉尽可能多的符号。 输入格式:输入在一行给出1个正
2017-12-16 17:54:57 2430
原创 深度学习引论(三):损失函数、BP算法
损失函数(cost function)经过上一节课的学习,我们已经对神经网络有了一定的概念。而评价一个神经网络的性能,往往使用损失函数来评价。在有监督的学习中,每一次的训练,我们都已知目标输出,通常将神经网络真实的输出与已知目标输出的距离作为损失函数,两者相差越小,则认为神经网络性能越好,若两者相差很大,则认为神经网络性能不好。设目标输出为yLy^L,神经网络的输出为aLa^L(两者都是n*1的列向
2017-12-16 17:47:57 5531
原创 深度学习引论(二):计算模型
神经元的计算模型特征:多输入、单输出 基本功能:收集、转换 (图片来自百度图片(捂脸))x1, x2, …, xn表示神经元的输入,eg.要预测一套房子的价格时,输入可以是房子的面积、位置、装修等等w1, w2, …, wn表示连接权,可理解为上一步输入的内容每一项所占的权重,比如面积占的权重较大,位置所占的权重稍小神经元根据输入和连接权,计算输出。计算输出需要两步,首先是要把每个因素都考
2017-12-15 11:19:58 948
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人