自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 《Python工匠:案例、技巧与工程实践》-第1章 变量与注释-1.1基础知识-学习笔记

《Python工具:案例、技巧与工程实践》学习笔记

2022-08-03 14:05:27 771 1

原创 吴恩达深度学习学习笔记-7建立神经网络

1. 训练神经网络训练神经网络时,需要做许多决策。例如,有多少层网络每层含有多少个隐藏单元学习率各层采用哪些激活函数…这些决策无法一次决定好,通常在项目启动时,我们会先有一个初步想法,然后编码,并尝试运行这些代码,再根据结果完善自己的想法,改变策略。2. train/dev/test sets通常把数据分为训练集,验证集,测试集。我们用训练集数据训练模型,用验证集做hold out cross validation,选择最好的模型,最后在测试集上进行评估。在小数据量做机器学习时,

2021-07-02 09:51:27 144

原创 CRISP-DM

“跨行业标准数据挖掘流程”(Cross Industry Standard Process for Data Mining ,CRISP-DM)1. 理解项目数据科学家试图通过了解业务需求来定义项目的目标。在项目的早期阶段,在项目的这个阶段,数据科学家将花费大量时间与业务部门(例如,销售、营销、运营部门)的同事面谈以了解业务问题。2. 理解数据这个阶段,需要分析数据。检查数据的质量,相关性等,处理缺省值,outlier,检查数据的格式,不同特征值间的独立性。3. 数据准备数据准备阶段的重点是创

2021-06-25 19:17:15 237

原创 吴恩达深度学习学习笔记-6 参数与超参数

超参数有哪些:学习率 learning rate,决定你的参数如何进化,或者梯度下降法循环的数量。隐层数量 hidden layers L隐藏单元 hidden units激活函数momentumminibatch size正则化参数这些参数的设置决定了最后的参数W和b.对于超参数的设置,可以进行不断的尝试,深度学习是一个基于时间的过程。例如learning rate,可以先尝试0.01,看看cost function J是否下降,再尝试其他的值,看是否下降的更快,收敛到更低的值。在模型

2021-06-25 17:49:13 135

原创 吴恩达深度学习学习笔记-5为什么深的神经网络表现更好

实践正面,深度深即多隐层,每层神经元节点个数不多,这样搭建的神经网络效果更好,为什么呢?我们来看一些例子。首先,深度网络究竟在计算什么。如果你在建一个人脸识别系统,深度神经网络做的事情就是,当你输入一张脸的照片,然后第一层可以看作一个特征探测器,或者边缘探测器。例如,我们建立了每层大概20多个hidden unit的神经网络。如下图,每个小方块就是一个隐藏单元,它会去找这张图片中边缘的信息。然后,把这些探测到的边缘组合成面部的不同部分,例如有些找眼睛,有些鼻子。最后再把这些部分放一起,组成一张人脸。

2021-06-25 16:38:59 343

原创 吴恩达深度学习学习笔记-4深层网络如何检查代码对错

对于深层神经网络,检查代码是否有错的方法,拿出一张纸,然后过一遍算法中矩阵的维数。实现forward propagation,需要做下面这样的计算。根据上图,已知z和x的维度,可以推到出w的维度。概括为一个更广泛的公式,如下图。对于b的维度,b需要跟wx做加法运算得到z,所以应该与z保持相同的维度,所以b的维度的公式如下图。对于back propagation,dW的维度应该和W的维度相同,db的维度和b的维度相同。对于经过激活函数的向量,维度不应该变化。下面从z到Z,考虑向量化后的维

2021-06-25 11:53:53 129

原创 吴恩达深度学习学习笔记-3激活函数activation functions

1. sigmoid函数现实中不建议使用sigmoid函数。2. tanh函数(双曲正切函数)tanh函数更像是sigmoid函数平移后的结果。相比于sigmoid函数,tanh总是效果更好。因为tanh函数的值介于-1至1之间,平均值更接近0.使用tanh函数,也有类似与数据中心化的效果。几乎所有的情况下,tanh都比sigmoid函数效果更好,只有一个例外,就是输出层。因为如果y是0或1,那么y_帽介于0到1之间更合理。所以,对于二分类问题,最后的输出层可以用sigmoid函数,隐藏层建议使用

2021-06-22 17:53:01 202 1

原创 吴恩达深度学习学习笔记-2浅层神经网络向量化

1. 双层神经网络/单隐层神经网络输入层是0层,第一层隐藏层,第二层输出层。隐藏层是一个四维的向量,有两个相关的参数W和b,W是一个(4,3)维的向量,b是(4,1)维的向量。这个的4来自隐藏层有4个输出节点,W的3来自有3个输入特征。2. 神经网络的输出是怎么计算出来的在这张图片中可以看到,隐层中节点包括2个步骤,第一个步骤是计算z=w.T*x+b,第二个步骤是计算a=sigmoid(z). 其中参数的上标表示第几层,下标表示一层中的第几个节点。如下图所示,此例中隐层的4个节点对应的计算公式

2021-06-22 15:04:30 150

原创 神经网络编程中不建议用数组,建议用向量

import numpy as np#随机生成5个高斯变量,存储再数组a中a = np.random.randn(5)print(a)print(a.shape)print(a.T) #a的转置#如果计算a和a的转置的乘积print(np.dot(a,a.T))得到一个数字注意:在神经网络编程中不建议上述做法,建议如下这样写代码。#定义a是5*1的列向量a = np.random.randn(5,1)print(a)#a的转置是一个横向量print(a.T)

2021-06-21 23:40:56 309 2

原创 python中的广播

广播可以让python代码执行的更快。在这个例子中,我们要计算每种物质的占比分别是多少。python代码如下。import numpy as npA = np.array([[56.0,0.0,4.4,68.0],[1.2,104.0,52.0,8.0],[1.8,135.0,99.0,0.9]])cal = A.sum(axis=0) #沿着纵轴计算sum,axis=1是沿着横轴计算sumpercentage = 100*A/cal.reshape(1,4) #此处使用reshap

2021-06-21 23:10:50 201

原创 吴恩达深度学习学习笔记-1

房价预测问题:使用房屋面积(x)预测价格(y)。神经元所做的,就是输入x,经过线性计算,取不小于0的值,最后输出预测价格。类似与这样的函数,从0开始,然后是shan

2021-06-21 11:05:06 129

原创 开始我的旅程

这是我在这里发的第一篇博客,以此记录我的工作和学习旅程。我的博客将关于以下几个方面的内容:1. 通俗易懂说AI2. 产品经理自修3. AI应用4. 工作体会和

2021-06-18 11:48:53 126

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除