吴恩达
文章平均质量分 58
冲冲冲222
这个作者很懒,什么都没留下…
展开
-
机器学习(吴恩达)第六周-课程笔记&课后作业&编程作业
线性回归算法 首先 你需要对训练集进行学习得到参数θ 具体来讲就是最小化训练误差J(θ) 这里的J(θ)是使用那70%数据 来定义得到的 也就是仅仅是训练数据 接下来 你要计算出测试误差 我将用J下标test来表示测试误差 那么你要做的就是 取出你之前从训练集中学习得到的参数θ放在这里 来计算你的测试误差 可以写成如下的形式 这实际上是测试集 平方误差的 平均值 这也不难想象 因此 我们使用包含参数θ的假设函数对每一个测试样本进行测试 然后...原创 2021-06-12 13:47:15 · 532 阅读 · 0 评论 -
机器学习(吴恩达)第五周-课程笔记&课后作业&编程作业
Neural Networks: Learning 课程内容 测验 Neural Networks: Learning 编程作业原创 2021-06-05 23:02:39 · 304 阅读 · 2 评论 -
机器学习(吴恩达)第四周-编程作业
如果将这个题转换为神经网络,相当于这个模型只有两层:输入层和输出层,输入层由400个神经元(像素)组成,输出层由10个神经元组成,输出层的神经元编号为1到10,分别表示1到9和0(10表示0),每个神经元输出结果是预测输入图像是该神经元编号的概率,选取概率最大的神经元编号作为预测的数字。 ...原创 2021-05-30 21:55:24 · 369 阅读 · 1 评论 -
机器学习(吴恩达)第三周-编程作业
fminunc fminunc fminunc是一个优化求解器,它可以找到一个未约束函数的最小值,对于逻辑回归问题,我们需要求解代价函数的最小值,以及对应的theta值。 参数说明: options = optimset('GradObj', 'on', 'MaxIter', 400); 'GradObj' 设置为 'on' ,告诉 fminunc 我们使用的函数同时返回代价(cost)和梯度(gradient),这是的 fminunc 在最小化 cost 时使用我们自己的梯度。 ‘MaxIte转载 2021-05-30 20:45:46 · 154 阅读 · 0 评论