机器学习
文章平均质量分 92
机器学习
Alex_SCY
普通大学生记录计算机学习之路,小白的进阶之路。学习过程仅供参考,欢迎交流。
展开
-
吴恩达机器学习作业 基于BP神经网络的手写数字识别
前言参考代码与作业指引请自行下载:github地址,以下为答案与解析。实验目的:理解BP神经网络的基本原理掌握BP神经网络的模型选择和参数估计方法利用手写数字数据,掌握BP神经网络,并实现对手写数字数据的识别实验要求:根据所给文档和代码注释的提示独立完成代码中的缺失部分。根据实验报告模板的步骤完成实验报告(需要有必要的图或表)方法、步骤:1. 代价函数在nnCostFunction.py中,编写代价函数根据数学公式实现代码如下所示: # 2.计算代价函数原创 2022-04-30 00:00:00 · 1465 阅读 · 5 评论 -
吴恩达机器学习作业 逻辑回归
前言参考代码与作业指引请自行下载:github链接,以下为答案与解析。逻辑回归1. sigmoid函数首要需要完成对于sigmoid函数的编写sigmoid函数的计算公式表达如下:g(z)=11+e−z g(z) = \frac{1}{1+e^{-z}} g(z)=1+e−z1具体代码实现如下所示:def sigmoid(z): g = np.zeros(z.shape) g = 1 / (1 + np.exp(-z)) return g运行主函数,我们可以原创 2022-03-29 05:47:28 · 717 阅读 · 0 评论 -
吴恩达机器学习作业 线性回归
前言参考代码与作业指引请自行下载:github链接,以下为答案与解析。单变量线性回归原创 2022-03-18 21:44:27 · 1634 阅读 · 0 评论 -
李宏毅2021机器学习笔记——Transformer
Transformer_P1_Encoder变形金刚的英文就是Transformer,那Transformer也跟我们之后会,提到的BERT有非常强烈的关係,所以这边有一个BERT探出头来,代表说Transformer跟BERT,是很有关係的Sequence-to-sequence (Seq2seq)Transformer就是一个,Sequence-to-sequence的model,他的缩写,我们会写做Seq2seq,那Sequence-to-sequence的model,又是什麼呢我们之前在讲转载 2021-08-06 01:40:56 · 1296 阅读 · 0 评论 -
李宏毅2021机器学习笔记——Self-attention
Self-attentionCNN以后,我们要讲另外一个常见的Network架构,这个架构叫做Self-Attention,而这个Self-AttentionSophisticated Input到目前為止,我们的Network的Input都是一个向量,不管是在预测这个,YouTube观看人数的问题上啊,还是影像处理上啊,我们的输入都可以看作是一个向量,然后我们的输出,可能是一个数值,这个是Regression,可能是一个类别,这是Classification但假设我们遇到更復杂的问题呢,假设我们转载 2021-07-28 03:11:21 · 580 阅读 · 1 评论 -
李宏毅2021机器学习笔记——CNN
CNN我们开始探讨 Network 的架构设计,第一个Network 架构的变形是 Convolutional 的 Neural Network,它的缩写是 CNN,它是专门被用在影像上的,我希望透过 CNN 这个例子,来让大家知道Network 的架构,它的设计有什麼样的想法,那為什麼设计 Network 的架构,可以让我们的 Network 结果做得更好。Image Classification接下来要讲的例子是跟影像有关的,我们要做影像的分类,也就是给机器一张图片,它要去决定说这张图片裡面有什麼转载 2021-07-28 02:34:31 · 595 阅读 · 0 评论 -
李宏毅2021机器学习笔记——Classification
ClassificationTo learn more接下来讲有关分类怎麼做这件事情,这边讲的是一个短的版本,因為时间有限的关係,如果你想要看长的版本的话,可以看一下过去上课的录影过去可能是花两个小时,到三个小时的时间才讲完,分类这件事情,我们这边用一个最快的方法,直接跟你讲分类是怎麼做的Classification as Regression?分类是怎麼做的呢 我们已经讲了,Regression就是输入一个向量,然后输出一个数值,我们希望输出的数值跟某一个label,也就是我们要学习的目标,越转载 2021-07-26 18:28:49 · 387 阅读 · 0 评论 -
李宏毅2021机器学习笔记——Batch Normalization
Quick Introduction of Batch Normalization本篇是一个很快地介绍,Batch Normalization 这个技术Changing Landscape之前才讲过说,我们能不能够直接改error surface 的 landscape,我们觉得说 error surface 如果很崎嶇的时候,它比较难 train,那我们能不能够直接把山剷平,让它变得比较好 train 呢?Batch Normalization 就是其中一个,把山剷平的想法我们一开始就跟大家讲说转载 2021-07-26 18:27:29 · 556 阅读 · 0 评论 -
李宏毅2021机器学习笔记——Adaptive Learning Rate
Tips for training: Adaptive Learning Ratecritical point其实不一定是,你在训练一个Network的时候,会遇到的最大的障碍,今天要告诉大家的是一个叫做Adaptive Learning Rate的技术,我们要给每一个参数不同的learning rateTraining stuck ≠ Small GradientPeople believe training stuck because the parameters are around a cri转载 2021-07-24 19:15:50 · 327 阅读 · 0 评论 -
李宏毅2021机器学习笔记——Batch and Momentum
Batch and MomentumReview: Optimization with Batch 上次我们有讲说,我们实际上在算微分的时候,并不是真的对所有 Data 算出来的 L 作微分,你是把所有的 Data 分成一个一个的 Batch,有的人是叫Mini Batch ,那我这边叫做 Batch,其实指的是一样的东西,助教投影片裡面,是写 Mini Batch 每一个 Batch 的大小呢,就是大 B 一笔的资料,我们每次在 Update 参数的时候,我们是拿大 B 一笔资料出来,算个 L转载 2021-07-24 17:50:05 · 308 阅读 · 0 评论 -
李宏毅2021机器学习笔记——Local Minimum And Saddle Point
When gradient is smallCritical PointTraining Fails because 现在我们要讲的是Optimization的部分,所以我们要讲的东西基本上跟Overfitting没有什麼太大的关联,我们只讨论Optimization的时候,怎麼把gradient descent做得更好,那為什麼Optimization会失败呢? 你常常在做Optimization的时候,你会发现,随著你的参数不断的update,你的training的loss不会再下降,但是转载 2021-07-24 17:49:16 · 766 阅读 · 0 评论 -
李宏毅2021机器学习笔记——General Guidance
General Guidance : overfitFramework of ML 我们已经看了作业一了,其实之后好几个作业,它看起来的样子,基本上都是大同小异 就是你会有一堆训练的资料,这些训练集裡面,会包含了xxx跟yyy的hat,x¹x¹x¹ 和跟它对应的y^¹ŷ¹y^¹,x²x²x² 跟它对应的y^²ŷ²y^²,一直到xⁿxⁿxⁿ 还有它对应的y^ⁿŷⁿy^ⁿ 测试集,测试集就是你只有x没有y,其实在之后每一个作业,看起来都是非常类似的格式作业二,其实是做语音辨识,我们的转载 2021-07-24 00:03:20 · 753 阅读 · 0 评论 -
李宏毅2021机器学习笔记——Regression
RegressionMachine Learning 第一堂课 是要简单跟大家介绍一下machine learning还有deep learning的基本概念,等一下会讲一个跟宝可梦完全没有关係的故事。想必大家在报章杂志上其实往往都已经听过机器学习这一个词汇,那你可能也知道说机器学习就是跟今天很热门的AI好像有那么一点关联。 那所谓的机器学习到底是什么呢?顾名思义,机器他具备有学习的能力,那些科普文章往往把机器学习这个东西吹得玄之又玄好像机器会学习以后,我们就有了人工智慧,有了人工智慧以后机器接下转载 2021-07-22 00:54:07 · 935 阅读 · 1 评论