机器学习
文章平均质量分 86
marsggbo
这个作者很懒,什么都没留下…
展开
-
【论文笔记系列】AutoML:A Survey of State-of-the-art (上)
之前已经发过一篇文章来介绍我写的AutoML综述,最近把文章内容做了更新,所以这篇稍微细致地介绍一下。由于篇幅有限,下面介绍的方法中涉及到的细节感兴趣的可以移步到论文中查看。论文地址:https://arxiv.org/abs/1908.007091. Introduction以往的模型都是靠大佬们不断试错和调参炼丹炼出来的,而且不同场景或者不同类型的数据集又得设计不同的网络模型,而我等...原创 2020-03-09 10:58:09 · 448 阅读 · 0 评论 -
Andrew Ng机器学习课程笔记--week8
Unsupervised Learning 本周我们讲学习非监督学习算法,会学习到如下概念 - 聚类(clustering) - PCA(Principal Componets Analysis主成分分析),用于加速学习算法,有时在可视化和帮助我们理解数据的时候会有难以置信的作用。一、内容概要Clustering K-Means AlgorithmOptimization Objecti原创 2017-08-13 22:29:57 · 737 阅读 · 0 评论 -
通俗理解决策树中的熵&条件熵&信息增益
参考通俗理解决策树算法中的信息增益说到决策树就要知道如下概念:熵:表示一个随机变量的复杂性或者不确定性。假如双十一我要剁手买一件衣服,但是我一直犹豫着要不要买,我决定买这件事的不确定性(熵)为2.6。条件熵:表示在直到某一条件后,某一随机变量的复杂性或不确定性。我在看了这件衣服的评价后,我决定买衣服这件事的不确定性是1.2。 我在线下实体店试穿衣服后,我决定买衣服这件事的不确定性是0.9原创 2017-08-24 17:39:44 · 4224 阅读 · 0 评论 -
Python实现knn算法手写数字识别
KNN实现手写数字识别1 - 导入模块import numpy as npimport matplotlib.pyplot as pltfrom PIL import Image%matplotlib inline2 - 导入数据及数据预处理因为我下载的mnist数据是*.gz格式的,所以为了方便读取数据就是用了TensorFlow提供的模块。import tensorflow as tf#原创 2017-08-21 20:57:18 · 2478 阅读 · 1 评论 -
Andrew Ng机器学习课程笔记--week7
本周主要学习SVM一、 内容概要Large Margin Classification Optimization Objective(优化Objective(损失函数))Large Margin Intuition(大边距的直观理解)Mathematics Behind Large Magin Classification(最大间距分类器背后的数学推导)Kernels Kernels 1原创 2017-08-12 15:35:32 · 751 阅读 · 0 评论 -
DeepLearning.ai学习笔记(一)神经网络和深度学习--Week3浅层神经网络
介绍 DeepLearning课程总共五大章节,该系列笔记将按照课程安排进行记录。 另外第一章的前两周的课程在之前的Andrew Ng机器学习课程笔记(博客园)&Andrew Ng机器学习课程笔记(CSDN)系列笔记中都有提到,所以这里不再赘述。1、神经网络概要 注意:这一系列的课程中用中括号表示层数,例如a[1]a^{[1]}表示第二层(隐藏层)的数据。2、神经网络表示 这个原创 2017-08-30 16:11:46 · 625 阅读 · 0 评论 -
神经网络权重初始化问题
之前看Andrew大神的视频有介绍到神经网络权重需要随机初始化而不是全初始化为0的问题,其真正深层次的含义没有弄明白,所以结合一些资料(cs231n课程)希望能让自己之后再想到这个问题的时候能够快速地明白过来。 另外这篇文章其实是一篇译文,所以翻译不是很确定的地方也将原文中的英文语句复制在句后,如果有更合适的翻译也请留言告知一下,谢谢! 参考文献: CS231n Convolut翻译 2017-09-01 12:24:26 · 29778 阅读 · 1 评论 -
DeepLearning.ai学习笔记(一)神经网络和深度学习--Week4深层神经网络
一、深层神经网络深层神经网络的符号与浅层的不同,记录如下: - 用LL表示层数,该神经网络L=4L=4 - n[l]n^{[l]}表示第ll层的神经元的数量,例如n[1]=n[2]=5,n[3]=3,n[4]=1n^{[1]}=n^{[2]}=5,n^{[3]}=3,n^{[4]}=1 - a[l]a^{[l]}表示第ll层中的激活函数,a[l]=g[l](z[l])a^{[l]}=g^{[l原创 2017-09-02 14:46:51 · 1309 阅读 · 0 评论 -
毕设周记
周记实验记录时间:2018年3月31日地点:寝室运行环境:Pytorch,实验室服务器,SIW-13数据集这一周我使用了如下几种方法对数据集进行测试,结果分别如下:1.vgg16_bn直接将每张图片缩放到固定大小224*224,之后传入vgg16模型中进行训练。其中在训练过程中,当准确率分别达到85%,90%,95%以上时都会对模型进行保存,以便于对后面...原创 2018-03-31 23:18:31 · 4584 阅读 · 2 评论 -
Andrew Ng机器学习课程笔记--week6
Advice for applying machine learning 本周主要学习如何提升算法效率,以及如何判断学习算法在什么时候表现的很糟糕和如何debug我们的学习算法。为了让学习算法表现更好,我们还会学习如何解决处理偏态数据(skewed data)。以下内容部分参考我爱公开课-Advice for applying machine learning一、内容概要Evaluatin原创 2017-08-11 11:10:41 · 578 阅读 · 0 评论 -
Andrew Ng机器学习课程笔记--汇总
转载请附上原链接。 必须抱怨一下CSDN。。太垃圾了,连文章标题都不能修改。Andrew Ng机器学习课程笔记–week1(机器学习简介&线性回归模型)Andrew Ng机器学习课程笔记–week2(多元线性回归&正规公式)Andrew Ng机器学习课程笔记–week3(逻辑回归&正则化参数)Andrew Ng机器学习课程笔记–week4(神经网络)Andrew Ng机器学习课程笔记–原创 2017-08-16 14:01:15 · 3748 阅读 · 0 评论 -
Andrew Ng机器学习课程笔记--week10--优化梯度下降
本周主要介绍了梯度下降算法运用到大数据时的优化方法。一、内容概要Gradient Descent with Large Datasets Stochastic Gradient DescentMini-Batch Gradient DescentStochastic Gradient Descent ConvergenceAdvanced Topics Online LearningM原创 2017-08-16 13:20:24 · 585 阅读 · 0 评论 -
Andrew Ng机器学习课程笔记--week9(上)
本周内容较多,故分为上下两篇文章。 本文为上篇。一、内容概要1. Anomaly DetectionDensity Estimation Problem MotivationGaussian DistributionAlgorithmBuilding an Anomaly Detection System(创建异常检测系统) Developing and Evaluating an原创 2017-08-14 20:54:51 · 545 阅读 · 0 评论 -
Andrew Ng机器学习课程笔记–week1(机器学习简介&线性回归模型)
Andrew Ng机器学习课程笔记–week1之前看过一遍,但是总是模模糊糊的感觉,也刚入门,虽然现在也是入门,但是对于一些概念已经有了比较深的认识(相对于最开始学习机器学习的时候)。所以为了打好基础,决定再次学习一下Andrew Ng的课程,并记录笔记以供以后复习参考。1. 内容概要Introduction 什么是机器学习监督学习非监督学习Linear Regression with O原创 2017-08-02 20:28:46 · 2177 阅读 · 0 评论 -
Andrew Ng机器学习课程笔记--week2(多元线性回归&正规公式)
Andrew Ng机器学习课程笔记–week21. 内容概要Multivariate Linear Regression(多元线性回归) 多元特征多元变量的梯度下降特征缩放Computing Parameters Analytically 正规公式(Normal Equation )正规公式非可逆性(Normal Equation Noninvertibility)2. 重点&难点原创 2017-08-02 20:32:48 · 1420 阅读 · 0 评论 -
Andrew Ng机器学习课程笔记--week5(上)
Neural Networks: Learning 内容较多,故分成上下两篇文章。一、内容概要Cost Function and Backpropagation Cost FunctionBackpropagation AlgorithmBackpropagation IntuitionBackpropagation in PracticeApplication of Neural N原创 2017-08-05 23:52:26 · 1219 阅读 · 0 评论 -
Andrew Ng机器学习课程笔记--week5(下)
Neural Networks: Learning 内容较多,故分成上下两篇文章。Andrew Ng机器学习课程笔记–week5(上)一、内容概要Cost Function and BackpropagationCost FunctionBackpropagation AlgorithmBackpropagation IntuitionBackpropagation in Practice原创 2017-08-07 00:00:30 · 749 阅读 · 0 评论 -
Andrew Ng机器学习课程笔记--week3
Logistic Regression一、内容概要Classification and Representation ClassificationHypothesis RepresentationDecision BoundaryLogistic Regression Model 损失函数(cost function)简化损失函数和梯度下降算法Advanced Optimizatio原创 2017-08-03 11:55:45 · 1472 阅读 · 1 评论 -
Andrew Ng机器学习课程笔记--week11(图像识别&总结划重点)
一、内容概要Photo OCR Problem Decription and pipeline(问题描述和流程图)Sliding Windows(滑动窗口)Getting Lots of Data and Artificial DataCeiling Analysis(上限分析):What part of the pipline to Work on Next二、重点&难点1. Prob原创 2017-08-16 17:26:24 · 765 阅读 · 0 评论 -
Andrew Ng机器学习课程笔记--week9(下)
本周内容较多,故分为上下两篇文章。 本文为下篇。一、内容概要1. Anomaly DetectionDensity Estimation Problem MotivationGaussian DistributionAlgorithmBuilding an Anomaly Detection System(创建异常检测系统) Developing and Evaluating an原创 2017-08-15 16:46:21 · 788 阅读 · 0 评论