【引言】浙大机器学习课程记录

  • 让计算机自己总结规律的编程方式

Arthur Samuel 所定义的机器学习是专指这种非显著式编程的方式

非显著式编程方式的做法:

​ 我们规定了行为和收益函数后,让计算机自己去找最大化收益函数的行为

让计算机通过数据、经验自动的学习。

第二种定义


来自于1998年 Tom Mistshell 在《MACHINE LEARNING》书中给出的定义

A computer program is said to learn from experience E with respect to some task T and some performance measurc P, if its performance on T, as measured by P , improves with experience E

一个计算机程序被称为可以学习,是指它能够针对某个任务 T 和某个性能指标 P,从经验 E 中学习。这种学习的特点是,它在 T 上的被 P 所衡量的性能,会随着经验 E 的增加而提高。

据 Tom Mitshell 的定义,机器学习为为识别不同任务而改造某种算法

这种算法的特点

​ 随着 Experience 的增多,Performance Measure 也会提高

这种算法的具体体现

| 标识 | 动作 |

| :-: | :-: |

| 任务 T | 设计程序让 AI执行某种行为 |

| 经验 E | AI 多次尝试的行为和这些行为产生的结果 |

| 性能测试 P | 在规定时间内成功执行的次数 |

据经验 E 来提高性能指标 P 的过程,为典型的最优化问题


机器学习的分类

======================================================================

按照任务性质的不同进行分类为:

  • 监督学习

  • 强化学习

  • 计算机通过与环境的互动逐渐强化自己的行为模式

但不绝对

这里主要介绍了监督学习

监督学习


(1)监督学习根据数据标签存在与否分类为:

  • 传统监督学习(Traditional Supervised Learning)

  • 非监督学习(Unsupervised Learning)

  • 半监督学习(Semi-supervised Learning)

(2)基于标签的固有属性,按照标签是连续还是离散分类为:

  • 分类问题

  • 回归问题

基于标签存在分类

传统监督学习

Traditional Supervised Learning每一个训练数据都有对应的标签

算法包括

  • 支持向量机 (SUPPORT VECTOR MACHINE)

  • 人工神经网络(NEURAL NETWORKS)

  • 深度神经网络(Deep Neural Networks)

非监督学习

Unsupervised Learning 中所有的训练数据都没有对应的标签

Traditional Supervised Learning中的数据可能有像:X 代表一类,圆形代表另一类,但在 Unsupervised Learning 中可能如下图:

image-20211018193153360

尽管我们不知道训练数据的类别标签,但我们可以这样处理:

Created with Raphaël 2.3.0 假设 同一类的训练数据在空间中距离更近 样本的空间信息 设计算法将它们聚类为两类 无监督学习

算法包括

  • 聚类(Clustering)

  • EM 算法(Expectation–Maximizationg algorithm)

  • 主成分分析(Principle Component Analysis)

半监督学习

Semi-supervised Learning 中训练数据中有一部分有标签,一部分没有标签

在大量的数据面前,数据标注是成本巨大的工作

所以我们需要:

少量的标注数据 + 大量未标注数据 训练一个更好的机器学习算法

例如下图:

image-20211018200032934

在左边,如果只有两个标注过的训练样本,那么便不好进行分类;如果像右图增加没有标签的训练样本,那么可能设计算法就能实现更准确的分类。

基标签固有属性分类

分类和回归的分别是十分模糊的,因为离散和连续的区别也是模糊的。

我们主要研究机器学习模型解决分类问题

分类

Classifcation:标签是离散的值

例如人脸识别为分类问题

如图:

image-20211018201035642

模式一为双人脸比对,模式二为人群中单人脸匹配。

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数前端工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Web前端开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且会持续更新!

如果你觉得这些内容对你有帮助,可以扫码获取!!(备注:前端)


前端面试题汇总


前端面试题是我面试过程中遇到的面试题,每一次面试后我都会复盘总结。我做了一个整理,并且在技术博客找到了专业的解答,大家可以参考下:

由于篇幅有限,只能分享部分面试题,完整版面试题及答案可以【点击我】阅读下载哦~无偿分享给大家

感悟

/img_convert/0432b8e539325b94948089383d0bfa8c.png)

由于篇幅有限,只能分享部分面试题,完整版面试题及答案可以【点击我】阅读下载哦~无偿分享给大家

感悟

春招面试的后期,运气和实力都很重要,自己也是运气比较好,为了回馈粉丝朋友们(毕竟自己也玩了这么久哈哈哈),整理个人感悟和总结以上。最后祝愿大家能够收获理想offer!!

浙江大学人工智能课程课件,内容有: Introduction Problem-solving by search( 4 weeks) Uninformed Search and Informed (Heuristic) Search (1 week) Adversarial Search: Minimax Search, Evaluation Functions, Alpha-Beta Search, Stochastic Search Adversarial Search: Multi-armed bandits, Upper Confidence Bound (UCB),Upper Confidence Bounds on Trees, Monte-Carlo Tree Search(MCTS) Statistical learning and modeling (5 weeks) Probability Theory, Model selection, The curse of Dimensionality, Decision Theory, Information Theory Probability distribution: The Gaussian Distribution, Conditional Gaussian distributions, Marginal Gaussian distributions, Bayes’ theorem for Gaussian variables, Maximum likelihood for the Gaussian, Mixtures of Gaussians, Nonparametric Methods Linear model for regression: Linear basis function models; The Bias-Variance Decomposition Linear model for classification : Basic Concepts; Discriminant Functions (nonprobabilistic methods); Probabilistic Generative Models; Probabilistic Discriminative Models K-means Clustering and GMM & Expectation–Maximization (EM) algorithm, BoostingThe Course Syllabus Deep Learning (4 weeks) Stochastic Gradient Descent, Backpropagation Feedforward Neural Network Convolutional Neural Networks Recurrent Neural Network (LSTM, GRU) Generative adversarial network (GAN) Deep learning in NLP (word2vec), CV (localization) and VQA(cross-media) Reinforcement learning (1 weeks) Reinforcement learning: introduction
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值