第一周学习

本文介绍了无监督学习、监督学习、半监督学习和强化学习的基本概念,强调了深度学习与传统机器学习的区别。深度学习在大量数据和复杂模型下表现出色,但也面临稳定性、调试难度和模型透明性等问题。同时,概述了神经网络的基础知识,包括激活函数和梯度下降。最后,提到了PyTorch的基本数据操作。
摘要由CSDN通过智能技术生成

第一周

一、无监督学习与监督学习

无监督学习从数据中学习模式,适用于描述数据。

监督学习从数据中学习标记分界面。

半监督学习:一部分样本有标注,大部分样本没标注。

强化学习:样本标注未知,但是知道与输出目标相关的反馈。

二、人工智能分类

请添加图片描述

三、传统机器学习与深度学习的比较

传统机器学习:
1、收集几百张数据
2、花很长时间观察并选择或设计一些特征
3、用某种分类器训练和测试

深度学习:
1、收集几万张数据并标注要处理对象的位置
2、挑几个深度模型,选几组模型超参数
3、交给机器优化参数

四、深度学习中的“不能”

1、算法输出不稳定,容易被攻击
2、模型复杂度高,难以调试
3、层级复杂度高,参数不透明
4、端到端方式对数据依赖性强,模型增量性差
5、对开放性推理问题无能为力
6、人类知识无法有效引入

五、神经网络基础

常见激活函数
它是做了一个非线性变换,使得不再是简单的多层矩阵相乘
sigmod:输出从01
tanh:-11
ReLU:0和当前值的最大值
万有逼近定理
如果一个隐层包含足够多的神经元,三层前馈神经网络(输入-隐层-输出)能以任意精度逼近任意预定的连续函数。
梯度下降
沿负梯度方向更新使得函数值下降最快

六、pytorch基础

1、定义数据
一个数、一维数组 torch.tensor()
二维及以上的数组 torch.ones(2, 3)
空张量 torch.empty(2, 3)
随机初始化的张量 torch.rand(3, 5)
创建一个全0张量,并且数据类型为long torch.zeros(3, 5, dtype=torch.long)
基于现有tensor创建新tensor y = x.new_ones(3, 5)
2、基本操作
基本运算,加减乘除,求幂求余
布尔运算,大于小于,最大最小
线性运算,矩阵乘法,求模,求行列式
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值