Machine Learning List

机器学习:
每多加一个符号,就多加一个变量。
每次确定给定量,其余均可变,方便分析问题。

ML(1)-激活函数sigmoid、损失函数MSE、CrossEntropyLoss
ML(2)-图像分类常用数据集
ML(3)-流型
ML(4)-核函数与再生核希尔伯特空间
ML(5)-去量纲:归一化、标准化
ML(6)-Daviad Silver强化学习课程脉络整理
ML(7)-决策树基础+sklearn.DecisionTreeClassifier简单实践
ML(8)-PCA,LDA基础+sklearn 简单实践
ML(9)-最大似然、最小KL散度、交叉熵损失函数三者的关系
ML(10)-图神经网络、PyG极简版入门笔记
ML(11)-图神经网络GNN简史、不动点建模-笔记
ML(12)-图卷积神经网络GCN-笔记
ML(13)-聚类
ML(14)-关联规则分析

MachineLearning(12)- RNN-LSTM-tf.nn.rnn_cell


1. 线性回归

pytorch实现线性回归

模型假设:假设输入属性x和输出属性Y的关系是线性的,则有假设函数
h ( x ; θ ) = h ( x ; w , b ) = w x + b h(x; \theta)=h(x;w, b)=wx +b h(x;θ)=h(x;w,b)=wx+b

模型评估:什么样的模型参数(w, b)组合是最好的? arg min ⁡ θ J ( θ ) \argmin_{\theta}\mathcal{J}( \theta) argminθJ(θ)

loss function: L [ h ( x i ; w , b ) , y ] \mathcal{L}[h(x_i; w,b), y] L[h(xi;w,b),y] 评估y_pred 和真值y的接近程度(单个样本)
cost function: J ( θ ) \mathcal{J}(\theta) J(θ) 一个模型与一批数据的接近程度(批次样本)
(以下两个个概念的诠释不准确TODO)

python实现:modle, loss_fn, grad_fn, update param
Torch实现: 自动求导、内置损失函数、optimizer、nn.Linear、nn.Sequential(三种构建方式、named_paramters()不包含无训练参数的层)、nn.Module 灵活实现自定义网络

logistic回归

pytorch实现logistic回归

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值