Stanford CS229
CS229
shimly123456
这个作者很懒,什么都没留下…
展开
-
(done) 通过极大似然估计 MLE Maximum Likelihood Estimation 获得 交叉熵 Cross Entropy 以及 均方损失函数 Mean Square Loss
TODO:here。原创 2024-01-30 10:08:17 · 295 阅读 · 0 评论 -
关于 Stanford CS229 更全面的资料 (ShowMeAI)
https://blog.showmeai.tech/cs229/原创 2024-01-26 18:58:15 · 120 阅读 · 0 评论 -
斯坦福机器学习 Lecture5 (判别学习算法、GDA 高斯判别分析,skip)
目前我们学习的所有学习算法(线性回归和逻辑回归和广义线性模型 )被称为 判别学习算法(discriminative)讲解 GDA (高斯判别分析)今天要讲生成学习算法。原创 2023-12-09 21:49:16 · 57 阅读 · 0 评论 -
斯坦福机器学习 讨论课2 (内容是复习概率论,我们先 skip)
TODO: here。原创 2023-12-09 21:14:37 · 41 阅读 · 0 评论 -
斯坦福机器学习 Lecture4 (广义线性模型, skip)
这一节课讲的是泛化线性模型,不是重点,暂时 Skip。原创 2023-12-09 21:13:43 · 37 阅读 · 0 评论 -
(undone,先不管,后面需要再看) 斯坦福机器学习 Lecture13: 调试机器学习模型以及误差分析
TODO: here。原创 2024-03-22 18:21:49 · 97 阅读 · 0 评论 -
(done) 斯坦福机器学习 Lecture12: 反向传播算法详细推导过程,如何提高神经网络性能(包括激活函数的选择,输入样本正则化,权重矩阵初始化, 小批次梯度下降法,动量算法)
TODO: here。原创 2023-12-10 06:24:29 · 338 阅读 · 0 评论 -
(done) 斯坦福机器学习 讨论课4 (分类器评估指标,包括 Accuracy, Precision, Recall, F1score, ROC, AUROC, PRC, 类别不平衡)
TODO: here。原创 2024-03-19 20:42:34 · 201 阅读 · 0 评论 -
(done) 斯坦福机器学习 Lecture11: 神经网络 (从逻辑回归到神经网络,前向传播算法,稍微提了一下反向传播算法)
TODO: here。原创 2023-11-19 19:38:33 · 130 阅读 · 0 评论 -
(done) 斯坦福机器学习 Lecture3 (局部加权回归/局部加权线性回归,参数/非参数化学习,极大似然估计和损失函数的关系,最小二乘法和交叉熵的推导,牛顿法)
今天的主角是,为啥线性回归问题的cost function是误差平方和?而不是绝对误差和,或者四次方和?这里首先讲解了 局部加权回归/局部加权线性回归。卧槽,吴恩达讲得太好了。讲得很好,我都听懂了。原创 2023-11-19 16:29:50 · 134 阅读 · 0 评论 -
(done) 斯坦福机器学习 讨论课1 (复习线性代数)
TODO: here。原创 2023-11-19 14:57:10 · 24 阅读 · 0 评论 -
(done) 斯坦福机器学习 Lecture2 (假设函数、参数、样本等等术语,还有批量梯度下降法、随机梯度下降法 SGD 以及它们的相关推导,还有正态方程)
TODO: here。原创 2023-11-19 12:57:59 · 693 阅读 · 0 评论 -
(done) 斯坦福机器学习 Lecture1 (机器学习,监督学习、回归问题、分类问题定义)
笔记如下TODO:here。原创 2023-11-19 12:02:41 · 687 阅读 · 0 评论