自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

静静的学习就好

主要兴趣方向是机器学习、深度学习相关思想。

  • 博客(289)
  • 收藏
  • 关注

原创 gradio简单搭建——关键词简单筛选【2024-4-11优化】

gradio简单搭建——关键词简单筛选(2024-4-11 优化)

2024-04-11 21:00:00 643

原创 gradio简单搭建——关键词匹配筛选【2024-4-10 优化】

gradio简单搭建——关键词匹配筛选(进一步优化)

2024-04-10 22:30:00 768

原创 gradio简单搭建——关键词匹配筛选

结合上一节的apply方法,使用gradio搭建一个关键词匹配筛选的交互界面

2024-04-10 19:00:00 317

原创 Dataframe关于apply方法自定义函数的使用记录和效率测试

DataFrame.apply()方法相关的简单用例

2024-04-09 15:00:24 436

原创 python风格规范之Shadows name ‘XXX‘ from outer scope

规范错误/警告:Shadows name 'XXX' from outer scope

2023-12-26 14:47:09 696 1

原创 python风格规范之do not compare types, for exact checks use `is` / `is not`, for instance chec

规范错误/警告:do not compare types...

2023-12-25 11:52:38 568

原创 python风格规范之missing whitespace after

规范错误/警告:missing whitespace after ""...

2023-12-25 11:24:33 693

原创 深度学习笔记之优化算法(八)Adam算法的简单认识

上一节介绍了基于Nesterov动量与RMSProp的融合算法,本节将介绍《深度学习(花书)》P187 8.5自适应学习率算法中的最后一个算法:Adam算法。

2023-10-11 20:44:26 702

原创 深度学习笔记之优化算法(七)总结与延伸:使用Nesterov动量的RMSProp算法

上一节介绍了RMSProp算法,本节在其基础上进行延伸,介绍基于Nesterov动量的RMSProp算法。

2023-10-11 14:39:11 529

原创 深度学习笔记之优化算法(六)RMSprop算法的简单认识

上一节对AdaGrad算法进行了简单认识,本节将介绍RMSProp方法。

2023-10-10 18:40:39 419

原创 深度学习笔记之优化算法(五)AdaGrad算法的简单认识

上一节对Nesterov动量法进行了简单认识,本节将介绍AdaGrad方法。

2023-10-09 18:58:06 487

原创 深度学习笔记之优化算法(四)Nesterov动量方法的简单认识

上一节对动量法进行了简单认识,本节将介绍Nesterov动量方法。

2023-10-08 18:56:00 2271

原创 深度学习笔记之优化算法(三)动量法的简单认识

上一节介绍了随机梯度下降(Stochastic Gradient Descent,SGD),本节将介绍动量法。

2023-10-07 19:57:57 634

原创 深度学习笔记之优化算法(二)随机梯度下降

本节将介绍随机梯度下降(Stochastic Gradient Descent,SGD)

2023-09-28 11:37:54 338

原创 深度学习笔记之优化算法(一)铺垫:梯度下降法VS最速下降法

从本节开始,将介绍深度学习中常见的优化算法。在介绍随机梯度下降之前,将针对最速下降法与梯度下降法之间差异性做一些说明。

2023-09-19 18:08:03 392 1

原创 机器学习笔记之无约束优化问题——(阶段性收尾)共轭方向法与Wolfe准则优化方法Python示例

本节使用Python对共轭梯度法的精确搜索与非精确搜索进行示例。

2023-09-16 18:17:07 845

原创 机器学习笔记之最优化理论与算法(十二)无约束优化问题——共轭梯度法

上一节主要介绍了共轭方向法的重要特征以及相关证明,本节将介绍共轭方向法的代表算法——共轭梯度法。

2023-09-13 13:44:34 994

原创 机器学习笔记自最优化理论与方法(十一)无约束优化问题——关于共轭方向法重要特征的相关证明

上一节介绍了共轭方向法的朴素思想与几何意义。本节将继续介绍共轭方向法的重要特征以及相关证明。

2023-09-12 16:14:52 566

原创 机器学习笔记之最优化理论与方法(十)无约束优化问题——共轭梯度法背景介绍

本节将介绍共轭梯度法,并重点介绍共轭方向法的逻辑与几何意义。

2023-09-10 22:06:08 956

原创 机器学习笔记之最优化理论与方法(九)无约束优化问题——常用求解方法(下)

上一节介绍了牛顿法、拟牛顿法。本节将继续以拟牛顿法为基础,介绍DFP,BFGS方法。

2023-09-07 19:16:31 501 1

原创 机器学习笔记之最优化理论与方法(八)无约束优化问题——常用求解方法(中)

本节将继续介绍无约束优化问题的常用求解方法,包括牛顿法、拟牛顿法。

2023-09-07 12:16:44 822

原创 机器学习笔记之最优化理论与方法(七)无约束优化问题——常用求解方法(上)

本节将介绍无约束优化问题的常用求解方法,包括坐标轴交替下降法、最速下降法。

2023-09-05 18:46:21 1309

原创 机器学习笔记之最优化理论与方法(六)无约束优化问题——最优性条件

本节将介绍无约束优化问题,主要介绍无约束优化问题最优解的相关性质。

2023-09-04 19:24:56 1824

原创 机器学习笔记之最优化理论与方法(五)凸优化问题(上)

本节将介绍凸优化问题,主要介绍凸优化问题的基本定义、凸优化与非凸优化问题的区分。

2023-09-03 19:15:57 891

原创 机器学习笔记之最优化理论与方法(四) 凸函数:定义与基本性质

本节将介绍凸函数定义及其基本性质。

2023-09-02 16:01:23 1673

原创 机器学习笔记之最优化理论与方法(三)凸集的简单认识(下)

继续凸集的简单认识(上)进行介绍,本节将介绍凸集的基本性质以及相关定理。

2023-08-31 17:43:55 854

原创 机器学习笔记之最优化理论与方法(二)凸集的简单认识(上)

本节将介绍关于凸集的基本信息,包括概念、基本性质以及常见凸集。

2023-08-30 19:39:35 950

原创 机器学习笔记之核函数再回首:Nadarya-Watson核回归python手写示例

本节从代码角度,介绍基于高维特征向量使用Nadaraya-Watson核回归的示例。

2023-08-29 18:24:07 1812

原创 机器学习笔记之最优化理论与方法(一)最优化问题概述

从本节开始,将对最优化理论与方法进行简单认识。

2023-08-29 16:09:25 1403

原创 机器学习笔记之优化算法(二十)牛顿法与正则化

本节我们介绍经典牛顿法在训练神经网络过程中的迭代步骤,并介绍正则化在牛顿法中的使用逻辑。

2023-08-25 20:44:35 1134

原创 机器学习笔记之优化算法(十九)经典牛顿法的收敛性分析

上一节整体介绍了经典牛顿法,并讨论了其更新方向Pk是否为下降方向。本节将对经典牛顿法在迭代过程中的收敛性进行分析。

2023-08-22 19:27:00 1977 1

原创 机器学习笔记之优化算法(十八)经典牛顿法

本节将介绍优化算法——经典牛顿法(Newton Method)。

2023-08-21 20:34:16 1009 1

原创 机器学习笔记之优化算法(十七)梯度下降法在强凸函数的收敛性分析

上一节介绍并证明了:梯度下降法在强凸函数上的收敛速度满足Q-线性收敛。本节将介绍在更强的条件下:函数f(⋅)在其定义域内二阶可微,梯度下降法在f(⋅)上的收敛速度存在什么样的结论。

2023-08-21 17:20:01 872

原创 机器学习笔记之优化算法(十六)梯度下降法在强凸函数上的收敛性证明

本节将介绍:梯度下降法在强凸函数上的收敛性,以及证明过程。

2023-08-20 22:03:38 2123

原创 机器学习笔记之优化算法(十五)Baillon Haddad Theorem简单认识

本节将简单认识Baillon Haddad Theorem(白老爹定理),并提供相关证明。

2023-08-18 17:33:38 1015

原创 机器学习笔记值优化算法(十四)梯度下降法在凸函数上的收敛性

本节将介绍梯度下降法在凸函数上的收敛性。

2023-08-11 18:20:45 1476 1

原创 机器学习笔记之优化算法(十三)关于二次上界引理

本节将介绍二次上界的具体作用以及它的证明过程。

2023-08-11 11:54:16 1478

原创 机器学习笔记之优化算法(十二)梯度下降法:凸函数VS强凸函数

本节将介绍凸函数/严格凸函数/强凸函数以及它们之间的联系(补梯度下降法:总体介绍中的坑)。

2023-08-09 19:11:42 2209

原创 机器学习笔记之优化算法(十一)凸函数铺垫:梯度与方向导数

本节作为介绍凸函数的铺垫,简单介绍方向导数与梯度。

2023-08-07 19:48:45 800

原创 机器学习笔记之优化算法(十)梯度下降法铺垫:总体介绍

从本节开始,将介绍梯度下降法(Gradient Descent,GD)。

2023-08-05 17:32:05 912

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除