![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
凸优化
文章平均质量分 64
I_belong_to_jesus
EE博士,主要兴趣:EDA软件,EDA前端仿真和加速,减肥,机器学习基础(凸优化),神经网络(推荐算法、图像处理算法),统计信号处理(传统滤波检测估计算法、稀疏表示算法和压缩感知算法)。
开发平台:软件开发,嵌入式开发。
展开
-
Variable Selection via Nonconcave PenalizedLikelihood and its Oracle Properties 论文解析-特征选择的Oracle特性-1
特征选择的Oracle特原创 2022-05-23 01:02:17 · 906 阅读 · 0 评论 -
贝叶斯风险(Bayes Risk)
贝叶斯风险(Bayes Risk)原创 2022-05-23 00:16:03 · 2855 阅读 · 0 评论 -
近端梯度下降法 (proximal gradient descent)算法python实现完整版
# -*- coding: utf-8 -*-import numpy as npimport scipy as spyfrom scipy.sparse import csc_matriximport matplotlib.pyplot as pltimport time #用来计算运行时间#=======模拟数据======================m = 512n = 10原创 2022-04-06 18:17:01 · 3540 阅读 · 0 评论 -
python实现次梯度(subgradient)和近端梯度下降法 (proximal gradient descent)方法求解L1正则化
l1范数最小化考虑函数,显然其在零点不可微,其对应的的次微分为:注意,的取值为一个区间。两个重要定理:1)一个凸函数,当且仅当,为全局最小值,即为最小值点;2)为函数(不一定是凸函数)的最小值点,当且仅当在该点可次微分且。考虑最简单的一种情况,目标函数为:对应的次微分为:进一步可以表示为:故,若,最小值点为:若,最小值点为:若,最小值点为:简而言之,最优解,通常被称为软阈值(soft threshold)算子。subgradient...原创 2022-01-28 12:30:26 · 4560 阅读 · 9 评论