注:仅供学习记录
解析:最小化f(x),在deep learning中,f是损失函数loss,即真实值与预测值之间的损失,x即是超参数(将超参数抽成一条向量)。C可以有限制,就比如我要限制我的权重要大于等于0等等,通常C不受限为Rn。
一般迭代算法只能找到局部最小值。
特例:
凸函数:
注:仅供学习记录
解析:最小化f(x),在deep learning中,f是损失函数loss,即真实值与预测值之间的损失,x即是超参数(将超参数抽成一条向量)。C可以有限制,就比如我要限制我的权重要大于等于0等等,通常C不受限为Rn。
一般迭代算法只能找到局部最小值。
特例:
凸函数: