自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

转载 从神经网络视角看均方误差与交叉熵作为损失函数时的共同点

缩写:NN: neural network, 神经网络MSE: Mean Squared Error, 均方误差CEE: Cross Entropy Error, 交叉熵误差.(此缩写不是一个conventional缩写)标记符号:netnet或netineti, 净输出值, net=wTxnet=wTxaa或aiai, 神经元的激活函数输出值: a=f(net)a

2016-11-28 20:58:06 1613

转载 最小二乘和最大似然

输入一组向量xx=[x1,x2,...,xd], 用线性模型预测输出变量y。y^=wwTxx(1)其中ww是权重, 是线性模型的参数。在这里,我们已经将输入向量扩增为增广向量xx=[x1,x2,...,xd,1], 最后的1所对应的权重为截距。这种做法方便后续处理。我们有一批样本(xx1,y1),(xx2,y2),...,(xxn,yn)。n个样本可以叠加起来,

2016-11-28 16:23:01 575

原创 局部加权线性回归

通常情况下的线性拟合不能很好地预测所有的值,因为它容易导致欠拟合(under fitting),比如数据集是一个钟形的曲线。而多项式拟合能拟合所有数据,但是在预测新样本的时候又会变得很糟糕,因为它导致数据的过拟合(overfitting),不符合数据真实的模型。 今天来讲一种非参数学习方法,叫做局部加权回归(LWR)。为什么局部加权回归叫做非参数学习方法呢? 首

2016-11-26 16:06:16 912

原创 Java字符串拼接方式性能比较

由于String对象时不可变对象,因此在需要对字符串进行修改操作时(如字符串连接和替换),String对象总是会生成新的对象,所以其性能相对较差。String常量的累加操作:对于静态字符串的连接操作,Java在编译时会进行彻底的优化,将多个连接操作的字符串在编译时合成一个单独的长字符串。String变量的累加操作:底层使用了StringBuilder的功能。String

2016-11-03 13:49:03 547

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除