一.因为linear model效果并不是很好,所以优化它成:
红色的就是优化后的model,它可以由一个常数+好多个linear model组成。
二.sigmoid函数
进一步推广写出红色的函数:
由n个蓝色的sigmoid相加再加上一个常数。
再推广一下进阶的linear model就是笔记一里面最后写的,考虑更多天数的linear model:
就可以写成r=b+矩阵*x
最后写出y:
三.定义loss
L() 代表所有未知的超参数组成的一个大的向量。
跟笔记一的方法一样,将所有未知的超参数带入,在和label准确值求e,最后相加除以数据量总数N即为loss
四.优化
对分别求微分,再组合成向量g,跨度后的向量即为原来的减去学习率×g
但是实际上再做上面的工作的时候,不会将所有资料一次性的全部加入计算,是这样的:
会先将N随机分成好多个batch,再将一个batch看成一份资料,计算出一个,之后引入下一个batch,以此类推。
五.relu函数
可以用relu函数代替sigmoid来写出函数。
六.神经网络和深度学习