第六次作业
一、逻辑回归的公式推导
二、GD和SGD的逻辑梳理
1.GD
step1:初始化参数w,b,得到预测值,计算所有训练样本的预测值与真实值之间的损失函数
step2:利用损失函数计算损失函数对各参数的梯度,
step3:根据梯度的负方向,对各参数进行更新
step4:判断是否达到停止训练条件,达到退出训练,否则继续执行step2~step4
2.SGD
与GD原理一致,不同点在于GD利用所有训练样本计算梯度,而SGD仅利用一个样本便进行一次参数更新,优点是计算速度快,但需要更多的迭代次数
三、个性化数据预处理+逻辑回归,结合,评估,PR+AUC
测试集结果:
AUC值:
PR曲线:
平均精度: