kaggle房价预测的实验记录

一、超参数实验(未改变网络的情况)

knum_epochslrweight_decaybatch_size训练误差验证误差
51000601280.1210.157
5200050.11280.1330.152
5100060.21280.1450.178
5500602560.1460.157
5100501280.2430.246
5500501280.1310.147
510050640.1650.170

一般层数越高其lr要越低

在这里插入图片描述
训练误差突然上升?
原因:可能是权重衰减从0一下调到0.2导致的

二、网络架构改进

房价可能是曲线,故一定要引入激活函数Relu.
最终三层,32,16,1近乎最优
如果是非线性的那么学习率一般不会超过1

如果不加dropout则0.139,加了变为0.152,似乎dropout对该网络影响不大,加入以后过拟合的现状并未得到改善,但是加入weight_decay确能提高准确度,但是过拟合改善不明显

三、特征预处理

难点:

  1. 数值较大:取对数,再做标准化
  2. 有文本特征:可能会内存爆炸,可以用稀疏矩阵解决
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值