CS231N作业1Two-Layer Neural Network

继承上次作业的softmax计算损失,再额外加个隐藏层
1.完成neural_net.py中scores的计算

    z1=X.dot(W1)+b1
    a1=np.maximum(0,z1)
    scores=a1.dot(W2)+b2

2.完成neural_net.py中loss的计算

    scores_max=np.max(scores,axis=1,keepdims=True)
    scores=scores-scores_max
    p=np.exp(scores)/np.sum(np.exp(scores),axis=1,keepdims=True)
    loss=-np.sum(np.log(p[np.arange(N),y]))/N
    loss+=reg*0.5*np.sum(W1*W1)+reg*0.5*np.sum(W2*W2)

3.完成neural_net.py中grads的计算

    dscores=p
    dscores[range(N),y]-=1
    dscores/=N
    grads['W2']=np.dot(a1.T,dscores)
    grads['b2']=np.sum(dscores,axis=0)
    da1=dscores.dot(W2.T)
    da1[a1<=0]=0
    grads['W1']=np.dot(X.T,da1)
    grads['b1']=np.sum(da1,axis=0)
    grads['W2']+=reg*W2
    grads['W1']+=reg*W1

4.补充neural.net.py文件里train函数的缺失代码
第一段

      sample_indice=np.random.choice(np.arange(num_train),batch_size)
      X_batch=X[sample_indice]
      y_batch=y[sample_indice]

第二段

      self.params['W1'] += -learning_rate * grads['W1']
      self.params['b1'] += -learning_rate * grads['b1']
      self.params['W2'] += -learning_rate * grads['W2']
      self.params['b2'] += -learning_rate * grads['b2']

5.补充neural.net.py文件里predict函数的缺失代码

    z1=X.dot(self.params['W1'])+self.params['b1']
    a1=np.maximum(0,z1)
    scores=a1.dot(self.params['W2'])+self.params['b2']
    y_pred=np.argmax(scores,axis=1)

6.超参数

best_val=-1
best_stats=None
learning_rates=[1e-2,1e-3]
regulation_strength=[0.4,0.5,0.6]
results={}
iters=500
for lr in learning_rates:
    for rs in regulation_strength:
        net=TwoLayerNet(input_size,hidden_size,num_classes)
        stats=net.train(X_train,y_train,X_val,y_val,num_iters=iters,batch_size=200,learning_rate=lr,learning_rate_decay=0.95,reg=rs)
        y_train_pred=net.predict(X_train)
        acc_train=np.mean(y_train_pred==y_train)
        y_val_pred=net.predict(X_val)
        acc_val=np.mean(y_val==y_val_pred)
        results[(lr,rs)]=(acc_train,acc_val)
        if best_val<acc_val:
            best_stats=stats
            best_val=acc_val
            best_net=net
for lr, reg in sorted(results):
    train_accuracy, val_accuracy = results[(lr, reg)]
    print('lr %e reg %e train accuracy: %f val accuracy: %f' % (
                lr, reg, train_accuracy, val_accuracy))

print('best validation accuracy achieved during cross-validation: %f' % best_val)

请添加图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值