机器学习中的问题

 20 #1定义神经网络的输入、参数和输出,定义前向传播过程
 21 x = tf.placeholder(tf.float32,shape=(None,2))
 22 y_ = tf.placeholder(tf.float32,shape=(None,1))
 23 w1 = tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))
 24 w2 = tf.Variable(tf.random_normal([3,1],stddev=1,seed=1))
 25 
 26 a = tf.matmul(x,w1)
 27 y = tf.matmul(a,w2)

w1和w2是什么意思?有什么作用?

 29 #2定义损失函数及反向传播方法
 30 loss = tf.reduce_mean(tf.square(y-y_))
 31 train_step = tf.train.GradientDescentOptimizer(0.001).minimize(loss)

这是定义损失函数和反向传播的方法

 42     # 训练模型
 43     STEPS = 3000
 44     for i in range(STEPS):
 45         start = (i*BATCH_SIZE) % 32
 46         end = start + BATCH_SIZE
 47         sess.run(train_step,feed_dict={x:X[start:end],y_: Y[start:end]})
 48         if i % 500 == 0:
 49             total_loss = sess.run(loss,feed_dict={x:X,y_:Y})
 50             print("After %d training step,loss on all data is %g" %(i,total_    loss))
 51 

这里是用train_step的方法来训练x和y_这两个数组吗?

最后一个total_loss = sess.run(loss,feed_dict={x:X,y_:Y}),这里使用loss(均方误差)方法来训练x和y_数组吗?

望大神解答疑惑。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值