train_op = optimizer.minimize(loss, global_step=batch)
第十三句初始化一个optimizer之后,通过minimize函数,最小化损失函数
用来计算梯度以及更新参数。保存的优化次数保存在batch里面
train_op = optimizer.minimize(loss, global_step=batch)
第十三句初始化一个optimizer之后,通过minimize函数,最小化损失函数
用来计算梯度以及更新参数。保存的优化次数保存在batch里面