走进tensorflow第五步——一个小例子探究权重和学习率

26 篇文章 263 订阅 ¥9.90 ¥99.00
通过一个TensorFlow实例,探讨了学习率和权重对模型训练的影响。实验发现,学习率增大虽能提高精度,但也导致训练时间增加。在迭代次数固定时,适度增加学习率能显著提升精度;当迭代次数增加,学习率再增大,精度不再提升。这一观察挑战了传统认知,暗示特定场景下,适当高的学习率可能有益。
摘要由CSDN通过智能技术生成

来一次从零开始的tensorflow实战吧……

从简至繁吧,代码注释比较详细,来看:

# -*- coding: utf-8 -*-
import numpy as np
import tensorflow as tf
import time

x_0=np.array([[1],[2],[1]]) #生成一个损失函数系数数组
x=tf.placeholder(tf.float32,[3,1])  #占位符,第一个参数为类型,第二个为形状
w=tf.Variable([0],dtype=tf.float32)  #定义变量w,初始值为0.0

loss=x[0]*w**2+x[1]*w+x[2] #定义损失函数
train=tf.train.GradientDescentOptimizer(0.001).minimize(loss) #梯度下降优化,学习率为0.001
init=tf.global_variables_initializer()  #初始化变量

#启动图
sess=tf.Session()
sess.run(init)
print(sess.run(w))  #显示w初值

go=time.time()  #开始执行的时间
for i in range(1000):  #迭代1000次
    sess.run(train,feed_dict={x:x_0})  #用feed_dict给x传值
over=time.time() #结束时间 

print(sess.run(w))    #打印训练之后的w,-1为最优
print(str(1000*(over-go))+'ms')   #显示训练时间,单位为s,转化为毫秒更直观

动态地给损失函数赋值,可以多角度更直观地查看训练的效果,目前大家需要关注两个值,学习率0.001和迭代次数

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
对于关注和分享TensorFlow深度学习算法设计的人工智能学习者来说,《深入理解人工智能算法设计》这本书是一本非常宝贵的学习资源。TensorFlow一个开源的机器学习框架,它提供了丰富的工具和库,可以帮助开发者设计和训练高效的深度学习模型。 这本书对于TensorFlow深度学习的算法设计提供了详细、系统的解读,对于想要深入学习和掌握TensorFlow的人来说非常有帮助。书中包含了各种不同的算法设计案例,从基础的神经网络模型到复杂的深度学习网络,涵盖了各个方面的知识。 通过关注和分享《深入理解人工智能算法设计》这本书,可以帮助更多的人了解和学习TensorFlow深度学习的算法设计。同时,分享这本书也可以推广和宣传TensorFlow这个强大的工具,让更多的人受益于人工智能算法设计的知识。 为了方便更多人获取这本书,《深入理解人工智能算法设计》的PDF版本可以通过下载来获得。PDF格式的书籍可以在各种电子设备上阅读,包括电脑、平板和手机。通过下载PDF版本,学习者可以随时随地地查阅这本书,提高学习效率。 因此,我鼓励大家关注和分享《深入理解人工智能算法设计》这本书,通过深入学习TensorFlow深度学习的算法设计,提升自己在人工智能领域的技能和能力。同时,也希望更多人可以通过下载PDF版本的方式获取这本书,便捷地进行学习。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

beyond_LH

您的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值