TensorFlow学习笔记--01-TensorFlow基础构架


这个专栏主要是记录自己在莫烦Python上学习TensorFlow的过程,想学习TensorFlow的小伙伴强烈推荐 莫烦Python之TensorFlow

一、TensorFlow基础构架

1、session会话控制

这一节主要讲了如何使用session会话的两种方法
第一种:

# method 1
sess=tf.Session()
result1=sess.run(tf.matmul(tf.constant([[3,3]]),tf.constant([2],[2])))
print(result1)
sess.close()

第二种:

# method2
with tf.Session() as sess:
    result2=sess.run(tf.matmul(tf.constant([[3,3]]),tf.constant([2],[2])))
    print(result2)

第二种方法使用完之后,不需要再close。

2、Variable变量

主要讲述了,在TensorFlow中,如果定义了变量variable,一定要记得初始化,然后session:

init=tf.global_variables_initializer()

with tf.Session() as sess:
	sess.run(init)

3、Placeholder 传入值

对于为什么需要使用placeholder,我觉得这个链接的解释就很好,容易理解。

当使用placeholder的时候,括号内填入以下内容:dtype, shape=None, name=None,定义之后,
需要使用 feed_dict={} 传入值。

使用placeholder举例:

input1=tf.placeholder(tf.float32)
input2=tf.placeholder(tf.float32)

output=tf.multiply(input1,input2)

with tf.Session() as sess:
    print(sess.run(output,feed_dict={input1:7,input2:2}))

4、激励函数 Activation Function

常用的激励函数有以下几种:
(1)relu
在这里插入图片描述
(2)sigmoid
在这里插入图片描述
(3)tanh
在这里插入图片描述
在卷积神经网络CNN中激励函数常选择relu函数,在循环神经网络RNN中激励函数通常选择relu和tanh,激励函数的选择不能任意选择,需要根据具体情况进行具体分析,不然会造成梯度爆炸和梯度消失问题。

谢谢大家的观看!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值