TensorFlow实现XOR

  单层感知器不能解决异或问题是神经网络的一个常识,而简单的两层神经网络却能将其轻易解决。
  import需要的模块:

import numpy as np
import tensorflow as tf

  输入数据的placeholder:包含一个data(训练数据)和一个label(训练标签):

data = tf.placeholder(tf.float32, shape=(4, 2))
label = tf.placeholder(tf.float32, shape=(4, 1))

由于异或只有4种输入和对应的4个输出,所以定义固定的shape
  基于输入数据的placeholder构建model:异或需要两层神经网络,每层分别需要一个weight和一个bias

with tf.variable_scope('layer1') as scope:
    weight = tf.get_variable(name='weight', shape=(2, 2))
    bias = tf.get_variable(name='bias', shape=(2,))
    x = tf.nn.sigmoid(tf.matmul(data, weight) + bias)

with tf.variable_scope('layer2') as scope:
    weight = tf.get_variable(name='weight', shape=(2, 1))
    bias = tf.get_variable(name='bias', shape=(1,))
    x = tf.matmul(x, weight) + bias

因为后面的loss要使用sigmoid_cross_entropy_with_logits函数,所以第二层网络的输出没有使用sigmoid函数。
  定义loss:其实这里可以灵活地选用各种loss函数,例如MSE。这里还是选用了在CNN中广泛使用的cross entropy

preds = tf.nn.sigmoid(x)
loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(labels=label, logits=x))

  定义Optimizer

learning_rate = tf.placeholder(tf.float32)
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)

这里为learning rate定义了一个placeholder,当然也可以直接使用常量定义learning rate
  输入数据并开始训练:

train_data = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
train_label = np.array([[0], [1], [1], [0]])

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())

    for step in range(10000):
        if step < 3000:
            lr = 1
        elif step < 6000:
            lr = 0.1
        else:
            lr = 0.01

        _, l, pred = sess.run([optimizer, loss, preds],
                                feed_dict={
                                    data: train_data,
                                    label: train_label,
                                    learning_rate: lr})

        if step % 500:
            print('Step: {} -> Loss: {} -> Predictions: {}'.format(step, l, pred))

  补充说明:对于sess.run函数,其第一个参数是你期望看到的输出信息,函数执行完以后,将这些信息对应地赋值给等号右边的变量;对于feed_dict,就是向自定义的神经网络中的变量赋值,例如:

_, l, pred = sess.run([optimizer, loss, preds],
                        feed_dict={
                            data: train_data,
                            label: train_label,
                            learning_rate: lr})
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值