numpy 中的np.concatenate和keras 中的K.concatenate默认参数下的差异

import numpy as np
import shutil
import keras.backend as K
import tensorflow as tf


def test():
    grid_shape =(2,3)
    grid_y = np.tile(np.reshape(np.arange(0, stop=grid_shape[0]), [-1, 1, 1, 1]),
                    [1, grid_shape[1], 1, 1])
    # print(grid_y)
    # print('11111111111111')
    grid_x = np.tile(np.reshape(np.arange(0, stop=grid_shape[1]), [1, -1, 1, 1]),
                    [grid_shape[0], 1, 1, 1])
    # print(grid_x)
    # print('\n22222222222222\n')
    grid = np.concatenate([grid_x, grid_y])

    grid1=K.concatenate([K.variable(grid_x),K.variable(grid_y)])
    init = tf.global_variables_initializer()
    with tf.Session() as sess:
        sess.run(init)
        print(grid)
        print('\n22222222222222\n')
        print(sess.run(grid1))

输出结果:

[[[[0]]

  [[1]]

  [[2]]]


 [[[0]]

  [[1]]

  [[2]]]


 [[[0]]

  [[0]]

  [[0]]]


 [[[1]]

  [[1]]

  [[1]]]]

22222222222222

[[[[0. 0.]]

  [[1. 0.]]

  [[2. 0.]]]


 [[[0. 1.]]

  [[1. 1.]]

  [[2. 1.]]]]

np.concatenate 默认按第一个维度拼接,K.concatenate默认按最后一个维度拼接

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
import numpy as np import matplotlib.pyplot as plt # 生成sin函数数据 import pip import pydot x = np.arange(0, 2*np.pi, 0.1) y = np.sin(x) # 可视化sin函数 plt.plot(x, y) plt.show() from keras.models import Sequential from keras.layers import Dense, SimpleRNN # 准备数据 dataX, dataY = [], [] for i in range(len(y)-1): dataX.append(y[i:i+1]) dataY.append(y[i+1]) dataX = np.array(dataX) dataY = np.array(dataY) # 划分训练集和测试集 train_size = int(len(dataY) * 0.7) test_size = len(dataY) - train_size trainX, testX = np.array(dataX[0:train_size]), np.array(dataX[train_size:len(dataX)]) trainY, testY = np.array(dataY[0:train_size]), np.array(dataY[train_size:len(dataY)]) # 调整输入数据的形状 trainX = np.reshape(trainX, (trainX.shape[0], 1, trainX.shape[1])) testX = np.reshape(testX, (testX.shape[0], 1, testX.shape[1])) # 定义模型结构 model = Sequential() model.add(SimpleRNN(units=10, input_shape=(1, 1))) model.add(Dense(units=1)) # 编译模型 model.compile(optimizer='adam', loss='mse') # 训练模型 history = model.fit(trainX, trainY, epochs=100, validation_data=(testX, testY)) # 可视化损失函数 plt.plot(history.history['loss']) plt.plot(history.history['val_loss']) plt.title('Model Loss') plt.ylabel('Loss') plt.xlabel('Epoch') plt.legend(['Train', 'Test'], loc='upper right') plt.show() #预测结果 trainPredict = model.predict(trainX) testPredict = model.predict(testX) # 可视化预测结果 plt.plot(y) plt.plot(np.concatenate((trainPredict, testPredict))) plt.show()有哪些可以可视化可视
最新发布
06-12

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值