加宽全连接

一、Functional API 搭建神经网络模型

1.对宽深神经网络模型进行手写数字识别:

运行代码:

inputs = keras.layers.Input(shape=X_train.shape[1:])
hidden1 = keras.layers.Dense(300,activation="relu")(inputs)
hidden2 = keras.layers.Dense(100,activation="relu")(hidden1)
concat = keras.layers.concatenate([inputs,hidden2])
output = keras.layers.Dense(10, activation="softmax")(concat)

model_fun_WideDeep=keras.models.Model(inputs=[inputs], outputs=[output])

输出结果:
在这里插入图片描述

2.观察神经网络的情况:

运行代码

model_fun_WideDeep.summary()

输出结果:
在这里插入图片描述

3.对数据集进行训练:

运行代码:

model_fun_WideDeep.compile(loss="sparse_categorical_crossentropy",optimizer="sgd", metrics=["accuracy"])
h=model_fun_WideDeep.fit(X_train,y_train,batch_size=32,epochs=30,validation_data=(X_valid, y_valid))

输出结果:
在这里插入图片描述

4.数据拆分成A与B两部分,进行输入:

运行代码:

X_train_A,X_train_B=X_train[:,:200],X_train[:,100:]
X_valid_A,X_valid_B=X_valid[:,:200],X_valid[:,100:]
input_A=keras.layers.Input(shape=X_train_A.shape[1])
input_B=keras.layers.Input(shape=X_train_B.shape[1])
hidden1=keras.layers.Dense(300,activation="relu")(input_B)
hidden2=keras.layers.Dense(100,activation="relu")(hidden1)
concat=keras.layers.concatenate([input_A,hidden2])
output=keras.layers.Dense(10,activation="softmax")(concat)
model_fun_MulIn=keras.models.Model(inputs=[input_A,input_B],outputs=[output])_
model_fun_MulIn.compile(loss="sparse_categorical_crossentropy",optimizer="sgd",metrics=["accuracy"])

输出结果:在这里插入图片描述
进行训练:在这里插入图片描述

二、SubClassing API 搭建神经网络模型

  • 定义模型结构,隐藏层1、2,输出层,隐藏层的激活函数,调用函数,开始初始化
    运行代码:
class Model_sub_fnn(keras.models.Model):
    def __init__(self,units_1=300,units_2=100,units_out=10,activation="relu"):
        super().__init__()
        self.hidden1=keras.layers.Dense(units_1,activation=activation)
        self.hidden2=keras.layers.Dense(units_2,activation=activation)
        self.main_output=keras.layers.Dense(units_out,activation="softmax")
  • 将输入数据传给隐藏层1
    运行代码:
def call(self,data):
        hidden1=self.hidden1(data)
        hidden2=self.hidden2(hidden1)
        main_output=self.main_output(hidden2)
        return main_output
model_sub_fnn=Model_sub_fnn()
model_sub_fnn2=Model_sub_fnn(300,100,10,activation="relu")

输出结果:
在这里插入图片描述

1.进行训练:

运行代码:

h=model_sub_fnn.fit(X_train,y_train,batch_size=32,epochs=30,validation_data=(X_valid,y_valid))

输出结果:
在这里插入图片描述

2.观察神经网络的情况:

运行代码:

model_sub_fnn.summary()

输出结果:
在这里插入图片描述

  • 10
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值