model = keras.Sequential([
layer.Dense(64,activation='relu',kernel_initializer='he_normal',input_shape=(784,)),
layer.Dense(64,activation='relu',kernel_initializer='he_normal'),
layer.Dense(64,activation='relu',kernel_initializer='he_normal'),
layer.Dense(10,activation='softmax')
])
kernel_initializer=he_normal 指的是在初始化神经网络权重时使用的方法。he_normal 是一种用于初始化权重的方法,其中权重的初始值是从均值为 0,标准差为 sqrt(2 / fan_in) 的正态分布中随机抽取的。这种初始化方法通常被用于 ReLU 激活函数的网络中。