Keras 有两个重要的概念: 模型(Model) 和 层(Layer) 。层将各种计算流程和变量进行了封装(例如基本的全连接层,CNN 的卷积层、池化层等),而模型则将各种层进行组织和连接,并封装成一个整体,描述了如何将输入数据通过各种层以及运算而得到输出。在需要模型调用的时候,使用 y_pred = model(X) 的形式即可.
Keras 模型以类的形式呈现,我们可以通过继承 tf.keras.Model 这个 Python 类来定义自己的模型。在继承类中,我们需要重写 init() (构造函数,初始化)和 call(input) (模型调用)两个方法,同时也可以根据需要增加自定义的方法。
class MyModel(tf.keras.Model):
def __init__(self):
super().__init__() # Python 2 下使用 super(MyModel, self).__init__()
# 此处添加初始化代码(包含 call 方法中会用到的层),例如
# self.layer1 = tf.keras.layers.BuiltInLayer(...)
# self.layer2 = MyCustomLayer(...)
def call(self, input):
# 此处添加模型调用的代码(处理输入并返回输出),例如
# x = self.layer1(input)
# output = self.layer2(x)
return output
# 还可以添加自定义的方法
继承 tf.keras.Model 后,我们同时可以使用父类的若干方法和属性,例如在实例化类 model = Model() 后,可以通过 model.variables 这一属性直接获得模型中的所有变量,免去我们一个个显式指定变量的麻烦。
线性回归
import tensorflow as tf
#生成一些数据
x = tf.range(10)
y = tf.range(10,)
x = tf.cast(x, dtype=tf.float32) #改变类型为float
x = tf.reshape(x, [x.shape[0], 1]) #增加一个维度,使其为二维tensor
y = 2 * tf.cast(y, dtype=tf.float32) + tf.random.normal([10,]) #增加随机扰动
y = tf.reshape(y, [y.shape[0], 1]) #转为二维
optimizer = tf.keras.optimizers.Adam(lr=0.01) #定义优化器
#创建model
class Model(tf.keras.Model):
def __init__(self):
super().__init__()
#自定义层
self.layer1 = tf.keras.layers.Dense(1, bias_initializer=tf.zeros_initializer())
def call(self, input):
#自定义模型逻辑
x = self.layer1(input)
return x
model = Model() #实例化这个class
for _ in tf.range(2000):
with tf.GradientTape() as tape:
pred = model(x) #直接使用model(x)即可
L = tf.reduce_mean(tf.square(pred - y))
L_gradx = tape.gradient(L, model.variables) #model.variables获得模型所有参数
optimizer.apply_gradients(grads_and_vars=zip(L_gradx, model.variables))
tf.print([L])