机器学习(四),使用tensorflow进行线性回归--使用Keras Sequential API 构建最简单的神经网络模型


前言

茴字有13种写法其实才是深入学习的有效方式
接着上一篇文章的题目, 本章汇总前面所学,然后使用 Sequential API模式来构建模型。


提示:以下是本篇文章正文内容,下面案例可供参考

一、神经网络的常用流程

流程图

简单的神经网络都是一层一层叠加起来的,如下图:

数据
构建模型
编译模型
拟合模型
评估模型

流程简介

构建模型
-  序列式:sequential   

如下,根据需要添加多个Dense层

model = tf.keras.models.Sequential([
            tf.keras.layers.Dense(1)
        ])
-  函数式:functional

如果要建立更为复杂的模型,则可使用函数式。

inputs = tf.keras.Input(shape=(28, 28, 1))
x = tf.keras.layers.Flatten()(inputs)
x = tf.keras.layers.Dense(units=100, activation=tf.nn.relu)(x)
x = tf.keras.layers.Dense(units=10)(x)
outputs = tf.keras.layers.Softmax()(x)
model = tf.keras.Model(inputs=inputs, outputs=outputs)
-  子类化:subclassing

继承keras.Model的方式

class MyLinear(tf.keras.Model):
    def __init__(self):
        super().__init__()
        self.dense = tf.keras.layers.Dense(
            units=1,
            activation=None,
            kernel_initializer=tf.zeros_initializer(),
            bias_initializer=tf.zeros_initializer()
        )

    def call(self, input):
        output = self.dense(input)
        return output
编译模型

tf.keras.Model.compile 接受 3 个重要的参数:

  • oplimizer :优化器,可从 tf.keras.optimizers 中选择;
  • loss :损失函数,可从 tf.keras.losses 中选择;
  • metrics :评估指标,可从 tf.keras.metrics 中选择
# 适合一次函数的 loss函数,optimizer, metrics
model.compile(
        optimizer=tf.keras.optimizers.SGD(learning_rate=5e-4),
        loss=tf.losses.MeanSquaredError(),
        metrics=[tf.keras.metrics.mean_squared_error]
    )
拟合模型
  • x :训练数据;
  • y :目标数据(数据标签);
  • epochs :将训练数据迭代多少遍;
  • batch_size :批次的大小;
  • validation_data :验证数据,可用于在训练过程中监控模型的性能。
model.fit(X, y, epochs=10000, batch_size=100,  validation_data=(x_test, y_test), callbacks=[])
评估模型
model.predict(x_test)
model.predict_class(x_test)
model.evaluate(x_test, y_test)

二、使用步骤

题目

考虑一个实际问题,某城市在 2013 年 - 2018 年的房价如下表所示:

年份201320142015201620172018
房价120001400015000165001750018400

现在,我们希望通过对该数据进行线性回归,即使用线性模型 y = ax + b 来拟合上述数据,此处 a 和 b 是待求的参数。

环境

tensorflow环境安装 前往

源码

完整代码如下:

# -*- coding: utf-8 -*-
"""
Created on Tue Feb 23 13:41:11 2021

@author: huwp001

Dependencies:
tensorflow: 2.0
matplotlib
numpy

Keras Sequential/Functional API 模式建立模型

"""

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt

"""
原始数据 X_raw, y_raw
"""
X_raw = np.array([2013, 2014, 2015, 2016, 2017, 2018], dtype=np.float32)
y_raw = np.array([12000, 14000, 15000, 16500, 17500, 18400], dtype=np.float32)

"""
进行归一化,转换为了 0,1 之间的值
"""
X = (X_raw - X_raw.min()) / (X_raw.max() - X_raw.min())
y = (y_raw - y_raw.min()) / (y_raw.max() - y_raw.min())

X = X.reshape(-1,1)
y = y.reshape(-1,1)

X = tf.constant(X, dtype=tf.float32)
y = tf.constant(y, dtype=tf.float32)

#构建模型
model = tf.keras.models.Sequential([
            tf.keras.layers.Dense(1)
        ])

# 编译模型,设置了损失函数,优化器,评估工具
model.compile(
        optimizer=tf.keras.optimizers.SGD(learning_rate=5e-4),
        loss=tf.losses.MeanSquaredError(),
        metrics=[tf.keras.metrics.mean_squared_error]
    )
    
# 训练模型
model.fit(X, y, epochs=20000)

# 评估模型
y_pred = model.predict(X)
plt.cla()
plt.scatter(X, y)
plt.plot(X, y_pred, 'r-', lw=5)

model.evaluate(X,  y, verbose=2)

运行

循环两万次的效果如下:
在这里插入图片描述


总结

本文完成了一个最简单的tensorflow 训练模型,摆脱了手工计算损失,梯度等问题。对一元函数的神经网络训练差不多就结束了, 后续将在这个基础上,体会二元,三元函数的训练和一元有什么区别。

在升级原始数据到 二元函数之前,下一篇会先讨论一下 EarlyStopping(训练停止)的使用问题。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值