2023.10.9学习-迁移学习

2023.10.9学习

人工智能基础学习

迁移学习(transfer learning)

以已经训练好的模型A为起点,在新场景中,根据新数据建立模型B

目的:将某个领域或任务上学习到的知识或模式,应用到不同但相关的领域或问题中

模型A存储了模型结构、权重系数;模型B基于新数据,实现了对模型A的部分结构或权重系数的更新

在这里插入图片描述

(1)特征提取

使用模型A,移除输出层,提取目标特征信息。

在任务相似度高、新数据少的情况下使用,保留原模型的大部分结构和权重系数。

(2)结构引用

使用模型A的结构,重新或二次训练权重系数参数。

在任务相似度高、新数据多的情况下使用,可基于原有结构重新训练

(3)部分训练

使用模型A的结构,重新训练部分层的权重系数参数。

在任务相似度低、新数据少的情况下使用,此时需要训练的参数变多。
在这里插入图片描述

迁移学习的优点:

  • 对数据样本的需求量较小,不再需要特别大量的数据作支撑
  • 因为待更新的参数少,训练速度快,耗时小
  • 若迁移的模型为以证实的效果较好的模型,则迁移学习往往比搭建新模型的表现更好

在线学习(online learning)

给已经训练好的模型输入新数据,模型将进行更新,适应新数据的趋势。

目的:针对新数据,在不需要对全新数据集进行再次训练的基础上,实现模型更新。

适合场景:有连续的数据流

特点:不改变模型结构,根据新数据更新权重系数
{ t e m p θ j = θ j − α × ( y p r e d i c t − y ) × x j θ j = t e m p θ j \begin {cases} temp_{\theta_j}=\theta_j-\alpha ×(y_{predict}-y)×x_j \\ \theta_j=temp_{\theta_j} \end{cases} {tempθj=θjα×(ypredicty)×xjθj=tempθj
((x, y)为新数据,θj为模型系数)

半监督学习(Semi-Supervised Learning)

高质量数据:

  • 正常数据(噪声少)
  • 包含类别完整
  • 标签标准一致且正确

半监督学习:监督学习与无监督学习相结合的一种学习方法,它同时利用有标记样本与无标记样本进行学习。

目的:在标记样本有限的情况下,尽可能识别出总样本的共同特性。

伪标签学习:

​ 用有标签数据训练一个分类器,然后用这个分类器对无标签数据进行分类,产生伪标签(pseudo label),按一定顺序挑选出认为分类正确的无标签样本,将其与有标签样本作为数据对分类器进行训练。

代码:迁移学习回归模型

迁移后只迭代了30次,大幅降低迭代次数

import numpy as np
import pandas as pd
from matplotlib import pyplot as plt
from keras.models import Sequential
from keras.layers import Dense
import joblib

data = pd.read_csv('transfer_data.csv')
print(data.head())

x = data.loc[:, 'x']
y = data.loc[:, 'y']

fig1 = plt.figure()
plt.scatter(x, y)
plt.show()

x = np.array(x).reshape(-1, 1) # 多行1列
print(x.shape, y.shape)  # (100, 1) (100,)

# 创建mlp模型
model1 = Sequential()
model1.add(Dense(units=50, input_dim=1, activation='relu'))
model1.add(Dense(units=50, activation='relu'))
model1.add(Dense(units=1, activation='linear'))

model1.compile(optimizer='adam', loss='mean_squared_error')

model1.summary()

model1.fit(x, y, epochs=400)

y_predict = model1.predict(x)

fig2 = plt.figure()
plt.scatter(x, y)
plt.plot(x, y_predict, 'r')
plt.title('epochs = 400')
plt.show()

# 将模型存储到本地
joblib.dump(model1, 'model1.m')

# 模型加载
model2 = joblib.load('model1.m')

data_test = pd.read_csv('transfer_data2.csv')
print(data_test.head())

x_test = data_test.loc[:, 'x']
y_test = data_test.loc[:, 'y']

x_test = np.array(x_test).reshape(-1, 1)
print(x_test.shape)

y_test_predict = model2.predict(x_test)

fig3 = plt.figure()
plt.scatter(x, y, label='data')
plt.scatter(x_test, y_test, label='data_test')
plt.plot(x_test, y_test_predict, 'r')
plt.legend()
plt.title('test')
plt.show()

# 迁移学习
model2.fit(x_test, y_test, epochs=30)

y2_test_predict = model2.predict(x_test)

fig4 = plt.figure()
plt.scatter(x, y, label='data')
plt.scatter(x_test, y_test, label='data_test')
plt.plot(x_test, y2_test_predict, 'r')
plt.legend()
plt.title('transfer epochs=30')
plt.show()

在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值