粒子群算法优化支持向量机(pso-svm)

粒子群优化SVM

其中代码部分经过测试,实测可用

步骤讲解

1、粒子群是优化的SVM的c和g,由于SVM中的c和g难以选择最优的,故选择PSO来优化,寻找最优的粒子点来作为SVM的c和g。
2、从随机解出发,通过迭代寻找最优解,通过适应度来评价解的质量(适应度函数中打印优化的准确度)。
3、PSO初始化为一群随机粒子(随机解),然后通过迭代找到最优解。所有的粒子具有位置(particle_position_vector)和速度(velocity_vector)两个属性。 在每一次迭代中,粒子通过粒子本身所找到的最优解pbest和整个种群目前找到的最优解全局极值gbest来更新。
4、适应度值(实际上是svm的一次运行)
5、下面代码中的iris.csv前三行展示:

在这里插入图片描述

代码

import pandas as pd
import numpy as np
import random
from sklearn.svm import SVC
import matplotlib.pyplot as plt
from sklearn.model_selection import cross_val_predict
from sklearn.metrics import confusion_matrix
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import cross_val_score


# 1.读取训练数据集
data = pd.read_csv(r"iris.csv")
x = data.iloc[:, 1:]
Y = data.iloc[:, 0]
# print(x.shape)

# 2.标准化
scaler = StandardScaler()
X = scaler.fit_transform(x)

# 3.初始化参数
W = 0.5                                 # 惯性因子
c1 = 0.2                                # 学习因子
c2 = 0.5                                # 学习因子
n_iterations = 10                       # 迭代次数
n_particles = 50                       # 种群规模

# 4.设置适应度值 输出分类精度得分,返回比较分类结果和实际测得值,可以把分类结果的精度显示在一个混淆矩阵里面
def fitness_function(position):   # 输出
    # 全局极值   svm分类器  核函数gamma  惩罚参数c
    svclassifier = SVC(kernel='rbf', gamma=position[0], C=position[1])
    # 参数gamma和惩罚参数c以实数向量的形式进行编码作为PSO的粒子的位置
    svclassifier.fit(X, Y)
    score = cross_val_score(svclassifier, X, Y, cv=10).mean()                # 交叉验证
    print('分类精度',score)                                                    # 分类精度
    Y_pred = cross_val_predict(svclassifier, X, Y, cv=10)                    # 获取预测值

    # 返回混淆函数,分类误差矩阵,分别是训练中的 测试中的 下面输出错误分类结果
    return confusion_matrix(Y, Y_pred)[0][1] + confusion_matrix(Y, Y_pred)[0][2] + confusion_matrix(Y, Y_pred)[1][0] + \
           confusion_matrix(Y, Y_pred)[1][2] + confusion_matrix(Y, Y_pred)[2][0] + confusion_matrix(Y, Y_pred)[2][1]\
        ,  confusion_matrix(Y, Y_pred)[0][1] + confusion_matrix(Y, Y_pred)[0][2] + confusion_matrix(Y, Y_pred)[1][0] + \
           confusion_matrix(Y, Y_pred)[1][2] + confusion_matrix(Y, Y_pred)[2][0] + confusion_matrix(Y, Y_pred)[2][1]

# 5.粒子图
def plot(position):
    x = []
    y = []
    for i in range(0, len(particle_position_vector)):
        x.append(particle_position_vector[i][0])
        y.append(particle_position_vector[i][1])
    colors = (0, 0, 0)
    plt.scatter(x, y, c = colors, alpha = 0.1)
    # 设置横纵坐标的名称以及对应字体格式
    #font2 = {'family': 'Times New Roman','weight': 'normal', 'size': 20,}
    plt.xlabel('gamma')  # 核函数
    plt.ylabel('C')      # 惩罚函数
    plt.axis([0, 10, 0, 10],)
    plt.gca().set_aspect('equal', adjustable='box') # #设置横纵坐标缩放比例相同,默认的是y轴被压缩了。
    return plt.show()

# 6.初始化粒子位置,进行迭代
# 粒子位置向量
particle_position_vector = np.array([np.array([random.random() * 10, random.random() * 10]) for _ in range(n_particles)])
pbest_position = particle_position_vector    #个体极值等于最初位置
pbest_fitness_value = np.array([float('inf') for _ in range(n_particles)])   #个体极值的适应度值
gbest_fitness_value = np.array([float('inf'), float('inf')])    #全局极值的适应度值
gbest_position = np.array([float('inf'), float('inf')])
velocity_vector = ([np.array([0, 0]) for _ in range(n_particles)])  # 粒子速度
# 迭代更新
iteration = 0
while iteration < n_iterations:
    # plot(particle_position_vector)  #  粒子具体位置
    for i in range(n_particles):   # 对每个粒子进行循环
        fitness_cadidate = fitness_function(particle_position_vector[i])   # 每个粒子的适应度值=适应度函数(每个粒子的具体位置)
        # print("粒子误差", i, "is (training, test)", fitness_cadidate, " At (gamma, c): ",
              # particle_position_vector[i])

        if (pbest_fitness_value[i] > fitness_cadidate[1]):    # 每个粒子的适应度值与其个体极值的适应度值(pbest_fitness_value)作比较,如果更优的话,则更新个体极值,
            pbest_fitness_value[i] = fitness_cadidate[1]
            pbest_position[i] = particle_position_vector[i]

        if (gbest_fitness_value[1] > fitness_cadidate[1]):   # 更新后的每个粒子的个体极值与全局极值(gbest_fitness_value)比较,如果更优的话,则更新全局极值
            gbest_fitness_value = fitness_cadidate
            gbest_position = particle_position_vector[i]

        elif (gbest_fitness_value[1] == fitness_cadidate[1] and gbest_fitness_value[0] > fitness_cadidate[0]):
            gbest_fitness_value = fitness_cadidate
            gbest_position = particle_position_vector[i]

    for i in range(n_particles):  # 更新速度和位置,更新新的粒子的具体位置
        new_velocity = (W * velocity_vector[i]) + (c1 * random.random()) * (
                    pbest_position[i] - particle_position_vector[i]) + (c2 * random.random()) * (
                                   gbest_position - particle_position_vector[i])
        new_position = new_velocity + particle_position_vector[i]
        particle_position_vector[i] = new_position

    iteration = iteration + 1

# 7.输出最终结果
print("全局最优点的位置是 ", gbest_position, "在第", iteration, "步迭代中(训练集,测试集)错误个数:",
      fitness_function(gbest_position))

  • 22
    点赞
  • 284
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 24
    评论
SVM支持向量机)是一种常用的模式识别和机器学习方法,使用维度高的数据集以及经过训练的样本进行分类。然而,在处理大规模或高维度的数据时,优化SVM模型的计算复杂度可能会变得非常高。 为了解决这个问题,我们可以使用粒子群算法PSO)来优化SVM模型的参数。PSO是一种基于群体智能的优化算法,通过模拟鸟群在搜索食物(最优解)时的行为来优化函数。在PSO中,有许多粒子(候选解)在搜索空间中迭代移动,并以粒子的最佳位置和整个群体的最佳位置为导向。 在Matlab中,我们可以使用PSO优化SVM模型的参数。首先,我们需要定义SVM模型的目标函数,例如分类精度。然后,我们初始化一群粒子并在每个迭代中更新它们的位置和速度。每个粒子的位置表示SVM参数的取值,如惩罚参数C和核函数参数。 通过计算目标函数,我们可以评估当前粒子的适应度,并选择最佳位置来更新个体和全局最佳。通过不断迭代更新粒子的位置和速度,最终可以找到使SVM模型达到最佳性能的参数。 以下是一个简单的Matlab源代码示例,演示了如何使用粒子群算法优化SVM模型的参数(C和核函数参数)。 ```matlab % SVM模型目标函数 function acc = SVMObjective(params) % 设置SVM模型参数C和核函数参数 C = params(1); kernelParam = params(2); % 创建并训练SVM模型 % 计算分类精度 % 返回分类精度作为优化目标 end % 定义粒子群算法参数 options = optimoptions('particleswarm', 'MaxIterations', 100, 'Display', 'iter'); % 定义优化的变量范围 lb = [0.1, 0.1]; % 参数下界 ub = [10, 10]; % 参数上界 % 运行粒子群算法优化SVM模型的参数 [params, acc] = particleswarm(@SVMObjective, 2, lb, ub, options); % 输出最优参数和分类精度 disp('最优参数:'); disp(params); disp('分类精度:'); disp(acc); ``` 这个示例演示了如何使用粒子群算法(Particle Swarm Optimization, PSO优化SVM模型的参数,以使其达到最佳分类精度。在实际应用中,您可以根据自己的数据集和问题定义适当的目标函数,并调整优化参数,以获得更好的结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 24
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

龙庭花雨落

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值