神经网络ANN分类器及OpenCV实现

OpenCV中实现神经网络分类非常简单,使用CvANN_MLP定义分类器,CvANN_MLP_TrainParams设置训练参数,添加训练数据,使用train和predict进行训练和预测。

        CvANN_MLP_TrainParams各训练参数说明:

        term_crit:训练算法的终止标准,确定算法的最大迭代次数(对序列反向传播算法,该值乘以训练集大小)和两次迭代间权值变化量。
       Train_method 训练算法,可以是CvANN_MLP_TrainParams::BACKPROP (随机序列反向传播) 或者CvANN_MLP_TrainParams::RPROP (RPROP,默认值)。
        bp_dw_scale(只用于bp网络),该系数乘以计算出的权值梯度,推荐值为0.1。该参数可通过构造函数的param1设置。
        bp_moment_scale(只用于bp网络),该系数乘以前两次迭代的权值之差,平滑权值的随机影响,取值从0-1(0对应的特征被disable)或更大,0.1左右已经足够了。可通过构造函数的param1设置
        rp_dw0 (RPROP only):权值delta的初始化幅值,默认值为0.1,可通过构造函数的param1设置。
        rp_dw_plus(RPROP only):权值delta的增长因子,必须大于1,默认为1.2(根据算法的作者,该值大部分情况下可行)。该参数只能通过修改结构体成员来显式更改。
        rp_dw_minus (RPROP only): 权值delta的减小因子,必须小于1,默认为0.5(根据算法的作者,该值大部分情况下可行)。该参数只能通过修改结构体成员来显式更改。
        rp_dw_min (RPROP only): 权值delta的最小值,必须大于0,默认为FLT_EPSILON,可通过构造函数param2设置
        rp_dw_max (RPROP only): 权值delta的最大值,必须大于1,默认为50,该参数只能通过修改结构体成员来显式更改。
        结构体带有默认构造函数,初始化RPROP 算法参数。也有更多构造函数可以定制参数、选择bp算法,单个参数可在结构体创建后调整,使用构造方法初始化时param1可初始化化多个参数,他们往往是一样的

代码:

#include <opencv2/core/core.hpp>  
#include <opencv2/highgui/highgui.hpp>  
#include <opencv2/ml/ml.hpp>  
#include <iostream>  
#include <string>  

using namespace std;
using namespace cv;

int main()
{
	CvANN_MLP bp;
	//设置训练参数
	CvANN_MLP_TrainParams params;
	params.train_method = CvANN_MLP_TrainParams::BACKPROP;//训练算法设置为随机序列反向传播
	//该系数乘以计算出的权值梯度,推荐值为0.1。
	params.bp_dw_scale = 0.1; 
	//该系数乘以前两次迭代的权值之差,平滑权值的随机影响,取值从0-1(0对应的特征被disable)或更大,0.1左右已经足够了。
	params.bp_moment_scale = 0.1;
	//params.train_method=CvANN_MLP_TrainParams::RPROP;//正向传播
	//params.rp_dw0 = 0.1;//权值delta的初始化幅值,默认值为0.1,可通过构造函数的param1设置。 
	//params.rp_dw_plus = 1.2;//权值delta的增长因子,必须大于1,默认为1.2(根据算法的作者,该值大部分情况下可行)
	//params.rp_dw_minus = 0.5;//权值delta的减小因子,必须小于1,默认为0.5(根据算法的作者,该值大部分情况下可行)
	//params.rp_dw_min = FLT_EPSILON;//权值delta的最小值,必须大于0,默认为FLT_EPSILON 
	//params.rp_dw_max = 50.;//权值delta的最大值,必须大于1,默认为50 

	//定义训练数据
	float labels[3][5] = { { 0, 0, 0, 0, 0 }, { 2, 2, 2, 2, 2 }, { 1, 1, 1, 1, 1 } };
	Mat labelsMat(3, 5, CV_32FC1, labels);

	float trainingData[3][5] = { { 1, 2, 3, 4, 5 }, { 111, 112, 113, 114, 115 }, { 21, 22, 23, 24, 25 } };
	Mat trainingDataMat(3, 5, CV_32FC1, trainingData);
	Mat layerSizes = (Mat_<int>(1, 5) << 5, 2, 2, 2, 5);//神经元的层级结构,分5层,每层分支为5, 2, 2, 2, 5
	bp.create(layerSizes, CvANN_MLP::SIGMOID_SYM);//分类算法
	//CvANN_MLP::SIGMOID_SYM
	//CvANN_MLP::GAUSSIAN  
	//CvANN_MLP::IDENTITY  
	bp.train(trainingDataMat, labelsMat, Mat(), Mat(), params);
	bp.save("bp.xml");//保存训练结果
	//计算每个像素的分类
	int width = 512, height = 512;
	Mat image = Mat::zeros(height, width, CV_8UC3);
	Vec3b green(0, 255, 0), blue(255, 0, 0), red(0,0,255);
	// Show the decision regions given by the SVM  
	for (int i = 0; i < image.rows; ++i)
	for (int j = 0; j < image.cols; ++j)
	{
		Mat sampleMat = (Mat_<float>(1, 5) << i, j, 0, 0, 0);
		Mat responseMat;
		bp.predict(sampleMat, responseMat);
		float* p = responseMat.ptr<float>(0);
		float response = 0.0f;
		for (int k = 0; k<5; k++)
		{
			response += p[k];
		}
		//labels中0,1,2三种结果,我们分为三种颜色显示
		if (response >8)
			image.at<Vec3b>(j, i) = green;
		else if (response >4)
			image.at<Vec3b>(j, i) = blue;
		else
			image.at<Vec3b>(j, i) = red;
	}

	imwrite("result.png", image);        // save the image   
	imshow("BP Simple Example", image); // show it to the user  
	waitKey(0);

}
结果:

                                                   

        图片分辨率为512x512,训练数据有3种结果,对应图中3个分类,分别用了3中颜色显示。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值