cnn突破四(生成卷积核与固定核对比)

cnn突破三中生成四个卷积核,训练6万次,91分,再训练6万次,95分,不是很满意,但又找不到问题点,所以就想了个办法,使用三个固定核,加上三层bpnet神经网络,看看效果,还别说,固定核效果不错,训练6万次,逼近96分,而且不到十秒就训练完成了,而机器自动生成卷积核要40多秒!以下是代码,做个记录,为什么图像处理中常用的卷积核效果好?

14:24 2024/9/25
已经打包,已经改成100,变化不大
然后想到,用那三个卷积核,加上三层网络,
结果太开心,稳定在96三次,时而突破97,学习6万次一共四次
如果重复学习,已经有参数,不低于97
28*28gaos后降采样成14*14,使用三个卷积核并行,变成3@12*12,
降采样到3@6*6,108全连接80-10,结束
先打包一个,太激动le,95就这样突破了

这是当天的日记。代码如下:

先看forward函数:

forward第一步;使用soblex,sobely,以及lapulas三个核,14*14-》3@12*12

  int w = 14;
            int ww = w;
            int h = 14;
            int hh = h;
            double[] A1 = new double[12 * 12]; double[] A2 = new double[12 * 12]; double[] A3 = new double[12 * 12];
            int k = 0;
            for (int j = 1; j < (h - 1); j++)
            {
                for (int i = 1; i < (w - 1); i++)
                {
                    int n0 = (j * w + i);
                 
                    double Grady = xI[n0 - 1 - ww] + 2 * xI[n0 - ww] + xI[n0 - ww + 1]
                        - xI[n0 + ww - 1] - 2 * xI[n0 + ww] - xI[n0 + ww + 1];


                    A1[k] = Grady;

                    double Gradx = xI[n0 - ww + 1] + 2 * xI[n0 + 1] + xI[n0 + ww + 1]
                         - xI[n0 - ww - 1] - 2 * xI[n0 - 1] - xI[n0 + ww - 1];

                 
                    A2[k] = Gradx;


                    double lapulas = xI[n0 + 1] + xI[n0 - 1] - 2 * xI[n0] + xI[n0 + w] + xI[n0 - w] - 2 * xI[n0];//拉普拉斯=+

                   
                    A3[k] = lapulas;

                    k++;
                }
            }

forward第二步:池化取最大,变成6*6@3

  //第二步,降级采样
           // List<double>
                hebing固定 = new List<double>();//一共36*3
            for (int i = 0; i < 6; i++)
                for (int j = 0; j < 6; j++)//
                {
                    int l = (i) * 6 + j;
                    double tempb = 0;
                   
                    for (int m = 0; m < 2; m++)
                        for (int n = 0; n < 2; n++)
                        {
                            int kk = (i * 2 + m) * 12 + j * 2 + n;

                            if (A1[kk] > tempb)
                            {
                                tempb = A1[kk];
                             

                            }
                        }
                    hebing固定.Add(tempb);
                   // hIcnn[l] = tempb;//25个数据,通过这个关系,就能找到14*14matrix中去。202409181038
                }
            for (int i = 0; i < 6; i++)
                for (int j = 0; j < 6; j++)//
                {
                    int l = (i) * 6 + j;
                    double tempb = 0;

                    for (int m = 0; m < 2; m++)
                        for (int n = 0; n < 2; n++)
                        {
                            int kk = (i * 2 + m) * 12 + j * 2 + n;

                            if (A2[kk] > tempb)
                            {
                                tempb = A2[kk];


                            }
                        }
                    hebing固定.Add(tempb);
                    // hIcnn[l] = tempb;//25个数据,通过这个关系,就能找到14*14matrix中去。202409181038
                }
            for (int i = 0; i < 6; i++)
                for (int j = 0; j < 6; j++)//
                {
                    int l = (i) * 6 + j;
                    double tempb = 0;

                    for (int m = 0; m < 2; m++)
                        for (int n = 0; n < 2; n++)
                        {
                            int kk = (i * 2 + m) * 12 + j * 2 + n;

                            if (A3[kk] > tempb)
                            {
                                tempb = A3[kk];


                            }
                        }
                    hebing固定.Add(tempb);
                    // hIcnn[l] = tempb;//25个数据,通过这个关系,就能找到14*14matrix中去。202409181038
                }

forward第三步:合并3@6*6=108,归一化后全连接

  //先观察数据,并归一化hebing固定
       
            double linshimax=0;
            for (int i = 0; i < hebing固定.Count;i++ )
            {
             
                if (hebing固定[i] > linshimax) linshimax = hebing固定[i];
            }
            hebing固定归一化=new double[108];
            for (int i = 0; i < hebing固定.Count; i++)
            {
                hebing固定归一化[i]=hebing固定[i] / linshimax;
            }
          
            hI固定 = new double[80];
            //通过w1计算输入层-隐藏层输入节点 
            for (int i = 0; i < 36 * 3; i++)//108
                for (int j = 0; j < 80; j++)//80

                    hI固定[j] += hebing固定归一化[i] * w1固定[i, j];

            //通过激活函数对隐藏层进行计算 
            for (int i = 0; i < 80; i++)
                hO固定[i] = sigmoid(hI固定[i] + bh固定[i]);
         
            yi固定 = new double[10];
            //通过w2计算隐藏层-输出层
            for (int i = 0; i < 80; i++)
                for (int j = 0; j < 10; j++)

                    yi固定[j] += hO固定[i] * w2固定[i, j];

            //通过激活函数求yo
            for (int i = 0; i < 10; i++)
                yO固定[i] = sigmoid(yi固定[i] + by固定[i]);

以上就完成了forward函数,下面再看:backward函数:

   void backcnn固定()
        {
            //对w2进行更新 
          double []deltax=new double[10];

            for (int j = 0; j < 10; j++)//10
            {
                deltax[j] = (yO固定[j] - d[j]) * dsigmoid(yO固定[j]);
                by固定[j] -= deltax[j] * learnRate;
                for (int i = 0; i < 80; i++)//
                {

            
                    w2固定[i, j] -= deltax[j] * learnRate * hO固定[i];
                    
                }
            }

            //对反向传播进行预处理 

            double[] W2 = new double[80];//
       
            for (int j = 0; j < 80; j++)
                for (int k = 0; k < 10; k++)
                    W2[j] += deltax[k] * w2固定[j, k];

            //对w1进行更新

            for (int j = 0; j < 80; j++)
            {
                double delta = dsigmoid(hO固定[j]) * W2[j];
                bh固定[j] -= delta * learnRate;
                for (int i = 0; i < 108; i++)//
                {

                    w1固定[i, j] -= delta * learnRate * hebing固定归一化[i];
                   
                }
            }
           
        }

这就完了,看看运行效果:

然后再看那个自己生成四个卷积核的cnn,对比有什么感想:

14:31 2024/9/25
另外,降采样中取最大的提示,是否高斯后也如此操作,而不是各行各列降采样?
15:37 2024/9/25
已经尝试,效果不好

这是第一个直觉上的想法,并验证,不行,第二个直觉上的想法:

我们5*5的卷积核,都不是像图像处理中的卷积核,我们自己生成的卷积核都是针对第一像素的处理,而图像处理中的卷积核,都是针对中心像素卷积的,以为这个中心对齐有效果,求证后,没有质的提升!

找不出来为什么得分在91-95之间,我就认为,自己的程序当下没有问题!

在这个自生成卷积核cnn上,我想是不是层数太少导致的,所以,我扩展了结构:

28*28-》4@24*24-》4@12*12-》16@8*8-》16@4*4-》80-》10,使用了4个5*5卷积核,以及16个5*5卷积核,让网络自己生成,期间我只是吧步长learnrate由0.2降为0.07,

这个结构程序达成的得分仍然在91-95之间,仍然不如固定核一次就能训练到96分

虽然有点沮丧,但是,我发现,我的这个cnn架构,已经和lecun的lenet-1相当,

这才是最大的成功,别人花了那么多年的成果,就这样被我突破了!

其实,想一想,还有好几个法宝都没用上,以后有机会在推进一下!

然后,我把这个固定核bpnet移植到自己的机器视觉megauning中试了试,发现速度跟不上,

然后就放弃了!

说实话,这个不如我在形状匹配中引入角点的效果,虽然时间长了一点点,但时间在500ms内能搞定,而且得分由原来的37分的确定界限,翻一番都不止!

这个固定核bpnet改成匹配,时间接近2秒,而且用识别分类的方法来找(匹配)准确位置,效果不值一提!

但可以肯定的是,cnn是可以用来定位的,但很明显人工智能的cnn显然与机器视觉在应用场景上极大的不同!

这更增强了我对机器视觉的信心!ai在场景的落地上还需要时间,我觉得用人工智能判断疾病应该有极大的空间!

哎,又好长时间没有看中医了,ai应该和中医能很好的结合!这上面我是有信心的,中医识别和分类很像cnn。

总结:人眼中有识别和匹配,但识别和匹配不一样,匹配是拉着弓,百步穿杨,而识别是那是杨树叶,或者说,那是杨树。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值