OpenCVSharp 4.5 视频相似性分析

用 OpenCVSharp 4.5 跑一遍 OpenCV官方教程

原官方教程链接:OpenCV: Video Input with OpenCV and similarity measurement

using System;
using OpenCvSharp;

namespace ConsoleApp1
{
    class tutorial34 : ITutorial
    {
        public void Run()
        {
            int psnrTriggerValue = 40, delay = 100;

            string sourceReference =   @"I:\csharp\videos\Megamind.avi";
            string sourceCompareWith = @"I:\csharp\videos\Megamind_bugy.avi";
            int frameNum = -1;          // Frame counter
            VideoCapture captRefrnc = new VideoCapture(sourceReference);
            VideoCapture captUndTst = new VideoCapture(sourceCompareWith);

            if (!captRefrnc.IsOpened())
            {
                Console.WriteLine("Could not open reference {0}", sourceReference);
                return;
            }
            if (!captUndTst.IsOpened())
            {
                Console.WriteLine("Could not open case test {0}", sourceCompareWith);
                return;
            }
            Size refS = new Size((int)captRefrnc.Get(VideoCaptureProperties.FrameWidth),
                             (int)captRefrnc.Get(VideoCaptureProperties.FrameHeight)),
                 uTSi = new Size((int)captUndTst.Get(VideoCaptureProperties.FrameWidth),
                             (int)captUndTst.Get(VideoCaptureProperties.FrameHeight));
            if (refS != uTSi)
            {
                Console.WriteLine("Inputs have different size!!! Closing.");
                return;
            }
            string WIN_UT = "Under Test";
            string WIN_RF = "Reference";
            // Windows
            Cv2.NamedWindow(WIN_RF, WindowFlags.AutoSize);
            Cv2.NamedWindow(WIN_UT, WindowFlags.AutoSize);
            Cv2.MoveWindow(WIN_RF, 400, 0);         //750,  2 (bernat =0)
            Cv2.MoveWindow(WIN_UT, refS.Width, 0);         //1500, 2
            Console.WriteLine("Reference frame resolution: Width={0},Height={1} of nr#", refS.Width, refS.Height, captRefrnc.Get(VideoCaptureProperties.FrameCount));
            Console.WriteLine("PSNR trigger value {0}", psnrTriggerValue);

            Mat frameReference = new Mat(), frameUnderTest = new Mat();
            double psnrV;
            Scalar mssimV;
            for (; ; ) //Show the image captured in the window and repeat
            {
                captRefrnc.Read(frameReference);
                captUndTst.Read(frameUnderTest);

                if (frameReference.Empty() || frameUnderTest.Empty())
                {
                    Console.WriteLine(" < < <  Game over!  > > > ");
                    break;
                }
                ++frameNum;
                Console.Write("Frame: {0} #", frameNum);
                psnrV = getPSNR(frameReference, frameUnderTest);
                Console.Write("PSNR {0} dB", psnrV);
                if (psnrV < psnrTriggerValue && psnrV > 0)
                {
                    mssimV = getMSSIM(frameReference, frameUnderTest);
                    Console.Write(" MSSIM: R {0}%, G {1}%, B {2}% ", mssimV.Val2 * 100, mssimV.Val1 * 100, mssimV.Val0 * 100);
                }
                Console.WriteLine("");
                Cv2.ImShow(WIN_RF, frameReference);
                Cv2.ImShow(WIN_UT, frameUnderTest);
                char c = (char)Cv2.WaitKey(delay);
                if (c == 27) break;
            }
        }

        // ![get-psnr]
        private double getPSNR(Mat I1, Mat I2)
        {
            Mat s1 = new Mat();
            Cv2.Absdiff(I1, I2, s1);       // |I1 - I2|
            s1.ConvertTo(s1, MatType.CV_32F);  // cannot make a square on 8 bits
            s1 = s1.Mul(s1);           // |I1 - I2|^2
            Scalar s = Cv2.Sum(s1);        // sum elements per channel
            double sse = s.Val0 + s.Val1 + s.Val2; // sum channels
            if (sse <= 1e-10) // for small values return zero
                return 0;
            else
            {
                double mse = sse / (double)(I1.Channels() * I1.Total());
                double psnr = 10.0 * Math.Log10((255 * 255) / mse);
                return psnr;
            }
        }
        // ![get-psnr]

        // ![get-mssim]
        private Scalar getMSSIM(Mat i1, Mat i2)
        {
            const double C1 = 6.5025, C2 = 58.5225;
            /***************************** INITS **********************************/
            //int d = CV_32F;
            Mat I1 = new Mat(), I2 = new Mat();
            i1.ConvertTo(I1, MatType.CV_32F);            // cannot calculate on one byte large values
            i2.ConvertTo(I2, MatType.CV_32F);

            Mat I2_2 = I2.Mul(I2);        // I2^2
            Mat I1_2 = I1.Mul(I1);        // I1^2
            Mat I1_I2 = I1.Mul(I2);        // I1 * I2
            /*************************** END INITS **********************************/
            Mat mu1 = new Mat(), mu2 = new Mat();                   // PRELIMINARY COMPUTING
            Cv2.GaussianBlur(I1, mu1, new Size(11, 11), 1.5);
            Cv2.GaussianBlur(I2, mu2, new Size(11, 11), 1.5);
            Mat mu1_2 = mu1.Mul(mu1);
            Mat mu2_2 = mu2.Mul(mu2);
            Mat mu1_mu2 = mu1.Mul(mu2);
            Mat sigma1_2 = new Mat(), sigma2_2 = new Mat(), sigma12 = new Mat();
            Cv2.GaussianBlur(I1_2, sigma1_2, new Size(11, 11), 1.5);
            sigma1_2 -= mu1_2;
            Cv2.GaussianBlur(I2_2, sigma2_2, new Size(11, 11), 1.5);
            sigma2_2 -= mu2_2;
            Cv2.GaussianBlur(I1_I2, sigma12, new Size(11, 11), 1.5);
            sigma12 -= mu1_mu2;
            Mat t1, t2, t3;
            t1 = 2 * mu1_mu2 + C1;
            t2 = 2 * sigma12 + C2;
            t3 = t1.Mul(t2);                 // t3 = ((2*mu1_mu2 + C1).*(2*sigma12 + C2))
            t1 = mu1_2 + mu2_2 + C1;
            t2 = sigma1_2 + sigma2_2 + C2;
            t1 = t1.Mul(t2);                 // t1 =((mu1_2 + mu2_2 + C1).*(sigma1_2 + sigma2_2 + C2))
            Mat ssim_map = new Mat();
            Cv2.Divide(t3, t1, ssim_map);        // ssim_map =  t3./t1;
            Scalar mssim = Cv2.Mean(ssim_map);   // mssim = average of ssim map
            return mssim;
        }
    }
}

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
预处理:读取图片 第一步,缩小尺寸。 将图片缩小到8x8的尺寸,总共64个像素。这一步的作用是去除图片的细节,只保留结构、明暗等基本信息,摒弃不同尺寸、比例带来的图片差异。 第二步,简化色彩。 将缩小后的图片,转为64级灰度。也就是说,所有像素点总共只有64种颜色。 第三步,计算平均值。 计算所有64个像素的灰度平均值。 第四步,比较像素的灰度。 将每个像素的灰度,与平均值进行比较。大于或等于平均值,记为1;小于平均值,记为0。 第五步,计算哈希值。 将上一步的比较结果,组合在一起,就构成了一个64位的整数,这就是这张图片的指纹。组合的次序并不重要,只要保证所有图片都采用同样次序就行了。 得到指纹以后,就可以对比不同的图片,看看64位中有多少位是不一样的。在理论上,这等同于计算"汉明距离"(Hammingdistance)。如果不相同的数据位不超过5,就说明两张图片很相似;如果大于10,就说明这是两张不同的图片。 你可以将几张图片放在一起,也计算出他们的汉明距离对比,就可以看看两张图片是否相似。 这种算法的优点是简单快速,不受图片大小缩放的影响,缺点是图片的内容不能变更。如果在图片上加几个文字,它就认不出来了。所以,它的最佳用途是根据缩略图,找出原图。 实际应用中,往往采用更强大的pHash算法和SIFT算法,它们能够识别图片的变形。只要变形程度不超过25%,它们就能匹配原图。这些算法虽然更复杂,但是原理与上面的简便算法是一样的,就是先将图片转化成Hash字符串,然后再进行比较。 以上内容大部分直接从阮一峰的网站上复制过来,想看原著的童鞋可以去在最上面的链接点击进去看。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值