GPUImage的图像形变设计(简单形变部分)

GPUImage是iOS平台主流的GPU图像处理框架,能够非常方便地使用GPU对图像进行处理,包括:滤镜、分布统计等。

我们知道,如果需要对一个图像进行滤镜处理,一般而言只需要设计FragmentShader即可以达到目的。比如:需要对图像进行亮度调节,仅需要FragmentShader中对像素点的颜色值进行修改即可,并不需要自定义VertexShader。

那么,能否基于GPUImage进行一定的形变处理呢?答案是肯定的。对于形变的处理,可以是基于FragmentShader的,也可以是基于VertexShader的,也可以通过自定义顶点vertices和textureCoordinates来实现。下面会分别介绍一下如何通过设计来实现基于GPUImage的图像形变。

Part1:基于FragmentShader的图像形变设计

其实,有一部分形变是可以基于FragmentShader去实现的。直观的比如:翻转、旋转、压缩等。下面举几个具体的示例和相应FragmentShader的实现。

这里写图片描述

1. 翻转

为了实现翻转,只需要简单的将textureCoordinate的x、y值进行相应的改变即可:

vec2 newTex = vec2(1.0 – textureCoordinate.x, textureCoordinate.y); //代表水平翻转vec2 newTex = vec2(textureCoordinate.x, 1.0 – textureCoordinate.y); //代表垂直翻转vec2 newTex = vec2(1.0 – textureCoordinate.x, 1.0 - textureCoordinate.y); //代表水平+垂直翻转
2. 旋转
vec2 newTex = vec2(textureCoordinate.y, 1.0 - textureCoordinate.x);  //代表向右旋转90度

3. 压缩

vec2 newTex = vec2(textureCoordinate.x * 2.00.5, textureCoordinate.y * 2.00.5);

代表将图像缩小到原来的1/2长和宽,并居住

4. 变平行四边形
vec2 newTex = vec2(textureCoordinate.x * 2.0 + textureCoordinate.y1.0, textureCoordinate.y);
5. 大眼

相比于之前的几种形变,大眼的操作就相对比较复杂了。这里假设奥巴马右眼(图中左眼)中心的坐标是(x0, y0),放大范围的半径为r,则:

vec2 center = vec2(x0, y0);
vec2 newTex = textureCoordinate.xy;float dist = sqrt((center.x – newTex.x)* (center.x – newTex.x) + (center.y – newTex.y)* (center.y – newTex.y));if (dist < r){
         float ratio = sqrt(dist / r);
         float x1 = center.x – (center.x – newTex.x) * ratio;
         float y1 = center.y – (center.y – newTex.y) * ratio;
         newTex = vec2(x1, y1);
}

具体思想是:对于中心(x0,y0)半径r中的点,做一个偏移的调整,使得整体偏移值更大(ratio<1,所以相比正常情况,会取离(x0,y0)点更近的图中的点,从而实现眼睛的“放大”)

需要特别注意的一点是,对于通过FragmentShader进行形变处理时,如果形变后的图像有像素缺失(即:形变后图像小于旧的图像),需要对多出来的点有一个特殊赋值,否则就会出现下面的情况:

这里写图片描述

如上图所示,如果不设置超出画面像素的填充颜色,则会将最外层的像素重复填充(主观感受是线条拉伸),当然,也可以设置Texture Wrapping Mode为GL_REPEAT来平铺填充(重复画面)。不过,一般而言,还是设置超出屏幕部分为纯色底图(纯白、纯黑)比较合适~

小结一下:

基于FragmentShader的图像形变设计,主要是基于坐标点的x,y的简单变换得到的,适合于旋转、翻转、缩放、一些规则四边形变形等情况。对与复杂的形变,比如大眼,就需要设计较为复杂的Shader来实现。由于每个像素点都需要进行一次FragmentShader的计算,因此复杂形变处理时,需要的GPU计算量更大。

Part2:基于自定义vertices的图像形变设计

对于Part1中举例的简单形变而言,通过巧妙的传递顶点坐标,可以实现在使用默认Shader的情况下的图像形变。具体示例如下:
这里写图片描述

对于GPUImage而言,默认的顶点如左上角的A、B、C、D点所示。我们只需要调整这4个实际渲染顶点的位置(vertices),即可以轻松实现简单形变。代码如下:

在- (void)renderToTextureWithVertices:(const GLfloat )vertices textureCoordinates:(const GLfloat )textureCoordinates函数中,修改如下:

//不使用默认的顶点//默认的vertices: {-1.0, -1.0, 1.0, -1.0, -1.0, 1.0, 1.0, 1.0}//glVertexAttribPointer(filterPositionAttribute, 2, GL_FLOAT, 0, 0, vertices);       GLfloat meshVertices[8] = {1.0, -1.0, -1.0, -1.0, 1.0, 1.0, -1.0, 1.0};
glVertexAttribPointer(filterPositionAttribute, 2, GL_FLOAT, 0, 0, &meshVertices[0]);

这样就实现了水平翻转。同理可以实现旋转、压缩等。

小结一下:

通过自定义顶点的方式,可以在不改变默认fragmentShader和vertexShader的情况下,轻松实现简单的形变。然而,对于局部形变(比如大眼),就没有这么轻松了。

那么,如何实现复杂形变呢?我们会在“基于GPUImage的图像形变设计(复杂形变部分)”再做介绍~

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
MRI图像形变矫正算法有多种,下面列举一些常用的算法: 1. 配准算法:配准是一种常用的形变矫正方法,通过将扫描得到的图像与参考图像进行匹配,计算图像之间的变换参数,将图像对齐到一个共同的坐标系。常用的配准算法包括互信息(Mutual Information)、最小二乘(Least Squares)、归一化互相关(Normalized Cross-Correlation)等。 2. 畸变场校正算法:针对由于磁场不均匀性引起的畸变,可以使用磁场畸变校正算法。这类算法通过获取磁场畸变场图或外部参考图像,将其与原始图像进行配准,然后根据畸变场进行图像校正。 3. 运动校正算法:针对患者在MRI扫描期间的运动引起的形变,可以使用运动校正算法。这类算法通过跟踪患者运动,并将其运动参数应用于图像重建过程,以纠正由于运动引起的图像形变。 4. 形变模型算法:形变模型算法通过建立形变模型来描述图像形变情况,并根据模型参数来进行形变校正。常用的形变模型包括仿射变换、非线性变换(如B-spline变换)等。 5. 深度学习算法:近年来,深度学习在MRI图像形变矫正中也取得了一些进展。通过使用深度神经网络,可以学习图像之间的非线性关系,并进行形变校正。常见的深度学习算法包括卷积神经网络(CNN)和生成对抗网络(GAN)等。 这些算法可以单独使用或结合使用,具体选择哪种算法取决于应用场景、数据特点和性能需求。在实际应用中,需要根据具体情况进行选择和调优,并进行算法验证和评估。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值