iOS 视频剪切、旋转,视频添加音频、添加水印,视频导出

概述

视频处理主要是用到以下这几个类
AVMutableCompositionAVMutableVideoCompositionAVMutableAudioMixAVMutableVideoCompositionInstructionAVMutableVideoCompositionLayerInstructionAVAssetExportSession 等。其中 AVMutableComposition 可以用来操作音频和视频的组合,AVMutableVideoComposition 可以用来对视频进行操作,AVMutableAudioMix 类是给视频添加音频的,AVMutableVideoCompositionInstruction和AVMutableVideoCompositionLayerInstruction 一般都是配合使用,用来给视频添加水印或者旋转视频方向,AVAssetExportSession 是用来进行视频导出操作的。需要值得注意的是当App进入后台之后,会对使用到GPU的代码操作进行限制,会造成崩溃,而视频处理这些功能多数会使用到GPU,所以需要做对应的防错处理。
在这里我会使用Apple的官方Demo "AVSimpleEditoriOS" 作为讲解案例,该案例采用Command设计模式来组织代码,其中基类的AVSECommand包含了一些各个子类Command共用的属性。本文就视频相关操作做简要介绍,说明一些相关的操作,并标注一些重点代码,希望本文可以起到抛砖引玉的效果,让大家对视频剪辑处理有个初步印象,然后可以根据Apple官方Demo的内容进行相应的修改。大家可以下载相应的Apple官方Demo运行查看结果。

@property AVMutableComposition *mutableComposition;
@property AVMutableVideoComposition *mutableVideoComposition;
@property AVMutableAudioMix *mutableAudioMix;
@property CALayer *watermarkLayer;

Command设计模式

视频剪切


视频头部剪切代码图
  1. 拿到视频和音频资源
  2. 创建AVMutableComposition对象
  3. 往AVMutableComposition对象添加视频资源,同时设置视频资源的时间段和插入点
  4. 往AVMutableComposition对象添加音频资源,同时设置音频资源的时间段和插入点

视频旋转

在查有关视频旋转的资料的时候查看了一篇很不错的参考资料,在这里给大家安利一下
http://blog.csdn.net/likendsl/article/details/7595611 讲的是矩阵运算的原理,对视图的矩阵操作的相关内容。


视频旋转代码图1

视频旋转代码图2

视频旋转代码图3
  1. 拿到视频和音频资源
  2. 创建AVMutableComposition对象
  3. 往AVMutableComposition对象添加视频资源,同时设置视频资源的时间段和插入点
  4. 往AVMutableComposition对象添加音频资源,同时设置音频资源的时间段和插入点
  5. 设置旋转矩阵变换
  6. 创建AVMutableVideoComposition对象
  7. 设置视频的渲染宽高和Frame
  8. 创建视频组合指令AVMutableVideoCompositionInstruction,并设置指令在视频的作用时间范围和旋转矩阵变换
  9. 创建视频组合图层指令AVMutableVideoCompositionLayerInstruction,并设置图层指令在视频的作用时间范围和旋转矩阵变换
  10. 把视频图层指令放到视频指令中,再放入视频组合对象中

这里给出不同旋转角度的案例代码,希望能够对你起帮助,节省你的时间。

     CGAffineTransform translateToCenter;
        if (self.degrees != 0) {
            CGAffineTransform mixedTransform;
            if(self.degrees == 90){
                //顺时针旋转90°
                NSLog(@"视频旋转90度,home按键在左");
                translateToCenter = CGAffineTransformMakeTranslation(mixedVideoTrack.naturalSize.height,0.0);
                mixedTransform = CGAffineTransformRotate(translateToCenter,M_PI_2);
                waterMarkVideoComposition.renderSize = CGSizeMake(mixedVideoTrack.naturalSize.height,mixedVideoTrack.naturalSize.width);
            }else if(self.degrees == 180){
                //顺时针旋转180°
                NSLog(@"视频旋转180度,home按键在上");
                translateToCenter = CGAffineTransformMakeTranslation(mixedVideoTrack.naturalSize.width, mixedVideoTrack.naturalSize.height);
                mixedTransform = CGAffineTransformRotate(translateToCenter,M_PI);
                waterMarkVideoComposition.renderSize = CGSizeMake(mixedVideoTrack.naturalSize.width,mixedVideoTrack.naturalSize.height);
            }else if(self.degrees == 270){
                //顺时针旋转270°
                NSLog(@"视频旋转270度,home按键在右");
                translateToCenter = CGAffineTransformMakeTranslation(0.0, assetVideoTrack.naturalSize.width);
                mixedTransform = CGAffineTransformRotate(translateToCenter,M_PI_2*3.0);
                waterMarkVideoComposition.renderSize = CGSizeMake(mixedVideoTrack.naturalSize.height,mixedVideoTrack.naturalSize.width);
            }
            AVMutableVideoCompositionInstruction *roateInstruction = [AVMutableVideoCompositionInstruction videoCompositionInstruction];
            roateInstruction.timeRange = CMTimeRangeMake(kCMTimeZero, [mixComposition duration]);
           AVMutableVideoCompositionLayerInstruction *roateLayerInstruction = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:mixedVideoTrack];

            [roateLayerInstruction setTransform:mixedTransform atTime:kCMTimeZero];

            roateInstruction.layerInstructions = @[roateLayerInstruction];
            //将视频方向旋转加入到视频处理中
            waterMarkVideoComposition.instructions = @[roateInstruction];

        }

视频添加音频


视频添加音频代码图1

视频添加音频代码图2
  1. 拿到视频和音频资源
  2. 创建AVMutableComposition对象
  3. 往AVMutableComposition对象添加视频资源,同时设置视频资源的时间段和插入点
  4. 往AVMutableComposition对象添加音频资源,同时设置音频资源的时间段和插入点
  5. 往AVMutableComposition对象添加要追加的音频资源,同时设置音频资源的时间段,插入点和混合模式

视频添加水印


视频添加水印1

视频添加水印2
  1. 拿到视频和音频资源
  2. 创建AVMutableComposition对象
  3. 往AVMutableComposition对象添加视频资源,同时设置视频资源的时间段和插入点
  4. 往AVMutableComposition对象添加音频资源,同时设置音频资源的时间段和插入点
  5. 创建视频组合器对象 AVMutableVideoComposition 并设置frame和渲染宽高
  6. 创建视频组合器指令对象,设置指令的作用范围
  7. 创建视频组合器图层指令对象,设置指令的作用范围
  8. 视频组合器图层指令对象 放入 视频组合器指令对象中
  9. 视频组合器指令对象放入视频组合器对象
  10. 创建水印图层Layer并设置frame和水印的位置,并将水印加入视频组合器中

视频导出


视频导出
  1. 创建输出路径
  2. 根据AVMutableComposition对象创建AVAssetExportSession视频导出对象
  3. 设置AVAssetExportSession的AVMutableVideoComposition对象,AVMutableAudioMix对象,视频导出路径,视频导出格式
  4. 异步导出视频,根据导出结果做对应处理。

http://blog.csdn.net/likendsl/article/details/7595611

如果你觉得本文对你有帮助,请在下方给个 喜欢 ,让我知道这文章起了它该起的作用!谢谢!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 前端的uinapp是一种跨平台的移动应用开发框架,可以用于实现iOS视频剪辑功能。 要使用uinapp实现iOS视频剪辑,可以采用以下步骤: 1. 首先,需要使用uinapp框架的相关组件来构建界面,包括按钮、文本框、进度条等。可以使用调试工具将这些组件放置在合适的位置,并为它们添加相应的事件处理函数。 2. 接下来,需要在界面上添加视频选择的功能。可以使用组件或者原生API来实现。用户可以通过点击按钮或者拖拽方式选择视频文件。 3. 一旦选择了视频文件,需要先将视频文件上传到服务器进行处理。可以使用HTTP请求将视频文件发送到服务器,并在前端界面上显示上传的进度。 4. 上传完成后,服务器会返回一个视频处理的任务ID。前端需要通过定时轮询或者WebSocket等方式向服务器查询任务的状态。可以在界面上显示任务的进度,并提供取消任务的功能。 5. 当视频处理任务完成时,服务器会将处理后的视频文件发送回前端。前端可以将视频文件保存到本地,并在界面上显示视频的封面和时长信息。 6. 最后,需要添加视频剪辑的功能。可以使用组件或者原生API来实现。用户可以通过拖拽方式选择需要剪辑的区域,并通过界面上的按钮来确认和保存剪辑结果。 综上所述,使用前端的uinapp框架可以实现iOS视频剪辑功能。通过界面的构建、视频选择、上传和处理、任务查询、视频剪辑等步骤,可以完成视频剪辑的操作,并在前端界面上显示相关信息和进度。 ### 回答2: 前端uinapp是一种开发工具,可用于实现iOS视频剪辑功能。iOS视频剪辑的主要目标是允许用户在手机上编辑和修改视频内容,包括裁剪、旋转添加滤镜和转场效果、调整音频等操作。 在前端uinapp中实现iOS视频剪辑可以按照以下步骤进行: 1. 创建界面:使用前端uinapp的界面组件,设计一个用户友好的界面,包括视频预览窗口、时间轴、编辑工具栏等。 2. 导入视频:提供用户导入视频的功能,可以通过调用iOS原生接口,让用户选择要编辑的视频文件,并将其导入前端uinapp中。 3. 裁剪视频:允许用户在时间轴上选择起始和结束时间点,然后对视频进行裁剪。可以使用前端uinapp的视频处理组件,调整视频的播放范围,剔除不需要的部分。 4. 添加滤镜和转场效果:提供一系列滤镜和转场效果供用户选择,并应用到视频中。这可以通过调用您选择的滤镜和效果的API来实现。 5. 调整音频:允许用户对视频音频进行调整,包括音量、混音等参数的调整。可以使用前端uinapp的音频处理组件,使用户能够更改视频音频部分。 6. 预览和导出:在界面中提供预览功能,用户可以预览编辑后的视频,确保满足预期效果。一旦满意,用户可以选择导出编辑后的视频,可以使用iOS原生接口导出视频文件。 总结起来,前端uinapp可以通过界面设计、视频导入、裁剪、滤镜和效果应用、音频调整、预览和导出等功能,实现iOS视频剪辑的要求。通过这些步骤,用户可以自由地编辑和修改自己的视频内容,制作出满意的剪辑作品。 ### 回答3: 前端 UINAPP 是一种用于移动应用开发的前端框架,可以用于实现 iOS 视频剪辑功能。 首先,在 iOS 系统中,可以使用 AVFoundation 框架来处理视频音频。我们可以通过 UINAPP 的前端界面来获取用户选择的视频文件,并将其传递给后端进行处理。 在 UINAPP 中,可以使用 HTML5 的 video 元素来显示视频内容,并通过 JavaScript 控制视频播放。用户可以通过点击界面上的剪辑按钮选择视频的起始和结束时间,并通过 JavaScript 将剪辑的时间参数传递给后端。 接下来,后端可以使用 AVFoundation 框架来剪辑视频。通过 AVAsset 和 AVAssetExportSession 类,我们可以实现视频的剪辑和导出功能。根据前端传递的剪辑时间参数,可以使用 AVAsset 类的 timeRange 属性对视频进行裁剪,然后使用 AVAssetExportSession 类将裁剪后的视频导出为新的文件。 最后,后端可以将处理好的剪辑视频文件返回给前端,前端通过 UINAPP 的界面将剪辑后的视频显示给用户。 总结起来,前端 UINAPP 可以实现 iOS 视频剪辑功能的具体步骤如下: 1. 在前端界面中显示视频,并通过 JavaScript 控制视频播放。 2. 用户通过界面按钮选择视频的起始和结束时间。 3. 前端将选择的时间参数传递给后端。 4. 后端使用 AVFoundation 框架对视频进行剪辑。 5. 后端将剪辑后的视频返回给前端。 6. 前端通过 UINAPP 的界面将剪辑后的视频显示给用户。 通过这样的步骤,可以实现在前端 UINAPP 中实现 iOS 视频剪辑的功能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值