iOS使用FFmpeg命令行

文章详细介绍了如何在iOS工程中导入和配置FFmpeg,包括添加库文件、设置HeaderSearchPaths、修改命令行工具代码以适应iOS环境。此外,还提供了一个用于执行ffmpeg命令的方法,并展示了如何处理进度回调和获取处理进度。最后,列举了一些常用的ffmpeg命令行参数,并提供了音视频开发相关学习资源。
摘要由CSDN通过智能技术生成

1.导入iOS工程的配置及使用命令行工具的配置


1、编译成功之后会得到FFmpeg-iOS这么一个目录,里面有lib、include两个子目录,把FFmpeg-iOS直接拖进工程里\

2、添加需要的系统依赖库,Build Phases — Link Binary With Libraries,添加 libz.tbd、libbz2.tbd、libiconv.tbd、CoreMedia.framework、VideoToolbox.framework、AudioToolbox.framework

3、设置 Header Search Paths 路径,指向项目中include目录

  • 到这里command+B已经可以编译成功了,只使用FFmpeg API的话配置到这里就可以了,下面关于使用命令行的配置基于FFmpeg4.2版本,不同的版本之间可能会存在一些小的差异

4、找到源码ffmpeg-4.2/fftools目录下的这些文件导入项目中,如下图

config.h文件在ffmpeg-4.2文件夹同级的scratch文件夹中,scratch下面有不同架构的,真机选用arm64的即可

5、修改命令行工具的代码

  • 全局搜索这些头文件,有引用的地方全部注释

**

#include "compat/va_copy.h"

#include "libavresample/avresample.h"

#include "libpostproc/postprocess.h"

#include "libavutil/libm.h"

#include "libavutil/time_internal.h"

#include "libavutil/internal.h"

#include "libavformat/network.h"

#include "libavcodec/mathops.h"

#include "libavformat/os_support.h"

#include "libavutil/thread.h"

复制代码

  • ffmpeg.c文件中,注释下面的函数调用 并导入系统头文件 #include <pthread.h>

**

nb0_frames = nb_frames = mid_pred(ost->last_nb0_frames[0],

ost->last_nb0_frames[1],

ost->last_nb0_frames[2]);

ff_dlog(NULL, "force_key_frame: n:%f n_forced:%f prev_forced_n:%f t:%f prev_forced_t:%f -> res:%f\n",

ost->forced_keyframes_expr_const_values[FKF_N],

ost->forced_keyframes_expr_const_values[FKF_N_FORCED],

ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_N],

ost->forced_keyframes_expr_const_values[FKF_T],

ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_T],

res);

复制代码

  • cmdutils.c文件中print_all_libs_info函数里注释以下两行代码

**

PRINT_LIB_INFO(avresample, AVRESAMPLE, flags, level);

PRINT_LIB_INFO(postproc, POSTPROC, flags, level);

复制代码

  • ffmpeg_opt.c文件中注释以下两行代码

**

{ "videotoolbox", videotoolbox_init, HWACCEL_VIDEOTOOLBOX, AV_PIX_FMT_VIDEOTOOLBOX },

{ "videotoolbox_pixfmt", HAS_ARG|OPT_STRING|OPT_EXPERT, { &videotoolbox_pixfmt}, "" },

复制代码

  • 解决mian函数重复的问题,修改如下

**

ffmpeg.h 文件下增加函数声明:

int ffmpeg_main(int argc, char **argv);

ffmpeg.c 文件中:

main函数修改为ffmpeg_main;主要是为了避免两个main函数存在

复制代码

  • 修改执行一次 ffmpeg_main 方法后 App闪退问题

**

看到一些文章里说修改cmdutils.c中的exit_program函数,注释掉退出进程的代码,本人实测还是有问题,

最终修改是 ffmpeg.c文件中把所有调用 exit_program 函数的地方改为调用 ffmpeg_cleanup 函数就可以了。

复制代码

注意:当前全部改成ffmpeg_cleanup会出现的一些情况,比如执行查看视频信息的命令,这个命令里面没有设置输出路径,原来的代码里走到判断没有输出路径的分支直接调用exit_program就退出了进程,改成调用ffmpeg_cleanup后代码会继续往下走导致一些访问空指针的崩溃,这种个别情况自己再针对进行处理就好了,不过一般使用场景中都会有输入和输出

  • 修改多次调用 ffmpeg_main 时,访问空指针的问题:

**

ffmpeg.c 文件中

在 ffmpeg_cleanup 方法中重置计数器,在 term_exit(); 这行代码前添加重置计数的代码

修改后如下:

nb_filtergraphs = 0;

nb_output_files = 0;

nb_output_streams = 0;

nb_input_files = 0;

nb_input_streams = 0;

term_exit();

复制代码

以上这些都修改完,command+B,编译成功!可以使用命令行了,在使用的地方引入头文件 #import "ffmpeg.h"即可。

2.命令行的使用及处理进度回调


我这里封装了一个使用cmd的方法,代码如下

**

#import"HEFFmpegTools.h"

#import"ffmpeg.h"

@implementationHEFFmpegTools

///执行ffmpeg指令," "为分割标记符

+ (void)runCmd:(NSString *)commandStrcompletionBlock:(void(^)(intresult))completionBlock {

dispatch_async(dispatch_get_global_queue(0, 0), ^{

// 根据 " " 将指令分割为指令数组

NSArray *argv_array = [commandStrcomponentsSeparatedByString:(@" ")];

// 将OC对象转换为对应的C对象

intargc = (int)argv_array.count;

char** argv = (char**)malloc(sizeof(char*)*argc);

for(inti=0; i < argc; i++) {

argv[i] = (char*)malloc(sizeof(char)*1024);

strcpy(argv[i],[[argv_arrayobjectAtIndex:i] UTF8String]);

}

// 传入指令数及指令数组,result==0表示成功

intresult = ffmpeg_main(argc,argv);

NSLog(@"执行FFmpeg命令:%@,result = %d",commandStr,result);

dispatch_async(dispatch_get_main_queue(), ^{

completionBlock(result);

});

});

}

@end

复制代码

使用runCmd函数的示例代码,把一个视频旋转90度并保存到相册

**

letvideoPath= NSSearchPathForDirectoriesInDomains(.cachesDirectory,.userDomainMask,true).first!+"/tempvideo.mp4"

letinputVideo="(Bundle.main.bundlePath)/ffm_video2.mp4"

lettransformCmd="ffmpeg -i (inputVideo) -y -vf rotate=PI/2 (videoPath)";

HEFFmpegTools.runCmd(transformCmd){(result)in

ifFileManager.default.fileExists(atPath:videoPath){

print("保存到相册");

UISaveVideoAtPathToSavedPhotosAlbum(videoPath,nil,nil,nil)

}

}

复制代码

获取处理进度 1、任意创建一个Cocoa Touch Class 作为在.c里面引用的桥接文件,.h文件代码全部删掉,声明函数

**

///获取输入源文件的时长

void setDuration(long long duration);

///获取当前的处理进度

void setCurrentTimeFromProgressInfo(char *progressInfo);

复制代码

.m中删除代码只保留头文件的引用,实现如下

**

#import "HEFFmpegBridge.h"

#import <Foundation/Foundation.h>

staticlonglongtotalDuration=0;

voidsetDuration(longlongduration) {

//duration的精度到微秒

//比如视频长度 00:00:24.53,duration会是24533333

//比如视频长度 00:01:16.10,duration会是76100000

printf("\n fileDuration = %lld\n",duration);

totalDuration=duration;

}

voidsetCurrentTimeFromProgressInfo(char*progressInfo) {

//progressInfo

//e.g. frame= 1968 fps=100 q=31.0 size= 4864kB time=00:01:06.59 bitrate= 598.3kbits/s speed=3.38x

//printf("\n ctime = %s\n",progressInfo);

NSString*progressStr= [NSStringstringWithCString:progressInfoencoding:NSUTF8StringEncoding];

NSArray*infoArray= [progressStrcomponentsSeparatedByString:@" "];

NSString*timeString=@"";

for (NSString*infoininfoArray) {

if ([infocontainsString:@"time"]) {

timeString= [infocomponentsSeparatedByString:@"="].lastObject;//e.g. 00:01:16.10,精确到十毫秒

}

}

NSArray*hmsArray= [timeStringcomponentsSeparatedByString:@":"];

if (hmsArray.count!=3) {

return;

}

longlonghours= [hmsArray[0] longLongValue];

longlongminutes= [hmsArray[1] longLongValue];

longlongseconds=0;

longlongmseconds=0;

NSArray*tempArr= [hmsArray[2] componentsSeparatedByString:@"."];

if (tempArr.count==2) {

seconds= [tempArr.firstObjectlongLongValue];

mseconds= [tempArr.lastObjectlongLongValue];

}

longlongcurrentTime= (hours*3600+minutes*60+seconds) *1000000+mseconds*10000;

doubleprogress= [[NSStringstringWithFormat:@"%.2f",currentTime*1.0/totalDuration] doubleValue];

NSLog(@"progress = %.2f",progress);

// //ffmpeg操作是在子线程中执行的

// dispatch_async(dispatch_get_main_queue(), ^{

// //更新进度UI

// });

}

从上面的代码可以看到,处理进度的回调主要是通过setDuration获取输入源文件的总时长,setCurrentTimeFromProgressInfo获取当前已处理的时长,然后根据两者比例计算出当前的进度,细节直接看代码

2、什么时机调用这两个函数?

  • ffmpeg_opt.c文件中 open_input_file函数里在err = avformat_open_input(&ic, filename, file_iformat, &o->g->format_opts); 之后调用 setDuration(ic->duration);

  • ffmpeg.c文件中 print_report函数里 fflush(stderr); 前调用 setCurrentTimeFromProgressInfo(buf.str);

看完这些觉得麻烦也可以直接用我编译配置好的库,导入可以直接使用 github地址,如果觉得有帮助给个⭐吧

3.命令行使用的整理


命令基本格式:ffmpeg [global_options] {[input_file_options] -i input_url} ... {[output_file_options] output_url} ...

常见的参数配置: -f 强制指定编码格式 -i 输出源 -t 指定输入输出时长 -r 指定帧率,即1S内的帧数 -threads 指定线程数 -c:v 指定视频的编码格式 -ss 指定从什么时间开始 -b:v 指定比特率 -b:v 2500k 指定输出文件的视频比特率为 2500kbit/s -s 指定分辨率 -y 覆盖输出 -filter 指定过滤器 -vf 指定视频过滤器 -an 指定去除对音频的影响 -vn 指定去除对视频的影响 -sn 指定去除对字幕的影响 -dn 指定去除对数据流的影响 -codec: copy 复制所有流而无需重新编码

原文链接:https://juejin.cn/post/7049544842627514375

★文末名片可以免费领取音视频开发学习资料,内容包括(FFmpeg ,webRTC ,rtmp ,hls ,rtsp ,ffplay ,srs)以及音视频学习路线图等等。

见下方!↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值