Android在MediaMuxer和MediaCodec录制视频示例 - audio+video

博主QQ:1356438802

QQ群:473383394——UVC&OpenCV47



在Android多媒体类,MediaMuxer和MediaCodec这是一个相对年轻,他们是JB 4.1和JB 4.3据介绍。

前者被用来产生一个混合的音频和视频的多媒体文件。的缺点是,现在可以只支持一个audio track而一个video track,而唯一支持mp4出口。然是新生事物,相信之后的版本号应该会有大的改进。MediaCodec用于将音视频进行压缩编码,它有个比較牛X的地方是能够对Surface内容进行编码,如KK 4.4中屏幕录像功能就是用它实现的。

注意它们和其他一些多媒体相关类的关系和差别:MediaExtractor用于音视频分路,和MediaMuxer正好是反过程。MediaFormat用于描写叙述多媒体数据的格式。MediaRecorder用于录像+压缩编码。生成编码好的文件如mp4, 3gpp,视频主要是用于录制Camera preview。MediaPlayer用于播放压缩编码后的音视频文件。

AudioRecord用于录制PCM数据。AudioTrack用于播放PCM数据。PCM即原始音频採样数据。能够用如vlc播放器播放。

当然了,通道採样率之类的要自己设。由于原始採样数据是没有文件头的,如:
vlc --demux=rawaud --rawaud-channels 2 --rawaud-samplerate 44100 audio.pcm

回到MediaMuxer和MediaCodec这两个类,它们的參考文档见http://developer.android.com/reference/android/media/MediaMuxer.html和http://developer.android.com/reference/android/media/MediaCodec.html。里边有使用的框架。这个组合能够实现非常多功能,比方音视频文件的编辑(结合MediaExtractor),用OpenGL绘制Surface并生成mp4文件,屏幕录像以及类似Camera app里的录像功能(尽管这个用MediaRecorder更合适)等。



这里以一个非常无聊的功能为例,就是在一个Surface上绘图编码生成视频。同一时候用MIC录音编码生成音频,然后将音视频混合生成mp4文件。

程序本身没什么用。可是演示样例了MediaMuxer和MediaCodec的基本使用方法。本程序主要是基于两个測试程序:一个是Grafika中的SoftInputSurfaceActivity和HWEncoderExperiments。它们一个是生成视频,一个生成音频,这里把它们结合一下,同一时候生成音频和视频。基本框架和流程例如以下:

技术分享

首先是录音线程,主要參考HWEncoderExperiments。

通过AudioRecord类接收来自麦克风的採样数据,然后丢给Encoder准备编码:

AudioRecord audio_recorder;
audio_recorder = new AudioRecord(MediaRecorder.AudioSource.MIC,       
        SAMPLE_RATE, CHANNEL_CONFIG, AUDIO_FORMAT, buffer_size);                        
// ...
audio_recorder.startRecording();
while (is_recording) {
    byte[] this_buffer = new byte[frame_buffer_size];
    read_result = audio_recorder.read(this_buffer, 0, frame_buffer_size); // read audio raw data
    // …
    presentationTimeStamp = System.nanoTime() / 1000;
    audioEncoder.offerAudioEncoder(this_buffer.clone(), presentationTimeStamp);  // feed to audio encoder

}
这里也能够设置AudioRecord的回调(通过setRecordPositionUpdateListener())来触发音频数据的读取。offerAudioEncoder()里主要是把audio採样数据送入音频MediaCodec的InputBuffer进行编码:

ByteBuffer[] inputBuffers = mAudioEncoder.getInputBuffers();
int inputBufferIndex = mAudioEncoder.dequeueInputBuffer(-1); 
if (inputBufferIndex >= 0) {
    ByteBuffer inputBuffer = inputBuffers[inputBufferIndex];
    inputBuffer.clear();
    inputBuffer.put(this_buffer);
    ...
    mAudioEncoder.queueInputBuffer(inputBufferIndex, 0, this_buffer.length, presentationTimeStamp, 0);
}
以下,參考Grafika-SoftInputSurfaceActivity,并增加音频处理。

主循环大体分四部分:

try {
    // Part 1
    prepareEncoder(outputFile);
    ...
    // Part 2
    for (int i = 0; i < NUM_FRAMES; i++) {
        generateFrame(i);
        drainVideoEncoder(false);
        drainAudioEncoder(false);
    }
    // Part 3
    ...
    drainVideoEncoder(true);
    drainAudioEncoder(true);
}  catch (IOException ioe) {
    throw new RuntimeException(ioe);
} finally {
    // Part 4
    releaseEncoder();
}
第1部分是准备工作。除了video的MediaCodec,这里还初始化了audio的MediaCodec:

MediaFormat audioFormat = new MediaFormat();
audioFormat.setInteger(MediaFormat.KEY_SAMPLE_RATE, 44100);
audioFormat.setInteger(MediaFormat.KEY_CHANNEL_COUNT, 1);
...        
mAudioEncoder = MediaCodec.createEncoderByType(AUDIO_MIME_TYPE);
mAudioEncoder.configure(audioFormat, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE);
mAudioEncoder.start();
第2部分进入主循环,app在Surface上直接画图,因为这个Surface是从MediaCodec中用createInputSurface()申请来的,所以画完后不用显式用queueInputBuffer()交给Encoder。

drainVideoEncoder()和drainAudioEncoder()分别将编码好的音视频从buffer中拿出来(通过dequeueOutputBuffer()),然后交由MediaMuxer进行混合(通过writeSampleData())。

注意音视频通过PTS(Presentation time stamp。决定了某一帧的音视频数据何时显示或播放)来同步,音频的time stamp需在AudioRecord从MIC採集到数据时获取并放到对应的bufferInfo中,视频因为是在Surface上画,因此直接用dequeueOutputBuffer()出来的bufferInfo中的即可,最后将编码好的数据送去MediaMuxer进行多路混合。



注意这里Muxer要等把audio track和video track都增加了再開始。

MediaCodec在一開始调用dequeueOutputBuffer()时会返回一次INFO_OUTPUT_FORMAT_CHANGED消息。

我们仅仅需在这里获取该MediaCodec的format,并注冊到MediaMuxer里。

接着推断当前audio track和video track是否都已就绪,假设是的话就启动Muxer。

总结来说,drainVideoEncoder()的主逻辑大致例如以下,drainAudioEncoder也是类似的。仅仅是把video的MediaCodec换成audio的MediaCodec就可以。


while(true) {
    int encoderStatus = mVideoEncoder.dequeueOutputBuffer(mBufferInfo, TIMEOUT_USEC);
    if (encoderStatus == MediaCodec.INFO_TRY_AGAIN_LATER) {
        ...
    } else if (encoderStatus == MediaCodec.INFO_OUTPUT_BUFFERS_CHANGED) {
        encoderOutputBuffers = mVideoEncoder.getOutputBuffers();
    } else if (encoderStatus == MediaCodec.INFO_OUTPUT_FORMAT_CHANGED) {
        MediaFormat newFormat = mAudioEncoder.getOutputFormat();
        mAudioTrackIndex = mMuxer.addTrack(newFormat);
        mNumTracksAdded++;
        if (mNumTracksAdded == TOTAL_NUM_TRACKS) {
            mMuxer.start();
        }
    } else if (encoderStatus < 0) {
        ...
    } else {
        ByteBuffer encodedData = encoderOutputBuffers[encoderStatus];
        ...
        if (mBufferInfo.size != 0) {
            mMuxer.writeSampleData(mVideoTrackIndex, encodedData, mBufferInfo);
        }
        mVideoEncoder.releaseOutputBuffer(encoderStatus, false);
        if ((mBufferInfo.flags & MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0) {
            break;        
        }
    }

}
第3部分是结束录制。发送EOS信息。这样在drainVideoEncoder()和drainAudioEncoder中就能够依据EOS退出内循环。

第4部分为清理工作。

把audio和video的MediaCodec,MediaCodec用的Surface及MediaMuxer对象释放。

最后几点注意:
1. 在AndroidManifest.xml里加上录音权限,否则创建AudioRecord对象时铁定失败:
 <uses-permission android:name="android.permission.RECORD_AUDIO"/>
2. 音视频通过PTS同步,两个的单位要一致。
3. MediaMuxer的使用要依照Constructor -> addTrack -> start -> writeSampleData -> stop 的顺序。假设既有音频又有视频,在stop前两个都要writeSampleData()过。

Code references:
Grafika: https://github.com/google/grafika
Bigflake: http://bigflake.com/mediacodec/
HWEncoderExperiments:https://github.com/OnlyInAmerica/HWEncoderExperiments/tree/audioonly/HWEncoderExperiments/src/main/java/net/openwatch/hwencoderexperiments
Android test:http://androidxref.com/4.4.2_r2/xref/cts/tests/tests/media/src/android/media/cts/ 
http://androidxref.com/4.4.2_r2/xref/pdk/apps/TestingCamera2/src/com/android/testingcamera2/CameraRecordingStream.java

  • 2
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 16
    评论
以下是使用MediaExtractor、MediaMuxerMediaCodec剪切视频示例代码,其中包括了剪切视频的主要逻辑: ```java public void cutVideo(String srcVideoPath, String dstVideoPath, long startMs, long endMs) throws IOException { MediaExtractor extractor = new MediaExtractor(); extractor.setDataSource(srcVideoPath); int trackCount = extractor.getTrackCount(); int videoTrackIndex = -1; int audioTrackIndex = -1; // 获取视频轨道和音频轨道的索引 for (int i = 0; i < trackCount; i++) { MediaFormat format = extractor.getTrackFormat(i); String mime = format.getString(MediaFormat.KEY_MIME); if (mime.startsWith("video/")) { videoTrackIndex = i; } else if (mime.startsWith("audio/")) { audioTrackIndex = i; } } // 获取视频轨道和音频轨道的格式 MediaFormat videoFormat = extractor.getTrackFormat(videoTrackIndex); MediaFormat audioFormat = extractor.getTrackFormat(audioTrackIndex); // 创建包含需要剪切的时间段的新视频文件 MediaMuxer muxer = new MediaMuxer(dstVideoPath, MediaMuxer.OutputFormat.MUXER_OUTPUT_MPEG_4); int dstVideoTrackIndex = muxer.addTrack(videoFormat); int dstAudioTrackIndex = muxer.addTrack(audioFormat); muxer.start(); // 使用MediaCodec对源视频文件中的视频轨道进行编解码操作,并将解码后的数据写入新文件中 MediaCodec videoDecoder = MediaCodec.createDecoderByType(videoFormat.getString(MediaFormat.KEY_MIME)); videoDecoder.configure(videoFormat, null, null, 0); videoDecoder.start(); MediaCodec.BufferInfo videoBufferInfo = new MediaCodec.BufferInfo(); ByteBuffer[] videoInputBuffers = videoDecoder.getInputBuffers(); ByteBuffer[] videoOutputBuffers = videoDecoder.getOutputBuffers(); boolean videoInputDone = false; boolean videoOutputDone = false; while (!videoOutputDone) { if (!videoInputDone) { int inputBufferIndex = videoDecoder.dequeueInputBuffer(1000); if (inputBufferIndex >= 0) { ByteBuffer inputBuffer = videoInputBuffers[inputBufferIndex]; int sampleSize = extractor.readSampleData(inputBuffer, 0); if (sampleSize < 0) { videoDecoder.queueInputBuffer(inputBufferIndex, 0, 0, 0L, MediaCodec.BUFFER_FLAG_END_OF_STREAM); videoInputDone = true; } else { long presentationTimeUs = extractor.getSampleTime(); videoDecoder.queueInputBuffer(inputBufferIndex, 0, sampleSize, presentationTimeUs, 0); extractor.advance(); } } } int outputBufferIndex = videoDecoder.dequeueOutputBuffer(videoBufferInfo, 1000); if (outputBufferIndex >= 0) { ByteBuffer outputBuffer = videoOutputBuffers[outputBufferIndex]; muxer.writeSampleData(dstVideoTrackIndex, outputBuffer, videoBufferInfo); videoDecoder.releaseOutputBuffer(outputBufferIndex, false); } if ((videoBufferInfo.flags & MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0) { videoOutputDone = true; } } videoDecoder.stop(); videoDecoder.release(); // 根据需要剪切的时间段,使用MediaExtractor定位到指定时间戳的数据位置,并使用MediaCodec对该时间段的视频数据进行编解码操作,并将解码后的数据写入新文件中 extractor.seekTo(startMs, MediaExtractor.SEEK_TO_CLOSEST_SYNC); MediaCodec audioDecoder = MediaCodec.createDecoderByType(audioFormat.getString(MediaFormat.KEY_MIME)); audioDecoder.configure(audioFormat, null, null, 0); audioDecoder.start(); MediaCodec.BufferInfo audioBufferInfo = new MediaCodec.BufferInfo(); ByteBuffer[] audioInputBuffers = audioDecoder.getInputBuffers(); ByteBuffer[] audioOutputBuffers = audioDecoder.getOutputBuffers(); boolean audioInputDone = false; boolean audioOutputDone = false; while (!audioOutputDone) { if (!audioInputDone) { int inputBufferIndex = audioDecoder.dequeueInputBuffer(1000); if (inputBufferIndex >= 0) { ByteBuffer inputBuffer = audioInputBuffers[inputBufferIndex]; int sampleSize = extractor.readSampleData(inputBuffer, 0); if (sampleSize < 0) { audioDecoder.queueInputBuffer(inputBufferIndex, 0, 0, 0L, MediaCodec.BUFFER_FLAG_END_OF_STREAM); audioInputDone = true; } else { long presentationTimeUs = extractor.getSampleTime(); if (presentationTimeUs < startMs) { extractor.advance(); } else if (presentationTimeUs > endMs) { audioInputDone = true; } else { audioDecoder.queueInputBuffer(inputBufferIndex, 0, sampleSize, presentationTimeUs, 0); extractor.advance(); } } } } int outputBufferIndex = audioDecoder.dequeueOutputBuffer(audioBufferInfo, 1000); if (outputBufferIndex >= 0) { ByteBuffer outputBuffer = audioOutputBuffers[outputBufferIndex]; muxer.writeSampleData(dstAudioTrackIndex, outputBuffer, audioBufferInfo); audioDecoder.releaseOutputBuffer(outputBufferIndex, false); } if ((audioBufferInfo.flags & MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0) { audioOutputDone = true; } } audioDecoder.stop(); audioDecoder.release(); muxer.stop(); muxer.release(); extractor.release(); } ``` 请注意,这只是一个简单的示例代码,实际应用中还需要考虑更多细节问题,如异常处理、内存管理等等。
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值