来源:http://blog.csdn.net/lezhiyong
接口路径:
webrtc\trunk\src\modules\media_file\source\avi_file.h
代码模块:media_file
对avi文件的存储方式,可以google了解一下,或参考《AVI文件格式图表描述》点击打开链接
先对webRTC 的avi文件读写使用到几个结构体注释一下:
struct AVISTREAMHEADER
{
AVISTREAMHEADER();
WebRtc_UWord32 fcc; //4字节,表示数据流的种类 vids 表示视频数据流,RIFF文件结构的块标志,个人觉得不应该放在AVISTREAMHEADER中
//auds 音频数据流
//‘txts’(文字流)
WebRtc_UWord32 cb;//RIFF文件结构的数据块大小描述,个人觉得不应该放在AVISTREAMHEADER中,long120819
WebRtc_UWord32 fccType;//RIFF文件结构的数据块类型描述,个人觉得不应该放在AVISTREAMHEADER中,long120819
WebRtc_UWord32 fccHandler; //4字节 ,表示数据流解压缩的驱动程序代号
// 指定流的处理者,对于音视频来说就是解码器
WebRtc_UWord32 dwFlags; //数据流属性// 标记:是否允许这个流输出?调色板是否变化?
WebRtc_UWord16 wPriority; //此数据流的播放优先级//(当有多个相同类型的流时优先级最高的为默认流)
WebRtc_UWord16 wLanguage; //音频的语言代号
WebRtc_UWord32 dwInitialFrames; //说明在开始播放前需要多少桢// 为交互格式指定初始帧数
WebRtc_UWord32 dwScale; //数据量,视频每桢的大小或者音频的采样大小// 这个流使用的时间尺度
WebRtc_UWord32 dwRate; //dwScale /dwRate = 每秒的采样数
WebRtc_UWord32 dwStart; //数据流开始播放的位置,以dwScale为单位// 流的开始时间
WebRtc_UWord32 dwLength; //数据流的数据量,以dwScale为单位// 流的长度(单位与dwScale和dwRate的定义有关)
WebRtc_UWord32 dwSuggestedBufferSize; // 读取这个流数据建议使用的缓存大小
WebRtc_UWord32 dwQuality; //解压缩质量参数,值越大,质量越好// 流数据的质量指标(0 ~ 10,000)
WebRtc_UWord32 dwSampleSize; //音频的采样大小 // Sample的大小
struct
{
WebRtc_Word16 left;
WebRtc_Word16 top;
WebRtc_Word16 right;
WebRtc_Word16 bottom;
} rcFrame; //视频图像所占的矩形// 指定这个流(视频流或文字流)在视频主窗口中的显示位置// 视//频主窗口由AVIMAINHEADER结构中的dwWidth和dwHeight决定
};
struct BITMAPINFOHEADER //参考bmp文件格式描述中的定义
{
BITMAPINFOHEADER();
WebRtc_UWord32 biSize;
WebRtc_UWord32 biWidth;
WebRtc_UWord32 biHeight;
WebRtc_UWord16 biPlanes;
WebRtc_UWord16 biBitCount;
WebRtc_UWord32 biCompression;
WebRtc_UWord32 biSizeImage;
WebRtc_UWord32 biXPelsPerMeter;
WebRtc_UWord32 biYPelsPerMeter;
WebRtc_UWord32 biClrUsed;
WebRtc_UWord32 biClrImportant;
};
struct AVIMAINHEADER
{
AVIMAINHEADER();
WebRtc_UWord32 fcc;//RIFF文件结构的块标志,个人觉得不应该放在AVIMAINHEADER中,下面的cb(块大小)也一样,long120819
WebRtc_UWord32 cb;
WebRtc_UWord32 dwMicroSecPerFrame; //显示每桢所需的时间ns,定义avi的显示速率
WebRtc_UWord32 dwMaxBytesPerSec; // 最大的数据传输率
WebRtc_UWord32 dwPaddingGranularity; //记录块的长度需为此值的倍数,通常是2048
WebRtc_UWord32 dwFlags; //AVI文件的特殊属性,如是否包含索引块,音视频数据是否交叉存储
WebRtc_UWord32 dwTotalFrames; //文件中的总桢数
WebRtc_UWord32 dwInitialFrames; //说明在开始播放前需要多少桢 // 为交互格式指定初始帧数(非交互格式应该指定为0)
WebRtc_UWord32 dwStreams; //文件中包含的数据流种类// 本文件包含的流的个数
WebRtc_UWord32 dwSuggestedBufferSize; //建议使用的缓冲区的大小,
//通常为存储一桢图像以及同步声音所需要的数据之和
WebRtc_UWord32 dwWidth; //图像宽(以像素为单位)
WebRtc_UWord32 dwHeight; //图像高(以像素为单位)
WebRtc_UWord32 dwReserved[4]; //保留值
};
struct WAVEFORMATEX
{
WAVEFORMATEX();
WebRtc_UWord16 wFormatTag; //波形声音的格式,默认 WAVE_FORMAT_PCM = 1
WebRtc_UWord16 nChannels; //音频文件的通道数量,单声道为1。立体声为2.
WebRtc_UWord32 nSamplesPerSec; //指定样本速率(每秒的样本数)}。
//如果wFormatTag = WAVE_FORMAT_PCM,那么nSamplesPerSec通常为8.0 kHz, 11.025 kHz, 22.05 kHz和44.1 kHz。例如对于采样率为11.025 kHz的音频, //nSamplesPerSec 将被设为11025。对于非PCM格式的,请根据厂商的设定计算
WebRtc_UWord32 nAvgBytesPerSec; //数据传输的平均速率(每秒的字节数,单位byte/s)。这个值对于创建缓冲大小是很有用的
WebRtc_UWord16 nBlockAlign; //以字节为单位设置块对齐。块对齐是指最小数据的原子大小。如果wFormatTag= WAVE_FORMAT_PCM,nBlockAlign 为(nChannels*wBitsPerSample)/8。16 位立体声 PCM 的块对齐是 4 字节(每个样本2字节, 2个通道//对于非PCM格式请根据厂商的说明计算。
WebRtc_UWord16 wBitsPerSample; //根据wFormatTag的类型设置采样大小(字节)}每个样本的BIT数目,一般为16。
//如果wFormatTag = WAVE_FORMAT_PCM,此值应该设为8或16,对于非PCM格式,根据厂商的说明设置。一些压缩的架构不能设置此值,此时wBitsPerSample应该为零。
//WebRtc_UWord16 cbSize; 额外信息的大小,以字节为单位,额外信息添加在WAVEFORMATEX结构的结尾。这个信息可以作为非PCM格式的wFormatTag额外属性,
//如果wFormatTag不需要额外的信息,此值必需为0,对于PCM格式此值被忽略。
};
2、特点:
支持写avi文件和读avi文件以及循环读取
3、类AviFile的使用方法(可参考ModuleFileUtility类中三个成员变量 AviFile* _aviAudioInFile;AviFile* _aviVideoInFile;AviFile* _aviOutFile;的使用方法)
写文件操作:
AviFile* _aviOutFile;
_aviOutFile = new AviFile( );
//视频头结构体初始化
AVISTREAMHEADER videoStreamHeader;
videoStreamHeader.fccType = AviFile::MakeFourCc('v', 'i', 'd', 's');
videoStreamHeader.fccHandler = AviFile::MakeFourCc('I','4','2','0');
videoStreamHeader.dwScale = 1;
BITMAPINFOHEADER bitMapInfoHeader;
bitMapInfoHeader.biSize = sizeof(BITMAPINFOHEADER);
bitMapInfoHeader.biHeight = videoCodecInst.height;
bitMapInfoHeader.biWidth = videoCodecInst.width;
bitMapInfoHeader.biPlanes = 1;
bitMapInfoHeader.biBitCount = 12;
bitMapInfoHeader.biClrImportant = 0;
bitMapInfoHeader.biClrUsed = 0;
bitMapInfoHeader.biCompression = videoStreamHeader.fccHandler;
bitMapInfoHeader.biSizeImage = bitMapInfoHeader.biWidth *
bitMapInfoHeader.biHeight * bitMapInfoHeader.biBitCount / 8;
videoStreamHeader.dwRate = videoCodecInst.maxFramerate;
videoStreamHeader.dwSuggestedBufferSize = videoCodecInst.height *
(videoCodecInst.width >> 1) * 3;
videoStreamHeader.dwQuality = (WebRtc_UWord32)-1;
videoStreamHeader.dwSampleSize = 0;
videoStreamHeader.rcFrame.top = 0;
videoStreamHeader.rcFrame.bottom = videoCodecInst.height;
videoStreamHeader.rcFrame.left = 0;
videoStreamHeader.rcFrame.right = videoCodecInst.width;
//从代码看支持写入I420、VP8,
//视频格式通过videoStreamHeader.fccHandler = AviFile::MakeFourCc('I','4','2','0');
//bitMapInfoHeader.biCompression = videoStreamHeader.fccHandler;设置
if(_aviOutFile->CreateVideoStream(
videoStreamHeader,
bitMapInfoHeader,
videoCodecInst.codecSpecific.MPEG4.configParameters,
videoCodecInst.codecSpecific.MPEG4.configParametersSize) != 0)
{
return -1;
}
//音频头结构体初始化
AVISTREAMHEADER audioStreamHeader;
audioStreamHeader.fccType = AviFile::MakeFourCc('a', 'u', 'd', 's');
// fccHandler is the FOURCC of the codec for decoding the stream.
// It's an optional parameter that is not used by audio streams.
audioStreamHeader.fccHandler = 0;
audioStreamHeader.dwScale = 1;
WAVEFORMATEX waveFormatHeader;
waveFormatHeader.cbSize = 0;
waveFormatHeader.nChannels = 1;
if (strncmp(audioCodecInst.plname, "PCMA", 4) == 0)
{
audioStreamHeader.dwSampleSize = 1;
audioStreamHeader.dwRate = 8000;
audioStreamHeader.dwQuality = (WebRtc_UWord32)-1;
audioStreamHeader.dwSuggestedBufferSize = 80;
waveFormatHeader.nAvgBytesPerSec = 8000;
waveFormatHeader.nSamplesPerSec = 8000;
waveFormatHeader.wBitsPerSample = 8;
waveFormatHeader.nBlockAlign = 1;
waveFormatHeader.wFormatTag = kWaveFormatALaw;
}
//其他逻辑略,从代码看支持写入的音频格式为PCMA(ALOW),PCMU(MULAW) ,PCM,通过waveFormatHeader.wFormatTag = kWaveFormatPcm;设置
if(_aviOutFile->CreateAudioStream(
audioStreamHeader,
waveFormatHeader) != 0)
{
return -1;
}
_aviOutFile->Create(filename);
//写音频数据
_aviOutFile->WriteAudio(reinterpret_cast<const WebRtc_UWord8*>(buffer),bufferLengthInBytes);
//写视频数据
_aviOutFile->WriteVideo( reinterpret_cast<const WebRtc_UWord8*>(buffer), bufferLengthInBytes);
读文件中音频操作:
AviFile* _aviAudioInFile;
_aviAudioInFile = new AviFile();
_aviAudioInFile->Open(AviFile::AVI_AUDIO, filename, loop);
WAVEFORMATEX waveHeader;
if(_aviAudioInFile->GetAudioStreamInfo(waveHeader) != 0)
{
return -1;
}
//从代码看,只支持读取音频数据为PCM ,ALOW, MULOW 的文件
//读取音频数据
if(_aviAudioInFile->ReadAudio(
reinterpret_cast<WebRtc_UWord8*>(outBuffer),
length) != 0)
{
return -1;
}
读文件中视频操作:
AviFile* _aviVideoInFile;
_aviVideoInFile = new AviFile( );
_aviVideoInFile->Open(AviFile::AVI_VIDEO,
filename, loop)
AVISTREAMHEADER videoInStreamHeader;
BITMAPINFOHEADER bitmapInfo;
char codecConfigParameters[AviFile::CODEC_CONFIG_LENGTH] = {};
WebRtc_Word32 configLength = 0;
if( _aviVideoInFile->GetVideoStreamInfo(videoInStreamHeader, bitmapInfo,
codecConfigParameters,
configLength) != 0)
{
return -1;
}
//从读取的bitmapInfo.biCompression看文件封装的视频格式,判断方式if (bitmapInfo.biCompression ==AviFile::MakeFourCc('V', 'P', '8', '0'))
//代码现在支持读取文件的视频格式为MP4V-ES,I420,H263,VP8
//读取视频数据
if( _aviVideoInFile->ReadVideo( reinterpret_cast<WebRtc_UWord8*>(outBuffer),length) != 0)
{
return -1;
}