// Request the next frame of data from our input source. "afterGettingFrame()" will get called later, when it arrives:
fSource->getNextFrame(fReceiveBuffer, DUMMY_SINK_RECEIVE_BUFFER_SIZE,
afterGettingFrame, this,
onSourceClosure, this);
//这里是请求得到一帧数据,成功后会调用下面的函数
void DummySink::afterGettingFrame(unsigned frameSize, unsigned numTruncatedBytes,
struct timeval presentationTime, unsigned /*durationInMicroseconds*/)
framesize是长度
保存裸码流的过程如下
//add by ralf 20130425
//处理接收到得码流数据
fwrite(bufPreFix,4,1,m_fileH264);
fwrite(fReceiveBuffer,frameSize,1,m_fileH264);
________________________________________________________________________________________
Live555是可以用VC编译的。他的例子程序testRTSPClient.cpp,可以让我们了解客户端调用过程。很轻易的,就能得到rtspserver返回的每帧数据。
afterGettingFrame
音频、视频是一个线程,
presentationTime就是时间戳。
- 音视频输出:
视频:是H264编码,据说在得到帧数据头加“00 00 00 01”字节,ffshow就可以解码;还有一个说法,在“00 00 00 01”之后,还要把格式信息的扩展数据放进去。我用的是后者。
音频:是AAC,直接把数据送到thunder或realaudio的音频解码器,就放出来了。
- 音视频同步:
afterGettingFrame的presentationTime就是时间戳。转成directshow需要的:
REFERENCE_TIME t = pt.tv_sec;
t *= 1000000;
t += pt.tv_usec;
REFERENCE_TIME st = t;
REFERENCE_TIME et = st + 4000;//视频,t每次差值得到
REFERENCE_TIME et = st + 23219;//音频,t每次差值得到
也有人说,可以根据媒体信息计算出来,我也确信。但确实没有找到计算方法,看到计算方法的可以回复一下儿。
上面数据填写正确了,音视频就是同步的。
- 花屏、延迟:放一阵子就会花屏、延迟。
pSamp->SetSyncPoint(TRUE);不要设,设了就是花屏,延迟了。还有一个SetDiscontinuity也不知道具体用途。
- directshow filter的状态和锁定。
STDMETHODIMP CRtspSourceFilter::GetState(DWORD dw, FILTER_STATE *pState)
{
CheckPointer(pState, E_POINTER);
*pState=m_State;
if(m_State==State_Paused){
return VFW_S_CANT_CUE;
}else{
return S_OK;
}
}
——————————————————————————————————————————————————————