1. camera YUV420数据直接socket发送到服务器端,转换成RGB显示 占用带宽较多。
原理阐述:基于socket,wifi。 android客户端获取的帧数据的格式为yuv420格式,本来将此data数据流直接传输到另一android端,由接收端完成图像的解码转换工作,但是发现如果直接传数据流数据量太大,还不如直接在本地解码转换完毕生成图片,然后将图片传到另外一android端进行重绘排列。
考虑到效率,可将核心的解码转换封装成c实现.so,速度好些
改进: 项目采用多播协议,即如果在多台电脑上同时运行服务端,则一台手机可以同时控制多台电脑做同样的事情,同时操作所有开启服务端电脑的ppt。
“ 谈下实现思路:
1 socket实现传输,目前网络用的wifi
2 java端的视频获取我采用的是jmf框架
3 逻辑比较简单:总体实现无非就是android端视频捕获发送yuv原格式到pc端进行解码而后在pc上显示,
同时pc通过jmf上获取camera摄像头的数据,通过socket传输到android端进行重绘。
缺点:
1)"
你这个实现方案流量大死了,根本就不用,代码还当宝一样。。
网上都有代码了,你还不是根据别人的改的,鄙视你。"
http://www.eoeandroid.com.sixxs.org/thread-51460-4-1.html
"
你这就是做着玩的,离视频聊天差远了。
实现方案是:移植ffmpeg获取原始数据,编码,发送流媒体服务器,接收数据,解码,显示。流量10kb左右。不是我喷你,你不公开代码你就做好点在来炫耀,要不你炫耀个毛线。"
2) "你这也好意思叫视频聊天,视频有了,声音呢?你实现的只是捕获YUV数据然后绘制图片而已吧~~~~"
2. RTP SDP结合+
The following network protocols are supported for audio and video playback:
RTSP (RTP, SDP)
HTTP/HTTPS progressive streaming
HTTP/HTTPS live streaming draft protocol:
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
目前可移植的有,android的opencore编码,参考http://www.shouyanwang.org/thread-184-1-1.html。
ffmpeg编码,这个网上很难找,但是也有人实现哦。(编码效率好,但是支持不了高清视频)
编码完成可以通过rtp协议发送。就可以视频啦。rtp协议什么的就不说了哦。
以上方法的代码,在这个链接最好回复我贴了代码,不是完整的。链接:http://www.eoeandroid.com/thread-51460-1-1.html
第2种方法,也就是我用的方法。
通过MediaRecorder录制。然后绑定一个localsocket,可以获取编码后的视频数据传输;
代码如下:
- package com.pei;
- import java.io.DataInputStream;
- import java.io.IOException;
- import java.io.InputStream;
- import android.app.Activity;
- import android.os.Bundle;
- import android.graphics.PixelFormat;
- import android.media.MediaRecorder;
- import android.net.LocalServerSocket;
- import android.net.LocalSocket;
- import android.net.LocalSocketAddress;
- import android.view.SurfaceHolder;
- import android.view.SurfaceView;
- import android.view.View;
- import android.view.Window;
- import android.view.WindowManager;
- /**
- * class name:VideoCameraActivity<BR>
- * class description:CATCH THE VIDEODATA SEND TO RED5<BR>
- * PS: <BR>
- *
- * @version 1.00 2011/11/05
- * @author CODYY)peijiangping
- */
- public class VideoCameraActivity extends Activity implements
- SurfaceHolder.Callback, MediaRecorder.OnErrorListener,
- MediaRecorder.OnInfoListener {
- private static final int mVideoEncoder = MediaRecorder.VideoEncoder.H264;
- private LocalSocket receiver, sender;
- private LocalServerSocket lss;
- private MediaRecorder mMediaRecorder = null;
- private boolean mMediaRecorderRecording = false;
- private SurfaceView mSurfaceView = null;
- private SurfaceHolder mSurfaceHolder = null;
- private Thread t;
- @Override
- public void onCreate(Bundle savedInstanceState) {
- super.onCreate(savedInstanceState);
- getWindow().setFormat(PixelFormat.TRANSLUCENT);
- requestWindowFeature(Window.FEATURE_NO_TITLE);
- getWindow().setFlags(WindowManager.LayoutParams.FLAG_FULLSCREEN,
- WindowManager.LayoutParams.FLAG_FULLSCREEN);
- setContentView(R.layout.main);
- mSurfaceView = (SurfaceView) this.findViewById(R.id.surface_camera);
- SurfaceHolder holder = mSurfaceView.getHolder();
- holder.addCallback(this);
- holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);
- mSurfaceView.setVisibility(View.VISIBLE);
- receiver = new LocalSocket();
- try {
- lss = new LocalServerSocket("VideoCamera");
- receiver.connect(new LocalSocketAddress("VideoCamera"));
- receiver.setReceiveBufferSize(500000);
- receiver.setSendBufferSize(500000);
- sender = lss.accept();
- sender.setReceiveBufferSize(500000);
- sender.setSendBufferSize(500000);
- } catch (IOException e) {
- finish();
- return;
- }
- }
- @Override
- public void onPause() {
- super.onPause();