mediaMuxer.release();
mediaMuxer = null;
}
}
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_save_screen);
DisplayMetrics metric = new DisplayMetrics();
getWindowManager().getDefaultDisplay().getMetrics(metric);
width = metric.widthPixels;
height = metric.heightPixels;
dpi = metric.densityDpi;
File file = new File(Environment.getExternalStorageDirectory(),
“record-” + width + “x” + height + “-” + System.currentTimeMillis() + “.mp4”);
filePath = file.getAbsolutePath();
projectionManager = (MediaProjectionManager) getSystemService(MEDIA_PROJECTION_SERVICE);
findViewById(R.id.stop).setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(View v) {
mQuit.set(true);
Toast.makeText(SaveScreenActivity.this, “Recorder stop”, Toast.LENGTH_SHORT).show();
}
});
}
@Override
public void onAttachedToWindow() {
super.onAttachedToWindow();
Intent captureIntent = projectionManager.createScreenCaptureIntent();
startActivityForResult(captureIntent, REQUEST_CODE);
}
@Override
protected void onActivityResult(int requestCode, int resultCode, @Nullable Intent data) {
super.onActivityResult(requestCode, resultCode, data);
if (requestCode == REQUEST_CODE && resultCode == RESULT_OK) {
mediaProjection = projectionManager.getMediaProjection(resultCode, data);
new Thread() {
@Override
public void run() {
try {
try {
prepareEncoder();
mediaMuxer = new MediaMuxer(filePath, MediaMuxer.OutputFormat.MUXER_OUTPUT_MPEG_4);
} catch (IOException e) {
throw new RuntimeException(e);
}
mVirtualDisplay = createVirtualDisplay();
recordVirtualDisplay();
} finally {
release();
}
}
}.start();
Toast.makeText(this, “Recorder is running…”, Toast.LENGTH_SHORT).show();
moveTaskToBack(true);
}
}
/**
-
name: 是生成的VirtualDisplay实例的名称;
-
width, height: 分别是生成实例的宽高,必须大于0;
-
dpi: 生成实例的像素密度,必须大于0,一般都取1;
-
surface: 这个比较重要,是你生成的VirtualDisplay的载体,
-
我的理解是,VirtualDisplay的内容是一帧帧的屏幕截图(所以你看到是有宽高,像素密度等设置),
-
所以MediaProjection获取到的其实是一帧帧的图,然后通过 surface(surface你可以理解成是android的一个画布,
-
默认它会以每秒60帧来刷新,这里我们不再展开细说),来顺序播放这些图片,形成视频。
-
@return
*/
private VirtualDisplay createVirtualDisplay() {
return mediaProjection.createVirtualDisplay(“RecordScreen”,
width, height, dpi,
DisplayManager.VIRTUAL_DISPLAY_FLAG_AUTO_MIRROR,
surface, null /Callbacks/, null /Handler/);
}
private void prepareEncoder() throws IOException {
MediaFormat format = MediaFormat.createVideoFormat(“video/avc”, width, height);
format.setInteger(MediaFormat.KEY_COLOR_FORMAT,
MediaCodecInfo.CodecCapabilities.COLOR_FormatSurface);
format.setInteger(MediaFormat.KEY_BIT_RATE, 6000000);
format.setInteger(MediaFormat.KEY_FRAME_RATE, 30);
format.setInteger(MediaFormat.KEY_I_FRAME_INTERVAL, 10);
mediaCodec = MediaCodec.createEncoderByType(“video/avc”);
mediaCodec.configure(format, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE);
surface = mediaCodec.createInputSurface();
mediaCodec.start();
}
private void recordVirtualDisplay() {
while (!mQuit.get()) {
int index = mediaCodec.dequeueOutputBuffer(bufferInfo, 10000);
if (index == MediaCodec.INFO_OUTPUT_FORMAT_CHANGED) {
resetOutputFormat();
} else if (index >= 0) {
encodeToVideoTrack(index);
mediaCodec.releaseOutputBuffer(index, false);
}
}
最后
光有这些思路和搞懂单个知识的应用是还远远不够的,在Android开源框架设计思想中的知识点还是比较多的,想要搞懂还得学会整理和规划:我们常见的**Android热修复框架、插件化框架、组件化框架、图片加载框架、网络访问框架、RxJava响应式编程框架、IOC依赖注入框架、最近架构组件Jetpack等等Android第三方开源框架,**这些都是属于Android开源框架设计思想的。如下图所示:
这位阿里P8大佬针对以上知识点,熬夜整理出了一本长达1042页的完整版如何解读开源框架设计思想PDF文档,内容详细,把Android热修复框架、插件化框架、组件化框架、图片加载框架、网络访问框架、RxJava响应式编程框架、IOC依赖注入框架、最近架构组件Jetpack等等Android第三方开源框架这些知识点从源码分析到实战应用都讲的简单明了。
由于文档内容过多,篇幅受限,只能截图展示部分,更为了不影响阅读,这份文档已经打包在GitHub,有需要的朋友可以直接点此处前往免费下载。
整理不易,觉得有帮助的朋友可以帮忙点赞分享支持一下小编~
%BC%9A%E8%BF%99%E4%BA%9B%EF%BC%9F%E5%A6%82%E4%BD%95%E9%9D%A2%E8%AF%95%E6%8B%BF%E9%AB%98%E8%96%AA%EF%BC%81.md)。**
[外链图片转存中…(img-8FSRSHi3-1645111045972)]
[外链图片转存中…(img-TfGan3qk-1645111045972)]
整理不易,觉得有帮助的朋友可以帮忙点赞分享支持一下小编~
你的支持,我的动力;祝各位前程似锦,offer不断!!!