http://blog.csdn.net/paulluo0739/article/details/7192056
Android 上有一些很有趣的应用,例如《吹裙子》、《吹气球》之类的。利用的是实时获取麦克风输入音量,然后进行相应的处理。录音过程中怎样获得声音的大小呢?网上也不少人问如何处理这个事情,也有一些解答,不过都没有实际的代码。简单摸索了一下,写了个小 Demo 试了试,果然可以。给大家共享一下。
不解释代码了,大家看注释。
- package com.xxiyy.spl;
- import android.media.AudioFormat;
- import android.media.AudioRecord;
- import android.media.MediaRecorder;
- import android.util.Log;
- public class RecordThread extends Thread {
- private AudioRecord ar;
- private int bs;
- private static int SAMPLE_RATE_IN_HZ = 8000;
- private boolean isRun = false;
- public RecordThread() {
- super();
- bs = AudioRecord.getMinBufferSize(SAMPLE_RATE_IN_HZ,
- AudioFormat.CHANNEL_CONFIGURATION_MONO,
- AudioFormat.ENCODING_PCM_16BIT);
- ar = new AudioRecord(MediaRecorder.AudioSource.MIC, SAMPLE_RATE_IN_HZ,
- AudioFormat.CHANNEL_CONFIGURATION_MONO,
- AudioFormat.ENCODING_PCM_16BIT, bs);
- }
- public void run() {
- super.run();
- ar.startRecording();
- // 用于读取的 buffer
- byte[] buffer = new byte[bs];
- isRun = true;
- while (isRun) {
- int r = ar.read(buffer, 0, bs);
- int v = 0;
- // 将 buffer 内容取出,进行平方和运算
- for (int i = 0; i < buffer.length; i++) {
- // 这里没有做运算的优化,为了更加清晰的展示代码
- v += buffer[i] * buffer[i];
- }
- // 平方和除以数据总长度,得到音量大小。可以获取白噪声值,然后对实际采样进行标准化。
- // 如果想利用这个数值进行操作,建议用 sendMessage 将其抛出,在 Handler 里进行处理。
- Log.d("spl", String.valueOf(v / (float) r));
- }
- ar.stop();
- }
- public void pause() {
- // 在调用本线程的 Activity 的 onPause 里调用,以便 Activity 暂停时释放麦克风
- isRun = false;
- }
- public void start() {
- // 在调用本线程的 Activity 的 onResume 里调用,以便 Activity 恢复后继续获取麦克风输入音量
- if (!isRun) {
- super.start();
- }
- }
- }
转评:
原文中提到“平方和除以数据总长度,得到音量大小”,有些文章中提到这个音量值在不同的手机中表现得不一样,同样的发声,但出来的值相差很大。进而有通过一些计算,调整“音量”的算法,其中有两个,分别是:
1、计算了噪音,对音量进行调整:
value 的 值 控制 为 0 到 100 之间 0为最小 》= 100为最大!!
int value = (int) (Math.abs((int)(v /(float)r)/10000) >> 1);
2、计算分贝值:
那个值应该是声音的振幅,并不是音量的大小,
声音的大小应该是用分贝为单位的吧,
double dB = 10*Math.log10(v/(double)r);
即:经傅立叶变化后得到的复数数组是个二维数组,实部和虚部的平方和取对数后乘以10就大致等于我们通常表示音量的分贝了。
这些是以前的数学知识,现在已经忘得一干二净了。。。。。
Audio的系统结构
http://www.cnblogs.com/cerberspace/archive/2012/09/27/2701703.html
摘要:Audio系统负责Android中的PCM数据的录制输入流和播放输出流的传输和控制,以及音频设备的管理和设置。这里主要介绍播放和录制环节在各个层次的内容,整个结构层次分明,包括了java接口层,JNI层,本地框架层,audio服务层,硬件抽象层等5层。它的结构图如下
图1-1 Audio系统结构
一、java接口层
AudioManager:音频管理对外的接口,提供了音量和ringtone模式的管理,由getSystemService(Context.AUDIO_SERVICE)返回。
Audioservice:是一个非常重要的java层的系统服务,所有的用户发起的调用都是由它往底层转发的。
AudioSystem:提供管理native接口,只时提供在media包的AudioService内部使用,不对用户直接提供接口。
AudioTrack:提供用户从java层直接输出pcm数据的接口write函数,以及部分播放控制函数。
AudioRecord:提供用户在java层直接从外部获取pcm数据的接口read函数。
下面贴一段边录边播放的例子代码说明这些函数的使用
![](https://i-blog.csdnimg.cn/blog_migrate/cdec0645add3fc3c328197dda5c76203.gif)
这些java class接口类在android.media包中,源码目录:frameworks/base/media/java/android/media。这些接口为使用media包的用户提供了音量和路由设置,播放和录制的pcm数据的接口。
二、JNI层
(android_media_AudioSystem, android_audio_AudioTrack, android_audio_AudioRecord),在libandroid_runtime.so包中
三、本地框架层
AudioSystem:media库提供给上层的audio管理的接口,它的实现主要在audiopolicymanger和audioflinger中
AudioTrack:放音部分对上层的接口,stagefright部分也是调用该接口创建和控制playback track
AudioRecord:录音部分对上层的接口,stagefright部分也是调用该接口创建一路record track
IAudioTrack, IAudioRecord, IAudioFlinger:这三个是声明需要底层audioflinger实现的接口函数
这些c接口类在libmedia.so库中,源码目录:frameworks/av/media/libmedia
四、audio服务层
AudioFlinger:这一层主要实现了track的创建,Android层共享内存的分配,多路混音等
五、硬件抽象层
AudioHardwareInterface:这一层需要根据不同的硬件由厂商自己实现,如Primary,Usb,spdif,a2dp等,每一种硬件设备需要继承audioHardwareInterface,实现一个控制硬件so库。主要的类有AudioStreamOut和AudioStreamIn分别是audio输出环节和输入环节,负责write数据流到硬件和从硬件read数据流。
六、总结
通过对各层一个概括性的介绍,对Audio系统的系统结构和源码分布有一个清楚的理解。