本代码是俺借鉴的,并加入了详细的注解,主要用到AudioRecord,和AudioTrack两个类
简单说一下两个类的构造函数和基本方法:
AudioRecord
public AudioRecord (int audioSource, int sampleRateInHz, int channelConfig, int audioFormat, int bufferSizeInBytes) 四个参数分别是
audioSource | 音频源:指的是从哪里采集音频。这里我们当然是从麦克风采集音频,所以此参数的值为MIC |
---|
sampleRateInHz | 采样率:音频的采样频率,每秒钟能够采样的次数,采样率越高,音质越高。给出的实例是44100、22050、11025但不限于这几个参数。例如要采集低质量的音频就可以使用4000、8000等低采样率。 |
---|---|
channelConfig | 声道设置:android支持双声道立体声和单声道。MONO单声道,STEREO立体声 |
audioFormat | 编码制式和采样大小:采集来的数据当然使用PCM编码(脉冲代码调制编码,即PCM编码。PCM通过抽样、量化、编码三个步骤将连续变化的模拟信号转换为数字编码。) android支持的采样大小16bit或者8bit。当然采样大小越大,那么信息量越多,音质也越高,现在主流的采样大小都是16bit,在低质量的语音传输的时候8bit 足够了。 |
bufferSizeInBytes | 采集数据需要的缓冲区的大小,如果不知道最小需要的大小可以在getMinBufferSize()查看。 |
getMinBufferSize(frequency, channelConfiguration, audioEncoding);
AudioTrack类
AudioTrack比AudioRecord多出来一个参数
public AudioTrack (int streamType, int sampleRateInHz, int channelConfig, int audioFormat, int bufferSizeInBytes,int mode)
其中streamType
<!--[if !supportLists]-->l
<!--[if !supportLists]-->l
<!--[if !supportLists]-->l
<!--[if !supportLists]-->l
<!--[if !supportLists]-->l
其中mode
AudioTrack中有MODE_STATIC和MODE_STREAM两种分类。STREAM的意思是由用户在应用程序通过write方式把数据一次一次得写到audiotrack中。这个和我们在socket中发送数据一样,应用层从某个地方获取数据,例如通过编解码得到PCM数据,然后write到audiotrack。
这种方式的坏处就是总是在JAVA层和Native层交互,效率损失较大。
而STATIC的意思是一开始创建的时候,就把音频数据放到一个固定的buffer,然后直接传给audiotrack,后续就不用一次次得write了。AudioTrack会自己播放这个buffer中的数据。
这种方法对于铃声等内存占用较小,延时要求较高的声音来说很适用。
代码部分:
1.布局文件
<?xml version="1.0" encoding="utf-8"?>
<LinearLayout xmlns:android="http://schemas.android.com/apk/res/android"
<TextView
<Button android:text="开始边录边放