基于AudioRenderer音频播放

方案选择

如何选择音频播放开发方式

  • AudioRenderer:用于音频输出的ArkTS/JS API,仅支持PCM格式,需要应用持续写入音频数据进行工作。应用可以在输入前添加数据预处理,如设定音频文件的采样率、位宽等,要求开发者具备音频处理的基础知识,适用于更专业、更多样化的媒体播放应用开发。
  • AVPlayer:用于音频播放的ArkTS/JS API,集成了流媒体和本地资源解析、媒体资源解封装、音频解码和音频输出功能。可用于直接播放wav、mp3、m4a等格式的音频文件。

在播放音频方面用的最多的就是系统提供的AudioRenderer和AVPlayer。AudioRenderer是音频渲染器,用于播放PCM(Pulse Code Modulation)音频数据,相比AVPlayer而言,可以在输入前添加数据预处理,更适合有音频开发经验的开发者,以实现更灵活的播放功能。使用AudioRenderer播放音频涉及到AudioRenderer实例的创建、音频渲染参数的配置、渲染的开始与停止、资源的释放等。

方案描述

使用AudioRenderer播放音频

配置音频渲染参数并创建AudioRenderer实例。在创建AudioRenderer实例之前可以先设置音频流信息AudioStreamInfo,音频流信息如下:

名称

类型

必填

说明

samplingRate

AudioSamplingRate

音频文件的采样率。

channels

AudioChannel

音频文件的通道数。

sampleFormat

AudioSampleFormat

音频采样格式。

encodingType

AudioEncodingType

音频编码类型。

其中编码模式只支持PCM编码,所以代码里默认是ENCODING_TYPE_RAW。

然后是设置音频渲染器信息,音频渲染器信息如下:

名称

类型

必填

说明

usage

StreamUsage

音频流使用类型。

rendererFlags

number

音频文件的通道数。

其中rendererFlags,0代表普通音频渲染器,1代表低时延音频渲染器。ArkTS接口暂不支持低时延音频渲染器,所以默认为0。

     let  audioStreamInfo: audio.AudioStreamInfo = {
      samplingRate: audio.AudioSamplingRate[this.samplingRate], // 采样率
      channels: audio.AudioChannel[this.channels], // 通道
      sampleFormat: audio.AudioSampleFormat[this.sampleFormat], // 采样格式
      encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW // 编码格式
    }
    let  audioRendererInfo: audio.AudioRendererInfo = {
      usage: audio.StreamUsage[this.usage], // 音频流使用类型
      rendererFlags: 0 // 音频渲染器标志
    }
    let  audioRendererOptions: audio.AudioRendererOptions = {
      streamInfo: audioStreamInfo,
      rendererInfo: audioRendererInfo
    }

select提供下拉选择菜单,可以让用户在多个选项之间选择,和text组件一起使用就可以实现让用户自由选择配置信息的能力,这里以采样率下拉菜单为例子。

Text('采样率')
        .fontSize(16)
        .fontWeight(FontWeight.Bold)
        .textAlign(TextAlign.End)
        .margin({ right: 4 })
 
      Select([{ value: 'SAMPLE_RATE_8000' },
        { value: 'SAMPLE_RATE_11025' },
        { value: 'SAMPLE_RATE_12000' },
        { value: 'SAMPLE_RATE_16000' },
        { value: 'SAMPLE_RATE_22050' },
        { value: 'SAMPLE_RATE_24000' },
        { value: 'SAMPLE_RATE_32000' },
        { value: 'SAMPLE_RATE_44100' },
        { value: 'SAMPLE_RATE_48000' },
        { value: 'SAMPLE_RATE_64000' },
        { value: 'SAMPLE_RATE_88200' },
        { value: 'SAMPLE_RATE_96000' },
        { value: 'SAMPLE_RATE_176400' },
        { value: 'SAMPLE_RATE_192000' },])
        .selected(this.index)
        .value(this.samplingRate)
        .font({ size: 16, weight: 500 })
        .fontColor('#182431')
        .selectedOptionFont({ size: 16, weight: 400 })
        .optionFont({ size: 16, weight: 400 })
        .space(this.space)
        .arrowPosition(this.arrowPosition)
        .menuAlign(MenuAlignType.START, { dx: 0, dy: 0 })
        .optionWidth(200)
        .optionHeight(300)
        .onSelect((index: number, text?: string | undefined) => {
          console.info('Select:' + index)
          this.index = index;
          if (text) {
            this.samplingRate = text;
            if (samplingRateData.get(this.samplingRate)) {
              this.samplingRate1 = samplingRateData.get(this.samplingRate)
            }
          }
        })
  • 调用on('writeData')方法,订阅监听音频数据写入回调。
import { BusinessError } from '@ohos.base';
import fs from '@ohos.file.fs';
 
let bufferSize: number = 0;
class Options {
  offset?: number;
  length?: number;
}
 
 
let path = getContext().cacheDir;
//确保该路径下存在该资源
let filePath = path + '/result_48000_1.pcm';
let file: fs.File = fs.openSync(filePath, fs.OpenMode.READ_ONLY);
let writeDataCallback = (buffer: ArrayBuffer) => {
  let options: Options = {
    offset: bufferSize,
    length: buffer.byteLength
  }
  fs.readSync(file.fd, buffer, options);
  bufferSize += buffer.byteLength;
}
 
audioRenderer.on('writeData', writeDataCallback);
  • 调用start()方法进入running状态,开始渲染音频。
import { BusinessError } from '@ohos.base';
 
audioRenderer.start((err: BusinessError) => {
  if (err) {
    console.error(`Renderer start failed, code is ${err.code}, message is ${err.message}`);
  } else {
    console.info('Renderer start success.');
  }
});
  • 调用stop()方法停止渲染。
import { BusinessError } from '@ohos.base';
 
audioRenderer.stop((err: BusinessError) => {
  if (err) {
    console.error(`Renderer stop failed, code is ${err.code}, message is ${err.message}`);
  } else {
    console.info('Renderer stopped.');
  }
});
  • 调用release()方法销毁实例,释放资源。
import { BusinessError } from '@ohos.base';
 
audioRenderer.release((err: BusinessError) => {
  if (err) {
    console.error(`Renderer release failed, code is ${err.code}, message is ${err.message}`);
  } else {
    console.info('Renderer released.');
  } 
});

select下拉菜单的展示效果图

 

 

<think>好的,我现在需要处理用户关于鸿蒙系统音频播放开发的问题。首先,用户想查找相关的开发资料或教程,特别是示例代码。我需要根据用户提供的引用内容来构建回答,同时遵循系统级指令,比如正确使用LaTeX格式,生成相关问题等。 首先,我需要确认用户提供的引用内容中有哪些关键点。引用1到5提到了AudioRenderer的使用、音频流管理、打断事件处理等。用户可能需要一个步骤指南,包括如何创建实例、配置参数、处理数据、管理播放状态,以及处理音频打断。同时,用户需要示例代码,这在引用1和2中提到了,但用户提供的引用中没有具体的代码示例,可能需要根据描述来构造一个示例,或者建议用户查阅官方文档。不过,根据引用中的信息,可以整理出一个基本的代码结构。 接下来,我需要按照开发流程来组织回答,比如创建实例、配置参数、数据写入、播放控制、资源释放等步骤。每个步骤需要结合引用中的内容,比如引用2提到开始与停止渲染,引用3提到音效模式和音频流管理,引用5提到打断事件的处理。 需要注意的是,回答必须使用中文,结构清晰,帮助用户逐步解决问题,并确保真实可靠。同时,生成相关问题,可能需要涉及性能优化、多音频处理、参数配置、音效设置等。 现在,检查是否需要使用LaTeX格式。由于用户的问题涉及代码和步骤,可能不需要数学公式,但如果有变量或技术术语需要强调,可以用$...$。不过根据引用内容,可能不需要数学表达式,所以LaTeX部分可能较少,但需要确保符合系统要求。 最后,生成相关问题,需要基于回答内容,可能涉及开发步骤的深入、性能优化、异常处理、多场景应用等。 总结步骤: 1. 分步骤讲解开发流程,引用对应的引用内容。 2. 提供示例代码框架,基于引用中的描述。 3. 强调音频流管理和打断事件处理(引用3和5)。 4. 生成相关问题,涵盖教程、优化、应用场景等。 需要确保引用标记正确,例如在提到实例创建时引用[^2],在音频流管理时引用[^3],打断事件引用[^5]等。</think>### 鸿蒙系统音频播放开发指南 #### 1. 核心开发步骤 1. **创建AudioRenderer实例** 使用`createAudioRenderer`初始化音频渲染器,需指定音频参数(采样率、声道数、编码格式等)。 ```typescript let audioRendererOptions = { streamInfo: { samplingRate: audio.SamplingRate.SAMPLE_RATE_44100, channels: audio.AudioChannel.CHANNEL_2, sampleFormat: audio.AudioSampleFormat.SAMPLE_FORMAT_S16LE, encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW } }; let audioRenderer = await audio.createAudioRenderer(audioRendererOptions); ``` 2. **配置音频流参数** 通过`AudioStreamManager`设置音效模式(如音乐场景)[^3]: ```typescript let audioManager = audio.getAudioManager(); let streamManager = audioManager.getStreamManager(); streamManager.setAudioScene(audio.AudioScene.MUSIC); ``` 3. **写入PCM数据并播放** 将音频数据写入缓冲区后启动渲染: ```typescript let buffer = await readAudioDataFromSource(); // 自定义读取数据方法 await audioRenderer.start(); await audioRenderer.write(buffer); ``` 4. **处理音频打断事件** 监听`InterruptEvent`以响应其他应用抢占音频焦点的情况: ```typescript audioRenderer.on('interrupt', (event) => { if (event.forceType === audio.InterruptForceType.INTERRUPT_FORCE) { audioRenderer.pause(); // 暂停播放 } }); ``` 5. **资源释放** 播放结束后需主动释放资源: ```typescript await audioRenderer.stop(); await audioRenderer.release(); ``` #### 2. 关键概念说明 - **AudioRenderer与AVPlayer区别** `AudioRenderer`支持PCM数据预处理,适合需要自定义音频处理的场景(如均衡器、混音)[^1]。 - **音频焦点策略** 系统通过音频打断机制管理多应用并发播放,应用需通过`InterruptEvent`实现状态同步。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值