这篇同样是编者对自己学习的小总结以及对iOS初级开发者的小福利,大神莫吐槽...
首先来谈谈AVFoundation框架:它是iOS中用于处理基于时间的媒体数据的高级框架,也是基于Core Audio,Core Media,Core Video等框架构建的,充分利用了多核硬件的优势并大量使用了Block和GCD机制。
所有的iOS App都具有默认的音频会话,它定义了以下行为:
可以播放音频,但是不能录制音频。
静音模式下App播放的所有音频都会静音。
设备锁定时音频处于静音状态。
App播放音频时所有后台播放的音频都会静音。
iOS系统中音频播放方式:AVAudioPlayer,AVPlayer,播放系统声音,音频队列(小编也不熟...)。
AVAudioPlayer:使用简单,功能强大,但只能播放本地音频。
AVPlayer:可以播放网络音频,本地音频和流媒体播放,但处理音频不够灵活