通过Web Audio Api展示音频整体波形(整体波形,而非实时)

    在做这个功能时并未对音频过多了解,因为H5的audio标签已经很强大了,但是因为这次需要对音频的波形进行展示,于是开始查看文档及相关技术贴,发现无论是官网推荐还是大部分的帖子推荐的做法都是使用Audio Api的AnalyserNode,但是AnalyserNode的问题是他只能用来做实时波形展示,与需求不符,不过如果公司对插件没要求的话,强烈推荐wavesurfer.js库,相当简单,做音频可视化非常棒,但是因为是公司产品,还是尽可能自己实现了。
    相关步骤如下:

  1. ajax获取音频文件ArrayBuffer后再对其进行解码,实例化一个audioContext对象。
  2. 调用audioContext.decodeAudioData方法对arrayBuffer数据进行解码,获得AudioBuffer对象。
  3. 提取音频数据采样,获取峰值,便于展示及分析。
  4. canvas或者svg渲染采样数据,绘制波形。
     

下面是我整理的一个例子:

    

//	创建音频对象
let audioContext = new (window.AudioContext || window.webkitAudioContext)();
let source = audioContext.createBufferSource();
//请求资源
const request = new XMLHttpRequest();
request.open('GET','audioUrl', true);
request.responseType = 'arraybuffer';
request.onload = function () {

	const audioData = request.response;	//	audioData为 arrayBuffer 类型数据

	//使用web audio api解码
	audioContext.decodeAudioData(audioData, function (buffer) {

		// 每秒绘制100个点,就是将每秒44100个点分成100份,
		// 每一份算出最大值和最小值来代表每10毫秒内的波峰和波谷
		// const perSecPx = 100;
		const perSecPx = 1;
		// 获取所有波峰波谷,peaks 即为最后所需波形数据
		const peaks = getPeaks(buffer, perSecPx);


		//	销毁audioContext 和 source 对象,因为前端是使用audio标签播放的
        //  audio标签能满足大部分需求,Web Audio Api控制起来真的很不简单。
        //  如果不销毁audioContext对象的话,audio标签是无法播放的
		source = null;
		audioContext = null;

	}, function (e) { "Error with decoding audio data" + e.err });
};
request.send();






getPeaks(buffer, perSecPx) {
		const { numberOfChannels, sampleRate, length } = buffer;
		// 每一份的点数=44100 / 100 = 441
		const sampleSize = ~~(sampleRate / perSecPx);
		const first = 0;
		const last = ~~(length / sampleSize)
		const peaks = [];

		const chan = buffer.getChannelData(0);
		for (let i = first; i <= last; i++) {
			const start = i * sampleSize;
			const end = start + sampleSize;
			let min = 0;
			let max = 0;
			for (let j = start; j < end; j++) {
				const value = chan[j];
				if (value > max) {
					max = value;
				}
				if (value < min) {
					min = value;
				}
			}
			// 波峰
			peaks[2 * i] = max;
			// 波谷
			peaks[2 * i + 1] = min;
		}

		return peaks;
	}

怎么使用jquery.ajax获取数据可以看我上一篇博客,获取到的peaks就是采样之后的音频数据集合,怎么渲染出来就看自身需求了,不过公司如果没有对库有太多要求的话,真心建议使用wavesurfer.js库,我这个案例中的getPeaks也是从wavesurfer源码中借鉴的一部分,不过因为对声道要求不高,所以简化了一些操作。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
音频Blob对象转换为ArrayBuffer与上面的示例相同,可以使用上面提到的`blobToArrayBuffer`函数。接下来,需要使用Web Audio API来读取ArrayBuffer并显示波形。 具体实现步骤如下: 1. 创建一个AudioContext对象。 ```javascript var audioContext = new AudioContext(); ``` 2. 创建一个AudioBufferSourceNode节点,并将其连接到AudioContext的destination。 ```javascript var sourceNode = audioContext.createBufferSource(); sourceNode.connect(audioContext.destination); ``` 3. 将ArrayBuffer转换为AudioBuffer对象。 ```javascript audioContext.decodeAudioData(arrayBuffer, function(decodedData) { sourceNode.buffer = decodedData; }); ``` 4. 使用AnalyserNode节点来获取音频数据。 ```javascript var analyserNode = audioContext.createAnalyser(); analyserNode.fftSize = 2048; // 设置FFT大小 sourceNode.connect(analyserNode); ``` 5. 使用Canvas绘制波形。 ```javascript var canvas = document.getElementById("canvas"); var canvasContext = canvas.getContext("2d"); function draw() { requestAnimationFrame(draw); var bufferLength = analyserNode.frequencyBinCount; var dataArray = new Uint8Array(bufferLength); analyserNode.getByteTimeDomainData(dataArray); canvasContext.fillStyle = "rgb(200, 200, 200)"; canvasContext.fillRect(0, 0, canvas.width, canvas.height); canvasContext.lineWidth = 2; canvasContext.strokeStyle = "rgb(0, 0, 0)"; canvasContext.beginPath(); var sliceWidth = canvas.width * 1.0 / bufferLength; var x = 0; for(var i = 0; i < bufferLength; i++) { var v = dataArray[i] / 128.0; var y = v * canvas.height/2; if(i === 0) { canvasContext.moveTo(x, y); } else { canvasContext.lineTo(x, y); } x += sliceWidth; } canvasContext.lineTo(canvas.width, canvas.height/2); canvasContext.stroke(); } draw(); ``` 这里创建了一个canvas元素,并使用Canvas绘制音频波形。需要注意的是,绘制波形的代码需要在音频数据解码完成后调用,并且需要使用requestAnimationFrame函数来不断绘制波形完整的代码如下: ```javascript var audioContext = new AudioContext(); function blobToArrayBuffer(blob, callback) { var reader = new FileReader(); reader.onload = function() { callback(reader.result); } reader.readAsArrayBuffer(blob); } function drawWaveform(arrayBuffer) { var sourceNode = audioContext.createBufferSource(); sourceNode.connect(audioContext.destination); audioContext.decodeAudioData(arrayBuffer, function(decodedData) { sourceNode.buffer = decodedData; var analyserNode = audioContext.createAnalyser(); analyserNode.fftSize = 2048; sourceNode.connect(analyserNode); var canvas = document.getElementById("canvas"); var canvasContext = canvas.getContext("2d"); function draw() { requestAnimationFrame(draw); var bufferLength = analyserNode.frequencyBinCount; var dataArray = new Uint8Array(bufferLength); analyserNode.getByteTimeDomainData(dataArray); canvasContext.fillStyle = "rgb(200, 200, 200)"; canvasContext.fillRect(0, 0, canvas.width, canvas.height); canvasContext.lineWidth = 2; canvasContext.strokeStyle = "rgb(0, 0, 0)"; canvasContext.beginPath(); var sliceWidth = canvas.width * 1.0 / bufferLength; var x = 0; for(var i = 0; i < bufferLength; i++) { var v = dataArray[i] / 128.0; var y = v * canvas.height/2; if(i === 0) { canvasContext.moveTo(x, y); } else { canvasContext.lineTo(x, y); } x += sliceWidth; } canvasContext.lineTo(canvas.width, canvas.height/2); canvasContext.stroke(); } draw(); }); } var audioBlob = new Blob([/*音频数据*/], {type: "audio/wav"}); blobToArrayBuffer(audioBlob, function(arrayBuffer) { drawWaveform(arrayBuffer); }); ``` 这里的`audioBlob`变量是一个包含音频数据的Blob对象,需要将其替换为实际的音频Blob对象。同时,需要在HTML代码中添加一个canvas元素: ```html <canvas id="canvas"></canvas> ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值