HTML + JavaScript 实现网页录制音频与下载

HTML + JavaScript 实现网页录制音频与下载

简介

在这个数字化的时代,网页端的音频处理能力已经成为一个非常热门的需求。本文将详细介绍如何利用 getUserMedia 和 MediaRecorder 这两个强大的 API,实现网页端音频的录制、处理和播放等功能。

getUserMedia

getUserMedia 和 MediaRecorder 是 HTML5 中两个非常重要的 API,用于访问设备媒体输入流并对其进行操作。

getUserMedia 允许网页端访问用户设备的媒体输入设备,比如摄像头和麦克风。通过该 API,在获得用户授权后,我们可以获取这些媒体流的数据,并用于各种网页应用场景中。

典型的使用方式如下:

// 请求获取音频流
navigator.mediaDevices.getUserMedia({
  audio: true
})
.then(stream => {
  // 在此处理音频流
})

getUserMedia 接受一个 constraints 对象作为参数,通过设置配置来请求获取指定的媒体类型,常见的配置有:

  • audio:Boolean 值,是否获取音频输入。
  • video:Boolean 值,是否获取视频输入。
  • 以及更详细的各种音视频参数设置。

MediaRecorder

MediaRecorder API 可以获取由 getUserMedia 生成的媒体流,并对其进行编码和封装,输出可供播放和传输的媒体文件。

典型的用法如下:

// 获取媒体流
const stream = await navigator.mediaDevices.getUserMedia({ audio: true })

// 创建 MediaRecorder 实例 
const mediaRecorder = new MediaRecorder(stream);

// 注册数据可用事件,以获取编码后的媒体数据块
mediaRecorder.ondataavailable = event => {
  audioChunks.push(event.data);
}

// 开始录制
mediaRecorder.start();

// 录制完成后停止
mediaRecorder.stop(); 

// 将录制的数据组装成 Blob
const blob = new Blob(audioChunks, {
  type: 'audio/mp3' 
});

简单来说,getUserMedia 获取输入流,MediaRecorder 对流进行编码和处理,两者结合就可以实现强大的音视频处理能力。

获取和处理音频流

了解了基本 API 使用方法后,我们来看看如何获取和处理音频流。

首先需要调用 getUserMedia 来获取音频流,典型的配置是:

const stream = await navigator.mediaDevices.getUserMedia({
  audio: {
    channelCount: 2,  
    sampleRate: 44100,
    sampleSize: 16,
    echoCancellation: true 
  }
});

我们可以指定声道数、采样率、采样大小等参数来获取音频流。

PS:这似乎不管用。

使用 navigator.mediaDevices.enumerateDevices() 可以获得所有可用的媒体设备列表,这样我们就可以提供设备选择功能给用户,而不仅仅是默认设备。

举例来说,如果我们想要让用户选择要使用的录音设备:

// 1. 获取录音设备列表
const audioDevices = await navigator.mediaDevices.enumerateDevices();

const mics = audioDevices.filter(d => d.kind === 'audioinput');

// 2. 提供设备选择 UI 供用户选择
const selectedMic = mics[0]; 

// 3. 根据选择配置进行获取流
const constraints = {
  audio: {
    deviceId: selectedMic.deviceId
  }  
};

const stream = await navigator.mediaDevices.getUserMedia(constraints);

这样我们就可以获得用户选择的设备录音了。

获得原始音频流后,我们可以利用 Web Audio API 对其进行处理。

例如添加回声效果:

// 创建音频环境
const audioContext = new AudioContext();

// 创建流源节点
const source = audioContext.createMediaStreamSource(stream);

// 创建回声效果节点
const echo = audioContext.createConvolver();

// 连接处理链
source.connect(echo);
echo.connect(audioContext.destination);

// 加载回声冲击响应并应用
const impulseResponse = await fetch('impulse.wav');
const buffer = await impulseResponse.arrayBuffer();
const audioBuffer = await audioContext.decodeAudioData(buffer);

echo.buffer = audioBuffer;

通过这样的音频处理链,我们就可以在录音时添加回声、混响等音效了。

实现音频的录制和播放

录制音频的步骤:

  1. 调用 getUserMedia 获取音频流。
  2. 创建 MediaRecorder 实例,传入音频流。
  3. 注册数据可用回调,以获取编码后的音频数据块。
  4. 调用 recorder.start() 开始录制。
  5. 录制完成后调用 recorder.stop()。

代码:

let recorder;
let audioChunks = [];

// 开始录音 handler
const startRecording = async () => {

  const stream = await navigator.mediaDevices.getUserMedia({
    audio: true
  });

  recorder = new MediaRecorder(stream);

  recorder.ondataavailable = event => {
    audioChunks.push(event.data);
  };

  recorder.start();

} 

// 停止录音 handler
const stopRecording = () => {
  if(recorder.state === "recording") {
    recorder.stop();
  }
}

录音完成后,我们可以将音频数据组装成一个 Blob 对象,然后赋值给一个 <audio> 元素的 src 属性进行播放。

代码:

// 录音停止后
const blob = new Blob(audioChunks, { type: 'audio/ogg' }); 

const audioURL = URL.createObjectURL(blob);

const player = document.querySelector('audio');
player.src = audioURL;

// 调用播放
player.play();

这样就可以播放刚刚录制的音频了。

后续也可以添加下载功能等。

音频效果的处理

利用 Web Audio API,我们可以添加各种音频效果,进行音频处理。

例如添加回声效果:

const audioContext = new AudioContext();

// 原始音频节点
const source = audioContext.createMediaStreamSource(stream);

// 回声效果节点
const echo = audioContext.createConvolver();

// 连接处理链
source.connect(echo);
echo.connect(audioContext.destination);

// 加载冲击响应作为回声效果
const impulseResponse = await fetch('impulse.wav');
const arrayBuffer = await impulseResponse.arrayBuffer();
const audioBuffer = await audioContext.decodeAudioData(arrayBuffer);

echo.buffer = audioBuffer;

这样在录制时音频流就会经过回声效果处理了。

此外,我们还可以添加混响、滤波、均衡器、压缩等多种音频效果,使得网页端也能处理出专业级的音频作品。

实时语音通话的应用

利用 getUserMedia 和 WebRTC 技术,我们还可以在网页端实现实时的点对点语音通话。

简述流程如下:

  1. 通过 getUserMedia 获取本地音视频流。
  2. 创建 RTCPeerConnection 实例。
  3. 将本地流添加到连接上。
  4. 交换 ICE 候选信息,建立连接。
  5. 当检测到连接后,渲染远端用户的音视频流。

这样就可以实现类似 Skype 的网页端语音通话功能了。

代码:

// 1. 获取本地流
const localStream = await navigator.mediaDevices.getUserMedia({
  audio: true,
  video: true
});

// 2. 创建连接对象
const pc = new RTCPeerConnection();

// 3. 添加本地流
localStream.getTracks().forEach(track => pc.addTrack(track, localStream)); 

// 4. 交换 ICE 等信令,处理 ONADDSTREAM 等事件

// ...

// 5. 收到远端流,渲染到页面
pc.ontrack = event => {
  remoteVideo.srcObject = event.streams[0];
}

获取本地输入流后,经过编码和传输就可以实现语音聊天了。

兼容性和 Latency 问题

尽管 getUserMedia 和 MediaRecorder 在现代浏览器中已经得到了较好的支持,但由于不同厂商和版本实现存在差异,在实际应用中还是需要注意一些兼容性问题:

  • 检测 API 支持情况,提供降级方案。
  • 注意不同浏览器对 Codec、采样率等参数支持的差异。
  • 封装浏览器差异,提供统一的 API。

此外,录音和播放也存在一定的延迟问题。我们需要针对 Latency 进行优化,比如使用更小的 buffer 大小,压缩数据包大小等方法。

项目代码

record.html:

<!DOCTYPE html>
<html lang="en">

    <head>
        <meta charset="UTF-8">
        <meta name="viewport" content="width=device-width, initial-scale=1.0">
        <title>Record Page</title>
        <link rel="stylesheet" type="text/css" href="css/record.css">

    </head>

    <body>
        <div class="app">
            <audio controls class="audio-player"></audio>
            <button class="record-btn">录音</button>
            <a id="download" download="record.aac"></a>
        </div>
    </body>
    <script src="js/record.js"></script>

</html>

record.css:

.app {
    display: flex;
    justify-content: center;
    align-items: center;
}

.record-btn {
    margin: 0 10px;
}

record.js:

const recordBtn = document.querySelector(".record-btn")
const player = document.querySelector(".audio-player")
const download = document.querySelector('#download')
if (navigator.mediaDevices.getUserMedia) {
    let audioChunks = []
    // 约束属性
    const constraints = {
        // 音频约束
        audio: {
            sampleRate: 16000, // 采样率
            sampleSize: 16, // 每个采样点大小的位数
            channelCount: 1, // 通道数
            volume: 1, // 从 0(静音)到 1(最大音量)取值,被用作每个样本值的乘数
            echoCancellation: true, // 开启回音消除
            noiseSuppression: true, // 开启降噪功能
        },
        // 视频约束
        video: false
    }
    // 请求获取音频流
    navigator.mediaDevices.getUserMedia(constraints)
        .catch(err => serverLog("ERROR mediaDevices.getUserMedia: ${err}"))
        .then(stream => {// 在此处理音频流
            // 创建 MediaRecorder 实例
            const mediaRecorder = new MediaRecorder(stream)
            // 点击按钮
            recordBtn.onclick = () => {
                if (mediaRecorder.state === "recording") {
                    // 录制完成后停止
                    mediaRecorder.stop()
                    recordBtn.textContent = "录音结束"
                }
                else {
                    // 开始录制
                    mediaRecorder.start()
                    recordBtn.textContent = "录音中..."
                }
            }
            mediaRecorder.ondataavailable = e => {
                audioChunks.push(e.data)
            }
            // 结束事件
            mediaRecorder.onstop = e => {
                // 将录制的数据组装成 Blob(binary large object) 对象(一个不可修改的存储二进制数据的容器)
                const blob = new Blob(audioChunks, { type: "audio/aac" })
                audioChunks = []
                const audioURL = window.URL.createObjectURL(blob)
                // 赋值给一个 <audio> 元素的 src 属性进行播放
                player.src = audioURL
                // 添加下载功能
                download.innerHTML = '下载'
                download.href = audioURL
            }
        },
            () => {
                console.error("授权失败!");
            }
        );
} else {
    console.error("该浏览器不支持 getUserMedia!");
}

运行实例

打开 record.html,首先获取麦克风权限:

在这里插入图片描述

点击“允许”。

在这里插入图片描述

页面有一个 audio-player 和一个 buttom。

点击“录音”按钮,就开始录音了。

再点一次按钮,停止录音,数据传回给 audio-player,可以在网页上播放录音。

在这里插入图片描述

点击“下载”,可以下载录制的音频。

PS:音频文件名称设置为 record.aac,文件格式为 WebM,音频格式为 opus,单声道,采样率 48kHz,位深 32bit。

参考

  1. Blob 的所有 Type 类型
  2. getUserMedia() 音频约束

源码下载

CSDN:Web Record.zip

GitHub:Web-Record

  • 30
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
Record sounds / noises around you and turn them into music. It’s a work in progress, at the moment it enables you to record live audio straight from your browser, edit it and save these sounds as a WAV file. There's also a sequencer part where you can create small loops using these sounds with a drone synth overlaid on them. See it working: http://daaain.github.com/JSSoundRecorder Technology ---------- No servers involved, only Web Audio API with binary sound Blobs passed around! ### Web Audio API #### GetUserMedia audio for live recording Experimental API to record any system audio input (including USB soundcards, musical instruments, etc). ```javascript // shim and create AudioContext window.AudioContext = window.AudioContext || window.webkitAudioContext || window.mozAudioContext; var audio_context = new AudioContext(); // shim and start GetUserMedia audio stream navigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia; navigator.getUserMedia({audio: true}, startUserMedia, function(e) { console.log('No live audio input: ' + e); }); ``` #### Audio nodes for routing You can route audio stream around, with input nodes (microphone, synths, etc), filters (volume / gain, equaliser, low pass, etc) and outputs (speakers, binary streams, etc). ```javascript function startUserMedia(stream) { // create MediaStreamSource and GainNode var input = audio_context.createMediaStreamSource(stream); var volume = audio_context.createGain(); volume.gain.value = 0.7; // connect them and pipe output input.connect(volume); volume.connect(audio_context.destination); // connect recorder as well - see below var recorder = new Recorder(input); } ``` ### WebWorker Processing (interleaving) record buffer is done in the background to not block the main thread and the UI. Also WAV conversion for export is also quite heavy for longer recordings, so best left to run in the background. ```javascript this.context = input.context; this.node = this.context.createScriptProcessor(4096, 2, 2); this.node.onaudioprocess = function(e){ worker.postMessage({ command: 'record', buffer: [ e.inputBuffer.getChannelData(0), e.inputBuffer.getChannelData(1) ] }); } ``` ```javascript function record(inputBuffer){ var bufferL = inputBuffer[0]; var bufferR = inputBuffer[1]; var interleaved = interleave(bufferL, bufferR); recBuffers.push(interleaved); recLength += interleaved.length; } function interleave(inputL, inputR){ var length = inputL.length + inputR.length; var result = new Float32Array(length); var index = 0, inputIndex = 0; while (index < length){ result[index++] = inputL[inputIndex]; result[index++] = inputR[inputIndex]; inputIndex++; } return result; } ``` ```javascript function encodeWAV(samples){ var buffer = new ArrayBuffer(44 + samples.length * 2); var view = new DataView(buffer); /* RIFF identifier */ writeString(view, 0, 'RIFF'); /* file length */ view.setUint32(4, 32 + samples.length * 2, true); /* RIFF type */ writeString(view, 8, 'WAVE'); /* format chunk identifier */ writeString(view, 12, 'fmt '); /* format chunk length */ view.setUint32(16, 16, true); /* sample format (raw) */ view.setUint16(20, 1, true); /* channel count */ view.setUint16(22, 2, true); /* sample rate */ view.setUint32(24, sampleRate, true); /* byte rate (sample rate * block align) */ view.setUint32(28, sampleRate * 4, true); /* block align (channel count * bytes per sample) */ view.setUint16(32, 4, true); /* bits per sample */ view.setUint16(34, 16, true); /* data chunk identifier */ writeString(view, 36, 'data'); /* data chunk length */ view.setUint32(40, samples.length * 2, true); floatTo16BitPCM(view, 44, samples); return view; } ``` ### Binary Blob Instead of file drag and drop interface this binary blob is passed to editor. Note: BlobBuilder deprecated (but a lot of examples use it), you should use Blob constructor instead! ```javascript var f = new FileReader(); f. { audio_context.decodeAudioData(e.target.result, function(buffer) { $('#audioLayerControl')[0].handleAudio(buffer); }, function(e) { console.warn(e); }); }; f.readAsArrayBuffer(blob); ``` ```javascript function exportWAV(type){ var buffer = mergeBuffers(recBuffers, recLength); var dataview = encodeWAV(buffer); var audioBlob = new Blob([dataview], { type: type }); this.postMessage(audioBlob); } ``` ### Virtual File – URL.createObjectURL You can create file download link pointing to WAV blob, but also set it as the source of an Audio element. ```javascript var url = URL.createObjectURL(blob); var audioElement = document.createElement('audio'); var downloadAnchor = document.createElement('a'); audioElement.controls = true; audioElement.src = url; downloadAnchor.href = url; ``` TODO ---- * Sequencer top / status row should be radio buttons :) * Code cleanup / restructuring * Enable open / drag and drop files for editing * Visual feedback (levels) for live recording * Sequencer UI (and separation to a different module) Credits / license ----------------- Live recording code adapted from: http://www.phpied.com/files/webaudio/record.html Editor code adapted from: https://github.com/plucked/html5-audio-editor Copyright (c) 2012 Daniel Demmel MIT License
实现 HTML 录音界面可以通过使用 HTML5 的音频 API 和媒体元素来实现。以下是一种可能的实现方法: 首先,在 HTML 中创建一个包含音频控制的容器元素,例如一个 `<div>` 元素。然后,在该容器中添加一个 `<audio>` 元素,用于播放音频。 接下来,使用 JavaScript 获取录音设备的权限,并将其传递给 `<audio>` 元素。可以使用 `navigator.mediaDevices.getUserMedia()` 方法来请求访问麦克风设备,然后将返回的 `MediaStream` 对象与 `<audio>` 元素的 `srcObject` 属性进行绑定,从而将麦克风的输入传递给 `<audio>` 元素。 然后,添加一些控制按钮,例如“录制”按钮和“停止”按钮。当用户点击“录制”按钮时,使用 `MediaRecorder` 对象开始录制音频。可以使用 `MediaRecorder` 的 `start()` 方法开启录制,并在录制的过程中,将音频数据保存到一个缓冲区。 当用户点击“停止”按钮时,调用 `MediaRecorder` 的 `stop()` 方法停止录制。然后,使用 `MediaRecorder` 的 `dataavailable` 事件监听器来获取录制结束后的音频数据,并将其转换成可播放的音频格式。可以使用 `fetch()` 方法将音频数据保存到后端服务器,或者使用 `URL.createObjectURL()` 方法来创建一个可播放的音频 URL,然后将其设置为 `<audio>` 元素的 `src` 属性。 最后,为了使用户能够控制录音的回放,可以添加一些额外的控制按钮,例如“播放”和“暂停”按钮,通过 JavaScript 来控制 `<audio>` 元素的播放和暂停。 综上所述,以上是实现 HTML 录音界面的一种方法。当然,具体的实现可能因需求而有所不同,但这个方法提供了一个基本的框架来开始实现录音功能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UestcXiye

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值