html通过websocket播放后端推送的rtsp流

前一篇文章介绍了java通过ffmpeg来解码。java接受rtsp流解码,推送给前端,实现播放实时流_xzm2011023的博客-CSDN博客

那么通过websocket推过来的流我们应该怎么处理呢?这需要前端页面展示的插件,一般声纹插件用的是Wavesurfer或者是Musicvisualizer来进行声纹可视化处理。

function playRtmp(deviceId){
            ws = new WebSocket('ws://'+ip+':8093/ws/rt/'+deviceIp +"_"+ dateRtmp);
            ws.binaryType = 'arraybuffer';
            ws.onopen = function(p) {
                console.log(p)
            }
            var isFirst = true;
            ws.onmessage = function(arr) {
                if (arr.data instanceof ArrayBuffer) {
                    if (isFirst) {
                        isFirst = false;
                        setTimeout(function() {
                    
  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
要实现将音频到前端,可以通过 WebSocket后端和前端之间建立一个实时通信的连接。具体的步骤如下: 1. 在后端使用 Spring Boot 搭建 WebSocket 服务器,可以使用 Spring Boot 自带的 `spring-websocket` 模块。 2. 编写一个 WebSocket 处理器(WebSocketHandler),用于处理客户端的 WebSocket 请求。 3. 在客户端(前端)使用 JavaScript 建立 WebSocket 连接,并发请求到后端。 4. 在后端收到客户端的请求后,读取要的音频文件,并使用 WebSocket 连接将音频数据发到客户端。 5. 在客户端收到音频数据后,使用 HTML5 的 `Audio` 标签播放音频。 具体的实现步骤可以参考以下代码示例: 后端代码: ```java @Configuration @EnableWebSocket public class WebSocketConfig implements WebSocketConfigurer { @Override public void registerWebSocketHandlers(WebSocketHandlerRegistry registry) { registry.addHandler(new AudioWebSocketHandler(), "/audio"); } } public class AudioWebSocketHandler extends TextWebSocketHandler { private static final String AUDIO_FILE_PATH = "path/to/audio/file.mp3"; @Override public void afterConnectionEstablished(WebSocketSession session) throws Exception { // 连接建立后读取音频文件并发到客户端 Path audioFilePath = Paths.get(AUDIO_FILE_PATH); byte[] audioData = Files.readAllBytes(audioFilePath); session.sendMessage(new BinaryMessage(audioData)); } } ``` 客户端代码: ```javascript var audioPlayer = new Audio(); var webSocket = new WebSocket("ws://localhost:8080/audio"); webSocket.binaryType = "arraybuffer"; webSocket.onmessage = function(event) { var audioData = new Uint8Array(event.data); var blob = new Blob([audioData], { type: "audio/mp3" }); var url = URL.createObjectURL(blob); audioPlayer.src = url; audioPlayer.play(); }; webSocket.onclose = function(event) { audioPlayer.pause(); }; audioPlayer.onended = function() { webSocket.close(); }; ``` 在这个示例中,后端通过 WebSocket 将音频文件发到客户端,并使用 HTML5 的 `Audio` 标签播放音频。客户端在收到音频数据后,将其转换为 Blob 对象,并使用 URL.createObjectURL() 方法生成音频文件的 URL。然后将 URL 赋值给 `Audio` 标签的 src 属性,并调用 `play()` 方法播放音频。当音频播放完成时,客户端关闭 WebSocket 连接。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值