tts文字转语音,语音转文字,人脸识别

本文详细介绍了在Web环境中实现语音识别、文字转语音、人脸识别以及前端录音的方法。包括解决HTTP请求下麦克风权限问题,使用face-api.js进行人脸识别,Chrome的文字转语音功能,以及在Vue项目中处理Blob URL和Worker的兼容性问题。此外,还探讨了讯飞语音转文字和星火大模型的接入。
摘要由CSDN通过智能技术生成

1)解决http请求下无法开启麦克风问题

1.场景

最近本地开发一个语音聊天系统,前端录音发给后端。结果有的电脑无法录音,原因是正常情况下回弹出询问框是否授予该网页麦克风权限,有的浏览器并不会弹窗,也就导致这个功能无法使用。以下是解决方法。

2.解决方法

第一步,浏览器访问chrome://flags/#unsafely-treat-insecure-origin-as-secure

打开后如图所示:

2)人脸识别:face-api.js库

TensorFlow.js 是一个用于使用 JavaScript 进行机器学习开发的库

使用 JavaScript 开发机器学习模型,并直接在浏览器或 Node.js 中使用机器学习模型

基于TensorFlow构建的face-api.js库,事实上它可以嵌入在网站上并让网站拥有功能齐全的实时人脸检测能力,而且可与任何网络摄像头或手机摄像头配合使用

tracking.js Tracking.js 是一个独立的JavaScript库,用于跟踪从相机实时收到的数据。跟踪的数据既可以是颜色,也可以是人,也就是说我们可以通过检测到某特定颜色,或者检测一个人体/脸的出现与移动,来触发JavaScript 事件。它是非常易于使用的API,具有数个方法和事件(足够使用了)。

还有一个我觉得不错的功能就是,截取摄像头的图像,对于一些网站用这个功能来设置用户头像也是个很炫的功能。

需求:前端获取到摄像头信息,通过模型来进行判断人像是否在镜头中,镜头是否有被遮挡。

实现步骤:

1、通过video标签来展示摄像头中的内容

2、通过canvas来绘制视频中信息进行展示

3、在拍照时候将canvas的当前帧转成图片

<template>
    <div>
      <template>
           <div class="camera_outer" style="position: relative;">
                <video id="videoCamera" width="480" height="560" autoplay></video>
                <canvas style="display: block;position: absolute;top: 0;" width="480" height="560" id="canvasCamera"></canvas>
                <div class="button">
                <Button @click="getCompetence()">打开摄像头</Button>
                <Button @click="stopNavigator()">关闭摄像头</Button>
                <Button @click="setImage()">拍照</Button>
                </div>
            </div>
            <div v-if="imgSrc" class="img_bg_camera">
              <p>效果预览</p>
                <img :src="imgSrc" alt class="tx_img" />
            </div>
    </template>
    </div>
</template>
<script>
export default {
  data() {
    return {
      videoWidth: 450,
      videoHeight: 650,
      imgSrc: "",
      thisCancas: null,
      thisContext: null,
      thisVideo: null,
      openVideo:false
    };
  },
  mounted(){
    //this.getCompetence()//进入页面就调用摄像头
  },
  methods: {
    // 调用权限(打开摄像头功能)
    getCompetence() {
      var _this = this;
      var a = document.getElementById("canvasCamera");
      var b = a.getContext("2d");
      this.thisVideo = document.getElementById("videoCamera");
      this.thisVideo.style.display = 'block';
 
      var tracker = new tracking.ObjectTracker('face');
      tracker.setInitialScale(4);
      tracker.setStepSize(2);
      tracker.setEdgesDensity(0.1);
 
        this.trackerTask = tracking.track('#videoCamera', tracker, { camera: true });
 
        tracker.on('track', function(event) {
          b.clearRect(0, 0, a.width, a.height);
          event.data.forEach(function(rect){
            b.font = '18px Helvetica';
            b.fillText("已识别到人脸,请静止等待拍照",100,40);
            b.strokeStyle = 'lawngreen';
            b.strokeRect(rect.x, rect.y, rect.width, rect.height);
            // setTimeout(_this.setImage(),60000);
          });
        });
      // 获取媒体属性,旧版本浏览器可能不支持mediaDevices,我们首先设置一个空对象
      if (navigator.mediaDevices === undefined) {
        navigator.mediaDevices = {};
      }
      // 一些浏览器实现了部分mediaDevices,我们不能只分配一个对象
      // 使用getUserMedia,因为它会覆盖现有的属性。
      // 这里,如果缺少getUserMedia属性,就添加它。
      if (navigator.mediaDevices.getUserMedia === undefined) {
        navigator.mediaDevices.getUserMedia = function(constraints) {
          // 首先获取现存的getUserMedia(如果存在)
          var getUserMedia =
            navigator.webkitGetUserMedia ||
            navigator.mozGetUserMedia ||
            navigator.getUserMedia;
          // 有些浏览器不支持,会返回错误信息
          // 保持接口一致
          if (!getUserMedia) {//不存在则报错
            return Promise.reject(
              new Error("getUserMedia is not implemented in this browser")
            );
          }
          // 否则,使用Promise将调用包装到旧的navigator.getUserMedia
          return new Promise(function(resolve, reject) {
            getUserMedia.call(navigator, constraints, resolve, reject);
          });
        };
      }
      var constraints = {
        audio: false,
        video: {
          width: this.videoWidth,
          height: this.videoHeight,
          transform: "scaleX(-1)"
        }
      };
      navigator.mediaDevices
        .getUserMedia(constraints)
        .then(function(stream) {
          // 旧的浏览器可能没有srcObject
          if ("srcObject" in _this.thisVideo) {
            _this.thisVideo.srcObject = stream;
          } else {
            // 避免在新的浏览器中使用它,因为它正在被弃用。
            _this.thisVideo.src = window.URL.createObjectURL(stream);
          }
          _this.thisVideo.onloadedmetadata = function(e) {
            _this.thisVideo.play();
          };
        })
        .catch(err => {
          console.log(err);
        });
    },
    //  绘制图片(拍照功能)
    setImage() {
      var _this = this;
      // canvas画图
      var a = document.getElementById("canvasCamera");
      var b = a.getContext("2d");
      b.drawImage(
        _this.thisVideo,
        0,
        0,
        _this.videoWidth,
        _this.videoHeight
      );
      // 获取图片base64链接
      var image = a.toDataURL("image/png");
      _this.imgSrc = image;//赋值并预览图片
      _this.stopNavigator();
      return;
    },
    // 关闭摄像头
    stopNavigator() {
      this.thisVideo.srcObject.getTracks()[0].stop();
    }
    // base64转文件,此处没用到
    // dataURLtoFile(dataurl, filename) {
    //   var arr = dataurl.split(",");
    //   var mime = arr[0].match(/:(.*?);/)[1];
    //   var bstr = atob(arr[1]);
    //   var n = bstr.length;
    //   var u8arr = new Uint8Array(n);
    //   while (n--) {
    //     u8arr[n] = bstr.charCodeAt(n);
    //   }
    //   return new File([u8arr], filename, { type: mime });
    // }
  }
};
</script>

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

nicky_hb

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值