unity3D游戏开发实战(七)——实现环境对声音的影响

自己手动实现左右耳的声音区别

人之所以能通过听到的声音辨别音源的方向,主要就是因为左右耳的双重信号接收。
在左边的声音到达左耳会比到达右耳要快一些,同时,频率越高的音段会被头部遮挡一部分,导致右耳听到的声音要比左耳听到的声音小。
除此之外,人耳的形状实际上是一个滤波器,当声音从正面传来时,可以几乎无阻碍的被我们接收,而背面的则会被耳廓遮挡,相当于一个低通滤波器,我们就依据这个来编写脚本。

using System.Collections;
using System.Collections.Generic;
using UnityEngine;

public class AudioStereo : MonoBehaviour
{
    public GameObject leftPlayer;
    public GameObject rightPlayer;
    public Transform mainCamera;
    public Transform leftEarPos;
    public Transform rightEarPos;
    public float strength = 0.3f;
    public float reduction = 0.4f;
    public float delayTimePerUnit = 0.02f;

    private AudioSource leftStereo;
    private AudioSource rightStereo;
    private AudioLowPassFilter leftLowPass;
    private AudioLowPassFilter rightLowPass;
    private float standardVolume = 0.5f;
    private Vector3 relativePos;
    private float degree;
    private float lastDegree;
    private bool ifLeft;
    private float timeDifference;
    private float rightTime;
    private float lowPassThreshord = 30 * Mathf.Deg2Rad;
    private float lowPassMaxCutoff = 5000;

    void Start()
    {
        leftStereo = leftPlayer.GetComponent<AudioSource>();
        rightStereo = rightPlayer.GetComponent<AudioSource>();
        leftLowPass = leftPlayer.GetComponent<AudioLowPassFilter>();
        rightLowPass = rightPlayer.GetComponent<AudioLowPassFilter>();

        leftStereo.volume = standardVolume;
        rightStereo.volume = standardVolume;
        leftStereo.panStereo = -1;
        rightStereo.panStereo = -1;
        relativePos = (mainCamera.position - transform.position).normalized;
        degree = Mathf.Acos(Vector3.Dot(mainCamera.forward, relativePos));
        lastDegree = degree;
    }

    void Update()
    {
        relativePos = (mainCamera.position - transform.position).normalized;
        degree = Mathf.Acos(Vector3.Dot(mainCamera.forward, relativePos));
        if (Vector3.Cross(relativePos, mainCamera.forward).Equals(mainCamera.up))
            ifLeft = true;
        else
            ifLeft = false;
        leftStereo.volume = standardVolume + (ifLeft ? strength : -reduction) * Mathf.Sin(degree);
        leftStereo.volume = standardVolume + (!ifLeft ? strength : -reduction) * Mathf.Sin(degree);
        if (degree != lastDegree)
        {
            timeDifference = (Vector3.Distance(leftEarPos.position, transform.position) - Vector3.Distance(rightEarPos.position, transform.position)) * delayTimePerUnit;
            rightTime = leftStereo.time + timeDifference;
            if (rightTime < 0)
                rightTime += leftStereo.clip.length;
            else if (rightTime > leftStereo.clip.length)
                rightTime -= leftStereo.clip.length;
            rightStereo.time = rightTime;
            if (degree > lowPassThreshord)
            {
                leftLowPass.cutoffFrequency = lowPassMaxCutoff * (Mathf.Cos(degree) + Mathf.Cos(lowPassThreshord)) / (1 + Mathf.Cos(lowPassThreshord));
                if (leftLowPass.cutoffFrequency <= 0)
                    leftLowPass.cutoffFrequency = 0;
                rightLowPass.cutoffFrequency = leftLowPass.cutoffFrequency;
            }
            lastDegree = degree;
        }
    }
}

上面代码的原理就是通过创造两个AudioSource来模拟传播到左右耳的声音,音量衰减则通过Inspector界面的曲线绘制,而上面的代码则负责控制声音与方向的关系。
然而这个实现存在一些问题,首先是自己实现对于参数的控制十分困难,因为声音到达左右耳的时间实际上只相差很短的时间,十分难以把控数据,其次是并没有考虑到环境对声音的影响,包括障碍物的遮挡与回音,而这部分难度较高,我选择放弃自己编写,使用现有的音频插件。

ResournanceAudio

这是Google的开源音频插件,主要用来支持VR音效,可以较好的实现环绕立体声,不过这个插件也没法计算障碍物的影响,之后我们会介绍另一个插件SteamAudio,但现在我们先介绍一下ResournanceAudio的使用方式:
首先在Package Manager中下载插件,unity的官方插件库中即可下载,之后我们勾选AudioSource的Spatilize选框,让其可以被插件影响,之后新建一个AudioMixer,打开编辑页面,打开master选项:
在这里插入图片描述
之后在右侧选择AddEffect,添加Resournance Audio Renderer,之后在Audio Source中将mixer设置为Output,就可以使用Resournance Audio插件了。
具体使用不再介绍,有兴趣的读者可以去查看谷歌的官方API,我们着重介绍另一种插件——Steam Audio。

Steam Audio

这是Valve为解决VR空间音效而编写的插件,当然普通的3D项目也可以使用,我们需要先去官网下载对应的unitypackage:
Steam Audio官网地址
下载完毕后导入我们的项目中,我们需要先打开Windows-Steam Audio窗口:在这里插入图片描述
之后我们将其关闭即可,这时在我们的Hierarchy页面就会出现一个Steam Audio Manager Settings。
之后我们为每一个挂载了AudioSource组件的物体添加Steam Audio Source脚本,为带有Audio Listener的摄像机添加Steam Audio Listener脚本,并为所有要纳入计算的障碍物添加Steam Audio Geometry脚本,之后回到Steam Audio Manager Settings物体,点击Pre-Export Scene,就可以实现环境对声音的影响了。
同时,我们还需要打开Project Settings→Audio,将Spatializer Plugin与Ambisonic Decoder Plugin调整为steamAudio,之后就能够听到明显的区别了。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 《Unity 3D ShaderLab开发实战详解》是一本介绍Unity 3D的ShaderLab开发实战教程的PDF电子书。ShaderLab是Unity中用于创建和编辑着色器的工具,通过编写自定义着色器可以实现各种特效和材质效果,提升游戏的视觉效果。 这本书的目的是帮助读者掌握ShaderLab的基本概念和技巧,并通过实例演示来深入了解如何创建高质量的着色器。书中的内容涵盖了ShaderLab开发的各个方面,从基础的着色器语法开始讲解,逐步介绍如何创建材质、纹理、光照效果、透明效果、反射效果等。书中还详细讲解了Unity的着色器渲染管线和渲染流程,帮助读者理解着色器是如何与场景、摄像机、光源等组件进行交互和渲染的。 在书中,作者通过大量的示例代码和图文说明,帮助读者理解和掌握ShaderLab的使用方法和技巧。同时,书中还提供了一些实用的开发技巧和调试技巧,帮助读者解决在实际开发中可能遇到的问题。 《Unity 3D ShaderLab开发实战详解》适合有一定Unity开发经验的读者阅读,对于对着色器开发感兴趣的游戏开发者来说,这本书是一个很好的学习资源。通过学习这本书,读者可以深入了解Unity的着色器开发技术,掌握创建高质量视觉效果的方法,提升游戏的质量和表现力。 ### 回答2: 《Unity 3D ShaderLab开发实战详解》是一本介绍Unity中ShaderLab开发实战指南。Shader是用来描述渲染效果的程序,而ShaderLab则是Unity的内建语言,用于编写和调试Shader。 该书包含了ShaderLab开发的基础知识和高级技巧。首先,它涵盖了ShaderLab语言的基本语法和结构,包括材质和渲染管线的理解,以及Shader中常用的算法和函数。读者可以通过逐步学习这些内容来掌握ShaderLab的基本编写和调试技巧。 书中还介绍了一些常见的渲染效果,如水面、光照、阴影等。读者可以通过学习这些案例来了解如何在实际项目中应用ShaderLab开发出高质量的渲染效果,并通过对案例代码的分析和修改来加深对ShaderLab的理解。 此外,该书还介绍了一些高级的ShaderLab开发技术,如使用GPU编程语言HLSL优化Shader性能、通过贴图及纹理坐标实现特定效果等。这些技术可以帮助读者深入理解ShaderLab的内部原理,并运用到实际项目中。 总的来说,《Unity 3D ShaderLab开发实战详解》提供了一个系统和全面的学习ShaderLab开发的平台。通过阅读本书,读者可以逐步掌握ShaderLab语言的基础知识和技巧,并学会如何应用它来实现各种炫酷的渲染效果。无论是初学者还是有一定经验的开发者,都可以从中获得实践和提高的机会。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值