ue4 播放程序化生成的声音

首先了解音频有几个重要的概念:

采样频率每秒钟采样次数,采样率越高,数字波形的形状越接近原始模拟波形,通常的采用频率有22050,44100,48000,96000

采样位数采样声波时,为每个采样指定最接近原始声波振幅的振幅值。 采样位数提高可提供更多可能的振幅值,产生更大的动态范围、更低的噪声基准和更高的保真度。通常的采样位数有8bit,16bit,24bit,32bit。

通道数声音的通道的数目。常有单声道和立体声之分,单声道的声音只能使用一个喇叭发声(有的也处理成两个喇叭输出同一个声道的声音),立体声可以使两个喇叭都发声(一般左右声道有分工) ,更能感受到空间效果,当然还有更多的通道数。

 

 

PCM :PCM(Pulse Code Modulation----脉码调制录音)。所谓PCM录音就是将声音等模拟信号变成符号化的脉冲列,再予以记录。PCM信号是由[1]、[0]等符号构成的数字信号,而未经过任何编码和压缩处理。与模拟信号比,它不易受传送系统的杂波及失真的影响。动态范围宽,可得到音质相当好的影响效果。

 

WAV:wav是一种无损的音频文件格式,WAV符合 PIFF(Resource Interchange File Format)规范。所有的WAV都有一个文件头,这个文件头音频流的编码参数。WAV对音频流的编码没有硬性规定,除了PCM之外,还有几乎所有支持ACM规范的编码都可以为WAV的音频流进行编码。

WAV和PCM的关系

WAV可以使用多种音频编码来压缩其音频流,不过我们常见的都是音频流被PCM编码处理的WAV,但这不表示WAV只能使用PCM编码,MP3编码同样也可以运用在WAV中,和AVI一样,只要安装好了相应的Decode,就可以欣赏这些WAV了。在Windows平台下,基于PCM编码的WAV是被支持得最好的音频格式,所有音频软件都能完美支持,由于本身可以达到较高的音质的要求,因此,WAV也是音乐编辑创作的首选格式,适合保存音乐素材。因此,基于PCM编码的WAV被作为了一种中介的格式,常常使用在其他编码的相互转换之中,例如MP3转换成WMA。

简单来说:pcm是无损wav文件中音频数据的一种编码方式,但wav还可以用其它方式编码。

 

网上很多资料都是移除wav文件的头部44个字节后,获取的就是pcm。但这样不能用于全部情况,具体请看这里

http://www-mmsp.ece.mcgill.ca/Documents/AudioFormats/WAVE/WAVE.html

 

UE中要播放动态生成的声音,可以使用USoundWaveProcedural 派生类生成波形资源,也可以使用USynthComponent

派生新的组件输出动态声音。 主要是 通过USoundWave的函数GeneratePCMData,在该函数中获取需要播放的声音数据。

 

UCLASS(hidecategories=Object, editinlinenew, BlueprintType)

class ENGINE_API USoundWave : public USoundBase

{

       /**

        * This is only used for DTYPE_Procedural audio. It's recommended to use USynthComponent base class

        * for procedurally generated sound vs overriding this function. If a new component is not feasible,

        * consider using USoundWaveProcedural base class vs USoundWave base class since as it implements

        * GeneratePCMData for you and you only need to return PCM data.

        */

        virtual int32 GeneratePCMData(uint8* PCMData, const int32 SamplesNeeded) { ensure(false); return 0; }

       /**

       * Return the format of the generated PCM data type. Used in audio mixer to allow generating float buffers and avoid unnecessary format conversions.

       * This feature is only supported in audio mixer. If your procedural sound wave needs to be used in both audio mixer and old audio engine,

       * it's best to generate int16 data as old audio engine only supports int16 formats. Or check at runtime if the audio mixer is enabled.

       * Audio mixer will convert from int16 to float internally.

       */

        virtual Audio::EAudioMixerStreamDataFormat::Type GetGeneratedPCMDataFormat() const { return Audio::EAudioMixerStreamDataFormat::Int16; }

}

需要模块的build.cs 中加入依赖库 "AudioMixer"

PublicDependencyModuleNames.AddRange(new string[] { "Core", "CoreUObject", "Engine", "InputCore", "AudioMixer"});

 

第一种:使用USynthComponent派生组件进行声音的输出:

 

class MOTIONMOCAP_API UMocapAudioComponent : public USynthComponent

{

       GENERATED_BODY()

       // Called when synth is created

       virtual bool Init(int32& SampleRate) override;

       // Called to generate more audio

       virtual int32 OnGenerateAudio(float* OutAudio, int32 NumSamples) override;

protected:

       UPROPERTY(BlueprintReadOnly, EditAnywhere, meta = (ClampMin = "8000 ", ClampMax = "192000"))

       int32 ResSampleRate = 44100;

       UPROPERTY(BlueprintReadOnly, EditAnywhere, meta = (ClampMin = "1", ClampMax = "2"))

       int32 ResNumChannels = 2;

};

 

// Fill out your copyright notice in the Description page of Project Settings.

#include "MocapAudioComponent.h"

#include "AudioReceiveThread.h"

bool UMocapAudioComponent::Init(int32& SampleRate)

{

       SampleRate = ResSampleRate;

       NumChannels = ResNumChannels;

       return true;

}

 

int32 UMocapAudioComponent::OnGenerateAudio(float* OutAudio, int32 NumSamples)

{

         for(int i=0; i < NumSamples/NumChannels; i++){

            for(int j = 0; j <NumChannels; j++ ){

                   //获取每个信道的采样数据,这里仅是简单展示数据关系

                OutAudio[i*NumChannels + j]= FMath::RandRange(-1.0f, 1.0f);

            }

         }

       return NumSamples;

}

 

 

bool UMocapAudioComponent::Init(int32& SampleRate)

{

       // Initialize the DSP objects

       SampleRate = ResSampleRate;

       NumChannels = ResNumChannels;

       return true;

}

 

在该组件中的Init函数中,我们需要设置SampleRateNumChannels。该设置决定了输出音频的采样率和音频的通道数量。

 

int32 UMocapAudioComponent::OnGenerateAudio(float* OutAudio, int32 NumSamples)

{

         for(int i=0; i < NumSamples/NumChannels; i++){

            for(int j = 0; j <NumChannels; j++ ){

                   //获取每个信道的采样数据

                OutAudio[i*NumChannels + j]= FMath::RandRange(-1.0f, 1.0f);

            }

         }

       return NumSamples;

}

 

在OnGenerateAudio中,我们根据NumSamples 获取指定数量的声音数据,该值是每个声道需要的采样数*声道数。  OutAudio是存放输出数据的地址。返回值返回的是实际获得的数据长度。声音的振幅为-1到1. 这里的 OnGenerateAudio 并不是主线程中调用的,我们在使用时需要注意。

第二种:使用USoundWaveProcedural派生类生成波形资源,然后使用AudioComponent输出:

 

#include "CoreMinimal.h"

#include "Sound/SoundWaveProcedural.h"

#include "DSP/Osc.h"

#include "NewSoundWaveProcedural.generated.h"

/**

 *

 */

UCLASS()

class DEMOPROJECT_API UNewSoundWaveProcedural : public USoundWaveProcedural

{

       GENERATED_BODY()

public:

       UNewSoundWaveProcedural(const FObjectInitializer& ObjectInitializer);

       virtual int32 OnGeneratePCMAudio(TArray<uint8>& OutAudio, int32 NumSamples) override;

       virtual Audio::EAudioMixerStreamDataFormat::Type GetGeneratedPCMDataFormat() const override;

protected:

       Audio::FOsc Osc;

};

 

UNewSoundWaveProcedural::UNewSoundWaveProcedural(const FObjectInitializer& ObjectInitializer)

       :Super(ObjectInitializer)

{

       NumChannels = 2;

       SampleRate = 44100;

         //下面的是简单的测试声音生成设置。

       Osc.Init(SampleRate);

       Osc.SetFrequency(440.0f);

       Osc.Start();

}

int32 UNewSoundWaveProcedural::OnGeneratePCMAudio(TArray<uint8>& OutAudio, int32 NumSamples)

{

       OutAudio.Reset();

       OutAudio.AddZeroed(NumSamples * sizeof(int16));

       int16* OutAudioBuffer = (int16*)OutAudio.GetData();

       for (int32 i = 0; i < NumSamples; ++i)

       {

              OutAudioBuffer[i] = (int16)(32767.0f * FMath::Clamp(Osc.Generate(), -1.0f, 1.0f));

       }

       return NumSamples;

}

Audio::EAudioMixerStreamDataFormat::Type UNewSoundWaveProcedural::GetGeneratedPCMDataFormat() const

{

       return Super::GetGeneratedPCMDataFormat();

}

 

需要指定波形文件的NumChannels和SampleRate。 然后OnGeneratePCMAudio 中获取输出的声音数据。NumSamples同样是每个声道需要的采样数*声道数。 OutAudio中,需要存储的数据是与GetGeneratedPCMDataFormat有关的。 默认是Audio::EAudioMixerStreamDataFormat::Int16。从上面的代码我们可以看到OutAudio最终获取的数据长度其实是NumSamples*sizeof(int16)。默认OnGeneratePCMAudio是在主线程中的。如果设置了bCanProcessAsync = true; 则OnGeneratePCMAudio 将运行于线程池。

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
UE4生成程序化网格,您可以使用蓝图和C++两种方法: 使用蓝图: 1. 创建一个Actor,并在其上添加一个静态网格组件。 2. 在蓝图编辑器中,创建一个新的蓝图,并将其设为Actor的子类。 3. 在蓝图中,添加一个Construction Script事件,并连接该事件到一个Sequence节点。 4. 在Sequence节点中,添加一个创建StaticMeshComponent的节点,并将其连接到该Actor的RootComponent上。 5. 添加一个用于设置StaticMeshComponent网格的节点,并将其连接到创建StaticMeshComponent节点上。 6. 添加一个用于设置StaticMeshComponent材质的节点,并将其连接到创建StaticMeshComponent节点上。 7. 添加一个用于设置StaticMeshComponent位置、旋转和缩放的节点,并将其连接到创建StaticMeshComponent节点上。 8. 在Construction Script事件中,添加一个For循环节点,并将其连接到Sequence节点。 9. 在For循环节点中,添加一个用于计算网格位置、旋转和缩放的节点,并将其连接到Sequence节点。 10. 将Sequence节点连接到For循环节点的Body输出。 11. 在蓝图中添加一个自定义事件,并将其命名为GenerateMesh。 12. 在GenerateMesh事件中,添加一个用于生成网格的节点,并将其连接到Sequence节点。 13. 使用Actor蓝图来创建Actor,并调用GenerateMesh事件以生成程序化网格。 使用C++: 1. 创建一个继承自Actor的C++类,并添加一个静态网格组件。 2. 在C++类中,创建一个构造函数,并在其中添加StaticMeshComponent的创建、设置网格、材质和位置、旋转和缩放的代码。 3. 创建一个用于生成网格的函数,并在其中添加计算网格位置、旋转和缩放的代码。 4. 调用生成网格函数以生成程序化网格。 无论您选择哪种方法,都可以使用蓝图或C++来生成程序化网格。这将使您能够动态地创建和修改网格,以实现更多的交互和自定义效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值