官网:
一、调用Translator Text API 实现 翻译服务
- 用户将对连接到沉浸式(VR)头戴式耳机的麦克风(或HoloLens的内置麦克风)讲话。
- 该应用程序将捕获听写并将其发送到Azure Translator Text API。
- 翻译结果将显示在Unity Scene中的简单UI组中。
二、调用Azure Computer Vision API 实现 计算机视觉 识别现实世界的对象 (涉及到capture)
三、自定义场景:
四、自然语言理解:学会使用 Azure Cognitive Services 和 Language Understanding API 将语言理解集成到混合现实应用程序。
开发将创建一个应用程序,用户可以在其中使用语音和/或注视来更改场景中对象的大小和颜色。不包括运动控制器的使用。
- 使用沉浸式耳机上的麦克风捕获用户输入的语音。
- 将捕获的指令发送到Azure语言理解智能服务(LUIS)。
- 让LUIS从发送信息中提取含义,将对其进行分析,然后尝试确定用户请求的意图。
五、人脸识别: 学会用Azure Cognitive Services和Microsoft Face API向混合现实应用程序添加面部识别功能。
- 使用拍打手势,开启HoloLens相机开始捕获图像。
- 将捕获的图像发送到Azure Face API服务。
- 接收Face API算法的结果。
- 使用简单的用户界面来显示匹配人员的姓名。