微软成立Cortana智能研究所,探索AI助手新未来

微软宣布成立Cortana智能研究所,旨在研究试验增强微软AI助手的新方法,尤其是在工作场所和生产力等相关领域。

微软在2018年2月1日宣布创建Cortana智能研究所的计划,该研究所旨在研究和试验新的方法,以增强微软AI助手功能,特别是在工作场所和生产力方面。

该研究所汇集了来自澳大利亚墨尔本皇家理工学院(RMIT University)的教师和学生,以及微软研究院和最近成立的Cortana研究所的研究人员。微软研究院外联主任罗伊·齐默尔曼(Roy Zimmerman)在一篇博客中表示:“RMIT的研究集中在与工作相关的任务上,这一领域具有强大的潜力,有助于使Cortana成为真正增强人的能力的更加积极主动和具有环境意识的数字助手。”

和其他人工智能助手一样,现在的Cortana可以帮助用户阅读新闻,播放音乐,或者创建日历事件或提醒,除此之外,它还可以在会议之前分享LinkedIn的个人信息,提醒用户关于电子邮件里的重点事项,(很快)通过用户的声音安排与同事间的会议。

Cortana智能研究所的成立,将探索更多Cortana的研究重点,比如让它执行更复杂的命令,包括更多的行动步骤或上下文感知能力。RMIT的教职员工和学生考虑将Cortana用户的位置和身体活动、在线和应用程序使用历史以及社交互动等信息用于研究中,以便让Cortana更好的理解用户意图。

该机构成立的前一天,微软公布了其季度盈利报告,首席执行官萨蒂亚·纳德拉(Satya Nadella)详细地讲述了Cortana的智能未来,以及微软对其他人工智能助手的看法,比如Alexa。纳德拉说:“目前,大多数助理在进行单轮对话方面还不是很成熟,但我们要做的是多回合对话研究,而这需要真正的自然语言理解能力。”纳德拉表示,微软Azure和微软认知服务构成了微软人工智能服务的核心。“在构建模块及人工智能工作方面,我们将确保自己要做到最好。当然,对于我们来说,Cortana是微软的代言人,它拥有一些特殊的技能,特别是在工作和生活的交叉领域,这一点将显现出来。

大多数人工智能助手的知识或智能都来自它们所拥有的数据访问。在我们的例子中,Cortana与Office365连接读取Office365中的内容。人物、地点、事件,以及我们如何推理和帮助用户,无论他们是在家里还是在工作场所。”

2017年8月,亚马逊和微软达成协议,允许运行Cortana的个人电脑与Alexa对话,同时装有AlexaEcho设备可与Cortana交谈。自此以后,微软一直致力于语音应用程序开发工作,而亚马逊也已经朝着工作场所领域迈出了重要的一步。2017年11月下旬,亚马逊推出了Alexa for Business,将企业软件提供商与Alexa的能力结合在一起,来做诸如控制智能设备或创建日历事件等事情。此外,思科(Cisco)的火花助理(Spark Assistant)也在努力成为真正的工作助理。至于谷歌,也加入到了人工智能助手在工作领域的研究行列中。

面对种种压力,Nadella表示,微软并不担心Alexa或其他助手带来的竞争压力,因为他们与公司的AI助理理念背道而驰。纳德拉表示,“这就是为什么我们和Alexa合作,我们欢迎它运行在我们的设备上,因为我们相信,在我们的世界里,我们自己的人工智能助手应该是无处不在的,所以别的助手在我们的设备上也可以使用,而不是认为这里的最终游戏是关于在一个家庭中对一个演讲者进行单回合对话。那不是我们的设想。”

尽管微软承诺在2017年年底前将这两种人工智能助理的能力结合在一起,但Echo设备或Windows10个人电脑上仍未出现这种合作关系。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值