364.DanielPovey领衔开发第二版语音识别开源工具Kaldi
Kaldi集成了多种语音识别模型,包括隐马尔可夫和深度学习神经网络,被认为是世界语音识别框架的基石。
DanielPovey是著名的语音识别开源工具Kaldi的主要开发者和维护者,被称为Kaldi之父。
Daniel毕业于剑桥大学获语音识别博士学位。后来在IBM研究院、微软研究院负责计算机语音识别工作,2012年Daniel加入约翰霍普金斯大学担任语言和语音处理中心系主任,2019年12月初正式加入小米,成为小米首席语音科学家,负责下一代Kaldi开发工作,并将其融入小米的产品和服务的应用中。
语音识别技术发展至今已在工业、医疗、教育、金融等各行业落地,识别准确率达到95~97%。
如此看来语音识别系统准确率已经很高了,但实际上这种高精准度仅仅针对某些特定的语音类型,现阶段要让机器来识别人们日常交流还是比较困难的,尤其是当周围环境掺杂着噪声、音乐,且多人同时发声时。
Daniel加入小米后,领衔开发基于PyTorch的下一代Kaldi丰版本,并服务于小米的手机+AIoT双引擎战略,将第二版Kaldi融入到小米的产品和服务的应用中。
目前基于语音识别的人机交互系统开始大规模应用,语音识别领域的技术突破和应用落地指日可待!
365.神经拟态芯片模仿人脑运作机制,主要采用异步脉冲神经网络去解决问题
去年11月5日英特尔研究院院长RichardA-Uhlig访华时谈到三大颠覆性技术。他说当前计算系统正越来越难以承受规模越来越大的数据处理任务,正在研发三大颠覆性技术:①新型计算方式——量子计算、神经拟态、图计算、概率计算,这些都是非常重要的新型计算方式。②硅光子技术。③内存技术。
在新型计算方式中,神经拟态芯片模仿人脑运作机制,形成高能效神经网络系统,主要采用异步脉冲神经网络(SNN)去解决问题,可应用在机器人、网络、动态控制、稀疏编码、图式搜索、路径规划、约束满足等很多领域。
366.有血液的机器鱼
由康奈尔大学和宾夕法尼亚大学联合研制的“狮子鱼”,是世界上第一条有血液的机器鱼(2019.7.1发布),用这种独特的人造血做动力,其续航能力比没有合成血液的同类机器鱼提升8倍。
目前各种仿生机器人不断涌现,朝着自主机器人的目标迈进。
367.人工智能“上海方案”出征海外
在这次疫情防控和复工复产中,上海人工智能企业向国外持续输出抗疫“科技力”,“上海方案”开始出国服务世界。
几天前西井科技助力振华重工自主研制8台“人工智能无人跨运车”,顺利运抵瑞典斯德哥尔摩码头。当地码头内司机出现招工难问题,疫情暴发造成部分司机被隔离,此时无人跨运车解救了他们的燃眉之急,并提高该港区生产效率和作业安全系数,这也是疫情发生后上海人工智能大型装备首个出海项目。
商汤科技的抗疫新科技也开启了出海征程:4月2日商汤科技与韩国LG-CNS合作,双方共推计算机视觉算法等AI技术在韩国应用落地,助韩国多行业、多场景智能化升级;近日商汤联手日本高速公路管理公司促商汤AI技术又一次向日本出口;商汤在国内各机场地铁推广AI防疫方案(如人脸识别、无感测温、无感通行等)的基础上也出口到韩国(包括人脸识别一体机、测温一体机等)近200个站点安装使用。
368.谷歌利用用户定位数据及人工智能技术制作流动性报告协助政府疫情防控
据《华尔街日报》4月3日报导,谷歌宣布将为各地政府提供用户定位数据,以追踪公众在疫情期间是否有效遵守社交疏远措施,并称是在当前“史无前例时期”提供帮助的一项措施。
谷歌利用“谷歌地图”等方式收集部分用户信息,提供有关当地民众是否遵守社交疏远措施的情况报告,这些流动性报告公开发布,显示在特定地区或国家进入商店、药店和公园向人流量。
谷歌称,报告使用匿名的历史数据,覆盖131个国家和地区。这些信息可以帮助官员了解用户的出行趋势,用以制定防控疫情的指导意见,从而保护公共健康和必要的社区需求。
公众担忧广泛数据收集是否会泄露隐私?谷歌解释,与谷歌地图监测交通车流量一样,“移动报告”收集的是汇总、匿名的用户数据,不会提供“个人身份信息”(如个人的位置、联系人或活动等)。
369.仿生机器人
近来,由人工智能赋能的仿生机器人发展很快,有美女机器人、情感机器人、爱的机器人等,与真人愈加逼真!
机器人有六大系统:①驱动系统指驱动装置(有电机、液压和气动三种),相当于人体肌肉;②机械结构系统是机身、臂、手腕、行走机构和末端操作器等,相当于人的身体、手、腿等;③感知系统把信息传给控制系统,它有内、外部状态付感器,就像人拿物轻拿轻放比较灵活反应;④环境交互系统感知外部环境的变化,来协调的系统;⑤人机交互系统拥有人机对话交互功能;⑥控制系统机器人的执行机构,相当于人的大脑。
仿真机器人与真人逼真主要在于它的皮肤、面部表情和如上的六大系统都模拟人类!
370.超快相机
中国又一黑科技问世,一台每秒4万亿帧超快相机研制成功,为人工智能研究带来福音,外媒惊呼:“西方优势荡然无存”
西安交通大学陈烽教授领导的“飞秒激光微纳制造实验室”成功研制每秒4亿帧的“超快相机”(光谱分辨率达亚纳米级或高达10亿像素),可用来记录光的运动过程(如飞秒激光传播),记录人工智能生物神经元中电信号的传播过程,可用作超级航空照相机,特别是拍摄未知微观世界的超快过程。
371.美、日仿生机器人
有一则消息:美国发明的仿生机器人,比人类灵活10倍。还有一则消息:日本仿生机器人居世界之顶,近来又开发美女仿生机器人、mini仿生机器人,其协调性、灵活性超越人类。据详细考察,这种结论不足为怪,所谓超越人类的指的是“动作”,机器人高难度动作“吓坏了不少人”,身体协调、灵活也指的是动作,至于谈到“自主思维”,机器人总是不及人类的。
372.北京地铁《智能列车乘客服务系统》投入试运行
北京地铁《智能列车乘客服务系统》是《首都智慧地铁》科研项目的一项重要组成部分。
《首都智慧地铁》包括智能客服、智能运行、智能维护、智能管理四大应用场景,和智能列车、智能车站两项重要节点工程。
采用人工智能、大数据、云计算、5G、中国北斗卫星导航等新一代信息技术,致力打造数字化、信息化、网络化和智能化的智慧地铁运营新模式。对智能列车乘客服务系统来说,智能地铁列车亮相,车窗变“魔镜”,三维显示行车信息。
北京地铁《智能列车乘客服务系统》于2019年10月启动,目前正在北京地铁6号线上进行试运行。
373.也来介绍一款较为成熟的四足“机器狗”AlphaDog
蔚蓝研发生产的阿尔法机器狗是全球行走速度最快的量产机器狗
2019年,蔚蓝向特定客户发布了世界上第一款四足机器人形态的个人机器人产品——阿尔法机器狗AlphaDog。
这款世界上第一台行走速度超过3米/秒的量产四足机器人,同时也是世界上第一个定位为通用型四足形态的个人机器人产品。阿尔法机器狗以前所未有的行走速度证明了其领先的运动控制技术。
2020年初,阿尔法机器狗研制生产厂家——蔚蓝再次帶来了阿尔法机器狗的升级版C系列和E系列,正式发布。
阿尔法机器狗是一款个人机器人,也是一款强大的机器人移动平台。
阿尔法机器狗设计采用开放架构,开发者可使用自已熟悉的软硬件工具和编程语言进行各种应用开发,其整个架构设计都是为了让用户能在其生态系统中受益,实现想像力。
阿尔法机器狗采用先进的软硬件技术架构、机械设计、智能算法和运动控制算法。它是运动功能最丰富的机器狗,有九种步态:①平衡站立②常规行走③常规小跑④自由小跑⑤小步快走⑥小步快跑⑦踱步⑧跳跑⑨奔跑,以及①推动恢复、②侧向移动、③原地转向、④跳跃、⑤摔倒自动翻身、⑥侧身行走、⑧匍匐行走等。
阿尔法机器狗也是全球行走高度调节能力最强的机器狗,是一款较为成熟的四足机器狗。
374.科学家通过人工智能识别老鼠的情绪
人类有多种多样情绪,可通过面部肌肉和器官移动完美表达出来,人类的表情提供了解他们情绪的窗口。
这种情感表达能力并非人类独有,研究人员发现老鼠也有喜怒哀乐。
美国加州理工学院神经学家DavidAnderson等研究人员,使用机器学习算法,成功破译了实验室中老鼠看似难以理解的面部表情。
美国西方的神经科学家认为,人类的面部表情受大脑中的编码支配。加州理工的这项研究工作可能会对精确定位人类大脑中编码特定表情的神经元产生巨大影响。David说,他们的研究“迈出了非常重要的一步”,帮助揭开情绪的神秘面纱,以及它们在大脑中是如何表现的。人类或动物的表情提供了了解他们或它们情绪的窗口,他们并调查情绪是如何在大脑中产生的,情绪等“大脑状态”可能会表现出特殊的特征。
AI算法识别特定脸部肌肉群运动产生不同表情,人类和老鼠在脑中的情感编码很可能有共同的特征。
375.谷歌发布AI神经天气模型
几秒钟可预测全美降水量
建议取代目前大气物理模型的天气预报
谷歌认为,目前很多气象机构采用的天气预报是基于大气动力学的物理模型,几十年来进展不大,这些模型受到计算能力的限制,其物理定律近似值非常敏感,为克服这些限制天气预报的方法,建议采用深度神经网络(DNNs)的天气模型,DNNs在强大的专用硬件(如GPU和TPU)上使用并行计算,从测试数据中建立计算模式,并通过学习从输入到输出的复杂转換,预测未来气象变化,做好天气预报。
近日,谷歌在对先前全美降水量研究的基础上,采用DNNs建模(MetNet),对预报全美降水量进行一次试验。MetNet是一种用于降水预报的神经天气模型,能够在未来8小时内以1KM分辨率预报降水量,时间间隔2分钟,使用最先进的MetNet模型预测时间比原来的NOAA模型可以提前7~8小时,预测全美降水量,MetNet只需几秒钟,NOAA要用1小时。
376.从异步脉冲神经网络的Loihi原生芯片发展为1亿神经元大规模的神经拟态计算系统
2017年英特尔研发搭载脉冲神经网络(SNN)的Loihi原生芯片,其参数为:每颗芯片125个内核,每个内核支持1000个神经元、支持25万个突触,单颗芯片支持12.5万个神经元
芯片参数水平并不高
2019年进行芯片集成,开发PohoikiBeach(由64颗芯片集成),由芯片集成组成的神经网络支持800万个神经元组网。
2020年3月19日发布新的芯片集成,开发PohoikiSprings(由768颗芯片集成)。
由PohoikiSprings芯片集成组成的神经网络支持1亿个神经元组网。
相当于小型哺乳动物。
经过训练的Loihi芯片能效提升1000倍。
从此,Loihi芯片发展成1亿神经元(PohoikiSprings芯片集成)大规模的神经拟态计算系统,开辟了异步脉冲神经网络应用落地的先例。
377.浩大工程“高精度数字土壤”发布
我国耕地状况一目了然
中国农科院4月6日宣布:覆盖全国耕地的“高精度数字土壤”发布
利用3S技术,在人工智能等信息技术助力下,历时21年
“数字土壤”是利用“3S”,即地理信息系统(GIS)、全球定位系统(GPS)、遥感技术(RS),在大数据、人工智能及人机交互设计助力下,模拟、重现土壤类型、土壤奍分等土壤性状的空间分布特征,直观、精细展现土壤资源和质量状况。
中国“高精度数字土壤”含9大图层,具有多要素(多项土壤理化性状)、高精度(100米数据)、多时空维度(40年土壤空间数据)特征,是我国迄今最完整和精细的土壤资源与质量科学记载。它以1公顷为单元提供多地多项土壤资源与质量理化性状,如土体构造、质地、母质、成土条件、土壤类型等,时效性达上千年,可长久使用,土壤有机质、酸碱度、氮磷钾等奍分含量及耕层厚度等土壤质量变化性状,为了解土壤与环境质量演变提供依据。
378.人工智能又一新突破
把大脑意念转換成语言准确率99%
加州大学旧金山分校脑科学家约瑟夫-马金在志愿患者大脑中植入电极阵列,通过脑机接口将大脑与计算机连结起来。马金要求志愿患者多次朗读50个固定句子和一些流行歌曲中的常用语句,在他与患者讲话时,其他脑科学家也在跟踪患者脑中的神经活动,然后将从脑中收集到的数据输入到基于机器学习算法的语言识别程序中,以大脑中的意念为计算机识别,这样的试验要经过反复多次操作,才能使语言识别准确率达到99%。
379.AI科学家李飞飞率队科技抗疫
家用监控系统,远程反馈新冠症状
最近在斯坦福大学HAI研究院举办“COⅤID-AI”直播大会上,李飞飞团队提出一种可以监控病人身体状况的AI家用系统,其中包括COⅤID-19症状。李飞飞表示,在疫情爆发前就已经有一个基于生物医学与计算机的跨学科研究小组,从事研究这个项目。
这个项目旨在通过跟踪老年人的健康问题,并允许看护远程查看老年人的健康状况,来帮助更多老年人独立生活和慢性病管理。
在当下疫情大背景下,该系统可连接隔断老年人与其他人的接触,解决疾病流行期间要照顾老年人的困难。
不过该项目仍然于研究阶段,团队还需要数据集的构建和模型训练。
380.NLP领域最有应用价值的子任务之一—文本信息抽取与结构化
目前自然语言处理(NLP)将自然语言转化为一种计算机能理解的形式。这一点在知识图谱、信息抽取、文本摘要这些任务中格外明显。
文本抽取与结构化,在NLP中是非常有用和有难度的技术。如何将一些“自然”的文本转化为结构化的文本?如何从大规模的语料中提取出感兴趣的内容?任何需要从文本中提取信息的场景或像知识图谱这种需要大规模信息抽取的场景,都需要这样的技术,这是一个NLP算法工程师必须要做的事情。
381.MIT与IBM Watson合作进行冠状病毒(SARS-COⅤ-2)理论研究
MIT MarkusBuehler教授领衔的研究团队与IBMWatsonAI研究所合作,对冠状病毒(SARS一COⅤ2)进行理论研究,研究团队从研究冠状病毒的蛋白质开始,他们将冠状病毒的刺突蛋白质编码信息转译成一段对应的音频(由音量、速度和旋律表示的音乐信息),利用已知蛋白质产生的音乐片段训练神经网络模型,以获得尚未存在的蛋白质的音乐表达形式。Buehler认为,使用普通算法或可视化程序来评估氨基酸的三维结构是非常困难的,20种氨基酸是构成蛋白质的组成部分。但用音乐的方法,人耳可以一次性听到蛋白质的所有层次特征。
通过将蛋白质结构转換为音乐,MIT原子与分子力学实验室创建了一个与真实世界中蛋白质结构相对应的音乐片段库。
382.基于半监督学习的神经网络结构搜索算法SemiNAS
近年来,神经网络结构搜索(NeuralArchitectureSearch,NAS)取得了很大进展,但仍面临搜索耗时及搜索结果不稳定的挑战。为此,微软亚洲研究院机器学习组提出了基于半监督学习的神经网络结构搜索算法SemiNAS,能在相同的搜索耗时下提高搜索精度,或在相同搜索精度下减少搜索耗时。SemiNAS可在ImageNet(mobile setting)上达到23.5%的top1错误率和6.8%段top5错误率。同时SemiNAS第一次将神经网络结构搜索引入文本到语音合成任务(Text to speech,TTS)上,在低资源和鲁棒性两个场景下取得效果提升。
383.探索受自然启发的机器人敏捷性
通过模仿动物学习敏捷的机器人运动技能,谷歌提出了一个框架,该框架采用记录动物(如在实验中的狗)的参考运动剪辑,并使用RL训练控制策略,使机器人能够模仿现实世界中的运动。通过为机器人系统提供不同的参考运动,可以训练四足机器人来执行各种敏捷行为,从快速步态到动态跳跃。策略是主要在模拟中进行训练,然后使用潜在空间自适应技术将其传输到现实环境,该技术仅使用真实机器人几分钟的数据就可以有效地自适应策略。
384.研发图卷积神经网络拓展深度学习算法(深度学习新星——图卷积神经网络GCN)
一直以来,深度学习都被几大经典模型统治着,如卷积神经网络(CNN)、逆归神经网络(RNN)等。它们无论在计算机视频(CⅤ)还是在自然语言处理(NLP)等领域都取得了优异的效果。但我们也发现很多CNN、RNN无法解决或效果不好的问题,如图结构的数据。
图片或者语言,都属于欧式空间的数据,因此才有维度的概念,欧式空间数据的特点就是结构很规则。但在现实生活中,有很多不规则的数据结构,典型的就是图结构或称拓扑结构,如社交网络、化学分子结构、知识图谱等;即使是语言,实际上其内部也是复杂的树形结构,也是一种图结构;而像图片,在做目标识别的时候,我们关注的实际上只是二维图片上的部分关键点,这些点组成的也是一个图结构。图的结构一般来说是十分不规则的,可认为是无限维的一种数据,所以它没有平移不变性。
每个节点的周围结构可能是独一无二的,这种结构的数据就让传统的CNN、RNN瞬间失效。如何处理这类数据,目前湧现出很多方法,如GCN、Deepwalk、node2vec等,GCN是其中一种。GCN,图卷积神经网络,实际上与CNN的作用一样,也是一个特征提取器,只不过它的对象是图数据。GCN精妙设计了一种从图数据中提取特征的方法。
385.一位院士、脑科学专家的提问
①未来,可不可以充分模拟人类大脑,研究出更高级的人工智能技术?
②人脑与机器能否高度融合?
③如果未来脑科学推动人工智能研究取得更大突破,机器会不会和人一样有思想、有情感、有意识,它们还能和人类和谐相处吗?
④目前机器与人脑相比还有多大差距?
⑤脑机融合(脑机接口)技术前景如何?(2019年夏天马斯克在猴脑内植入芯片,猴子通过猴脑成功操控电脑,马斯克宣布取得这项技术的突破)
⑥脑机融合技术是否可能会成为未来人工智能的一个热门方向?
386.《nature》主刊近期发表“自然聚焦——中国脑科学”栏目系列:脑机接口——梦想之光照进现实生活
《nature》编辑部:“聚焦中国脑科学”专题系列,介绍正在蓬勃发展的中国脑科学领域研究机构现状、研究成果以及产业化情况。
一个来自中国天津从亊脑机接口领域研究的代表性团队,结合典型的实际应用,正开启医学领域脑启发研究的无限可能。
2016年中国启动天宫二号太空实验室时,其众多目标之一就是测试无创脑机接口(BCI)技术对太空环境的适应性。中国宇航员成功地完成了这项全球首次试验,为此比较脑-机接口在地球和太空中的性能提供了重要基准。而这项试验中所使用的脑-机接口系统是由天津脑科学与类脑研究中心(简称天津脑科学中心)的神经工程团队开发的。
天津脑科学中心依托天津大学医学工程与转化医学研究院及附属环湖医学院建设,聚焦于脑科学与认知科学、神经工程与生机交互、类脑智能理论与医学应用等研究领域,特别是在无创脑-机接口方向已经产出一系列创新成果。
387.半小时训练亿级规模知识图谱,亚马逊研发的AI框架要火!
隨着社交网络、推荐系统、自然语言处理等典型的图数据场景的发展,知识图谱(包括知识图谱嵌入表示)的规模也在不断增长。知识图谱嵌入表示是一种从知识图谱结构中生成无监督节点的特征,而生成的特征可用于各种机器学习任务上。
在工业界真实的场景中,常常需要面对千万级、甚至亿万级节点的大规模知识图数据。如何快速、高效地在大规模知识图谱上进行嵌入式表示的训练,是当前的一个挑战。近日亚马逊团队开发了一款专门针对大规模知识图谱嵌入表示的开源训练框架DGL一KE,以便方便、快速地在大规模知识数据集上进行机器学习训练任务,在业内火了一把!
388.浙大“创新2030计划”拟突破人工智能等共性关键技术
2020年4月8日,浙江大学在“创新2030”计划启动会上,公布了“智慧海洋计划”、“精准医学计划”、“超重力计划”、“天工计划”等科技创新重点领域。会上要求突破创新融合的信息学、人工智能、大数据等共性关键技术。
389.谁带动深度学习火热!
目前人工智能传统算法深度学习火热!带动它火热的许多产品,如苹果的face-id深度学习系统,使得苹果的脸部识别达到支付级别;又如近来火热的換脸技术,同样是基于深度学习技术达到的。
390.上海科学家成功实现神经元再生
上海科学家(中国科学院脑科学与智能技术卓越创新中心、上海脑科学类脑研究中心、神经科学国家实验室杨辉、周海波研究团队)通过基因编辑手段成功实现视神经节细胞再生,将实验小鼠大脑中的胶质细胞转分化为神经元,为进一步治疗神经退行性疾病提供一个新的途径,也为研发人工智能类脑算法提供支持。
他们们科研成果发表在《细胞》期刊上。
391.能解读人类思维的人工神经网络深度学习
日本京都大学神谷之康教授团队发现:可利用人工神经网络将人类个体的大脑活动硬译和解读成可理解信号。他们利用基于人工神经网络深度学习的传统算法技术,制造出具有理解能力和解决难题能力的计算机软件,能够对人类的思维进行解读;这一切的基础是人工智能的“深度学习”能力,而这种能力是通过对海量数据的解析获得的。神谷教授希望能够提高解读人类思维的精确度。
392.自然语言处理(NLP)是人工智能的核心问题,旨在让计算机理解语言,实现人与计算机之间用自然语言通信。
但在跟贴210条有人指出:机器最大的问题是缺乏常识,而建立常识库又非常困难,这个问题仍然阻碍机器对自然语言的理解。
393.图神经网络解决物理难题
DeepMind再发《Nature》,最近在《自然-物理》上发表论文,讲述如何利用图神经网络研究玻璃态变化的问题。
更多推荐: