汇聚每周AI观点、研究和各类资源,不错过真知灼见和重要资讯!欢迎扫码,关注并订阅智源社区AI周刊。
编辑精选
Bengio、LeCun等发布NeuroAI论文:智能的本质是感知运动能力,AI迎来具身图灵测试挑战 查看详情
历史上,神经科学启发了研究者设计人工神经网络,成为当前深度学习的核心与技术。但近年来,AI研究面临更大的困难,研究者需要从大脑中获得更多的认知和启示。近日,包括Yoshua Bengio、Yann LeCun、Jeff Hawkins、Doris Tsao(曹颖)等AI研究者和神经科学家在内的多人发表了题为“Toward Next-Generation Artificial Intelligence: Catalyzing the NeuroAI Revolution”的论文,呼吁研究者加快NeuroAI的基础研究。
文章提出,智能的本质在于与世界进行感知运动交互的能力。同时,文章提出具身图灵测试(The Embodied Turing Test),是面向NeuroAI的挑战,其核心在于考察AI的感知运动能力。同时,文章还设想了应对具身图灵测试的技术路线。
值得一提的是,智源社区在今年9月21日举行了“智能的起源与本质”研讨会,NeuroAI论文作者之一的Jeff Hawkins和曹颖也谈到了智能与感知运动交互之间的关系。感兴趣的读者可在此观看研讨回放(YouTube):
https://baai.org/l/Intelligen2022。
迈向可持续的生成式AI革命——面对成长的阵痛:如何驾驭超潜意识的狂野新时代 查看详情
近日,Geniverse的联合创始人哈维尔·艾德米发文,从基本技术原理讲起,叙述了生成式人工智能的发展以及作者对该领域的理解。艾德米认为,大自然进化出一种机制来解决处理海量信息的机制:压缩和解压过程。我们的大脑能够获取通过感官到达的信息,并将其压缩成一种细节更少、抽象程度更高的形式。而在需要还原细节时,将压缩在隐藏空间的抽象特征还原出来。从DALLE-2 (OpenAI) 到Imagen (Google)、Stable Diffusion (Stability.ai) ,所有这些系统最初的共同基础是压缩和解压缩过程,它们允许在高细节和高抽象之间双向移动,即“扩散”。
更多周刊详细内容,欢迎点击这里 查看。
观点
追一科技苏剑林:生成扩散模型漫谈,条件控制生成结果
菲尔兹奖得主丘成桐:人工智能与学“问”
一场twitter争论:人工智能是否需要神经科学?
吴恩达来信:Prompt engineering的现状与未来
研究前沿
谷歌总结的指令微调方法,30亿参数模型跑赢GPT-3
一行代码12倍加速Bert推理,OpenAI编程语言加持的训练引擎火热
北大黄铁军团队发布:视觉信息的神经解码专题综述
打破不可能三角、比肩5400亿模型,IDEA封神榜团队仅2亿级模型达到零样本学习SOTA
Fast and Effective:一文速览轻量化Transformer各领域研究进展
产业
谷歌与初创AI研究机构Cohere洽谈,或融资2亿美元
Stable Diffusion新玩法,一句话换图,魔改名画《戴珍珠耳环的少女》
活动
报名 | MILA&Salesforce研究者详解:在RICE-N中对全球气候谈判、协议和长期合作进行建模(智源社区,10月31日)
回放 | 新加坡国立大学尤洋:快速高效AI大模型训练和部署
回放 | 马毅、曹颖、Karl Friston、Michael Wooldridge、Jeff Hawkins、黄铁军:从简约与自洽原则谈起——智能的起源与本质
回放 | 2022智源大会全体大会及各分论坛视频上线
求职招聘
智源研究院 | AI for Science方向研究员,探索生命科学前沿,解决世界级科研问题
智源研究院 | 分子动力学方向研究员,研究生物大分子动力学模拟,实现分子结构功能的预测泛化
智源研究院 | 类脑智能方向研究员,追踪国际前沿文献,研发具有生理功能的大规模高精度神经网络模型
悉尼科技大学澳大利亚人工智能研究院 | 招收全奖博士生
西湖大学系统神经科学与神经工程实验室 | 脑认知+深度强化学习交叉方向博士后
开源
PromptCLUE:大规模多任务Prompt预训练中文开源模型
PyTorch GPU内存分配有了火焰图可视化工具,LeCun转推
教程
MIT教授Dimitri Bertsekas:AlphaZero最优模型预测与自适应控制
查看预训练、强化学习等领域周刊内容,欢迎点击这里。
招聘、活动、推广等合作,请联系:editor@baai.ac.cn