机器学习日报 2017-03-22
@好东西传送门 出品,由@AI100运营, 过往目录 见http://ml.memect.com
订阅:关注微信公众号 AI100(ID:rgznai100,扫二维码),回复“机器学习日报”,加你进日报群
本期话题有:
全部14 算法4 资源4 自然语言处理2 深度学习2 视觉2 语音1 会议活动1 经验总结1
用日报搜索找到以前分享的内容: http://ml.memect.com/search/
今日焦点 (5)
爱可可-爱生活 网页版 2017-03-22 20:00
深度学习 视觉 资源 代码
【深度学习OCR文献列表】’This is a reading list for deep learning for OCR’ by Hanker GitHub: http://t.cn/R6GuHDJ
FPGA开发圈 网页版 2017-03-22 13:40
经验总结 算法 KNN Python 博客 聚类 决策树
【机器学习实战–决策树】K近邻可以完成很多分类任务,但其无法给出数据的内在含义。 这次来阐述下决策树的原理及Python实现,另有实例剖析。 决策树可以使用不熟悉的数据集合,从中提取一系列规则。 http://t.cn/R6GZ4J3
爱可可-爱生活 网页版 2017-03-22 13:14
深度学习 资源 课程
【非反向传播深度学习:DeepMind合成梯度教程】《Deep Learning without Backpropagation – Tutorial: DeepMind’s Synthetic Gradients》by iamtrask http://t.cn/R6GhtYT
## 最新动态
### 2017-03-22 (9)
爱可可-爱生活 网页版 2017-03-22 19:56
语音 Zewang Zhang 代码
【(TensorFlow)从头实现端对端自动语音识别系统】’End-to-end automatic speech recognition from scratch in Tensorflow’ by Zewang Zhang GitHub: http://t.cn/R6GuUlJ
AI100 网页版 2017-03-22 19:17
算法 KNN 聚类 神经网络
http://t.cn/R6G8PPE 许多受欢迎的机器算法都源于优化技术,例如:线性回归算法、K-最近邻算法、神经网络算法等等。在学术界以及各行各业中,优化研究比比皆是,优化应用随处可见。在本篇文章中,作者向大家介绍了会在机器学习中频繁用到的梯度下降这一特殊的优化技术。
微软亚洲研究院 网页版 2017-03-22 18:00
会议活动 自然语言处理 AAAI 会议
【#大会聚焦#】美国人工智能年会(简称AAAI)是AI领域顶级国际会议,因其高质量论文和讲座等系列活动享有盛誉,可谓年度AI盛会。微软亚洲研究院自然语言计算组实习生星辰作为此次大会的参与者,用自己的经历告诉你,它也许并没有你想象的那么遥远。[害羞] http://t.cn/R6GpS2w
视觉机器人 网页版 2017-03-22 17:36
资源 PDF 代码 论文
学习使用生成式对抗网络发现跨域关系,可以将某个领域的属性成功转移到另一个域,Learning to Discover Cross-Domain Relations with Generative Adversarial Networks,代码: http://t.cn/R6zrbUY 论文: http://t.cn/R67LSFQ
ArnetMiner 网页版 2017-03-22 15:21
视觉 资源 Adrian Bulat PDF 论文
【每日一推】《How far are we from solving the 2D & 3D Face Alignment problem?》by Adrian Bulat, Georgios Tzimiropoulos http://t.cn/R6G57cm 我们离解决2D&3D人脸关键点定位问题还有多远?(附23万人脸标记信息数据集、demo代码和预训练模型 http://t.cn/R6G57c3)
AndrewNg吴恩达 网页版 2017-03-22 12:10
行业动态 吴恩达
我刚发布了离开百度的消息《开启我在人工智能领域的新篇章》英文: @andrewng/opening-a-new-chapter-of-my-work-in-ai-c6a4d1595d7b#.jdbmljlmf”>http://t.cn/R6bgGi9 感谢大家接纳我进入中国AI领域。很兴奋能见证AI在中国崛起,并自豪百度的贡献。中国的人工智能在很多领域已走在世界前列。我希望和大家保持联系,继续为中国的AI做贡献。 [ http://t.cn/R6bgGJt](http://t.cn/R6bgGJt “>