PPT分享:机器学习在威胁情报中的应用

本幻灯片为4月30日(ISC)² SecureHangzhou 2015会议上的讲演稿,有删节。核心是对重复攻击、类似手段的数据的学习,提升一些环节的效率,比如恶意URL识别、异常行为识别等。PPT作者:董靖@ 思睿嘉得(北京)信息技术有限公司 总裁链接:https://www.91ri.org/...

2015-08-25 23:15:27

阅读数:101

评论数:0

微软研究院开源软件下载汇总

包括视觉、机器学习、可视化、系统、硬件、教育、编程、软件工程等方向。 链接:http://research.microsoft.com/en-us/projects/opensource/

2015-08-21 13:32:51

阅读数:28

评论数:0

mxnet:一个结合caffe和torch优点的dnn系统

目前尚在开发中,预计下半年完成。 代码: https://github.com/dmlc/mxnet

2015-08-20 17:21:54

阅读数:44

评论数:0

@爱可可-爱生活 老师推荐:深度学习入门资料精选

1.斯坦福的UFLDL深度学习教程 2. Brief history of Deep Learning 3. Deep Learning: Methods And Applications 4. Theano (python) CNN tutorial 5. Neural Networks...

2015-08-18 16:01:12

阅读数:174

评论数:0

中科院自动化所张家俊:DL4MT的Review

@张家俊MT: 近两年,深度学习在自然语言处理领域遍地开花,统计机器翻译研究范式的变化是其中的典型代表。深度学习在传统SMT中如何应用?新的范式是什么?深度学习会是解决机器翻译的良药吗?我们最近写了篇DL4MT的Review,比较简短,适合入门看看(DL发展太快,今年一些新进展未能包含)。 下...

2015-08-10 15:50:35

阅读数:204

评论数:0

深度学习理论的最新进展-Yoshua Bengio(幻灯)

Yoshua Bengio 8月3号在Montreal Deep Learning Summer School上的讲座。总结了近一段时间深度学习理论上的进展。 Deep Learning: Theoretical Motivations

2015-08-05 09:45:02

阅读数:39

评论数:0

Yoshua Bengio:增加DNN层数是否会导致性能下降?

Quora上的一个问题:”增加DNN层数是否会导致性能下降?”Bengio给出的回答,点出了单纯增加层数可能会出现过拟合。并且训练误差的增加或减少对结果的影响也很大。原话如下: If you do not change the size of the layers and just add m...

2015-08-04 09:44:31

阅读数:199

评论数:0

自然语言处理 (三) 之 word embedding

文章介绍了著名的、通用的三种 word embedding 模型: LSI, PMI 和 skip-gram, 介绍了它们间的联系与区别,结论是: skip-gram 等价于分解一个 shifted PPMI 矩阵,它和SVD间没有本质的差异。 原文链接:自然语言处理 (三) 之 word em...

2015-08-04 09:22:40

阅读数:553

评论数:0

ACL 2015 大会看点汇总:百度阿里微软谁家技术牛?

微软公司的 @summerrlee 写了一系列的文章,对自己感兴趣的论文做图文并茂的概述。包括: 链接: ACL 2015 selected paper 概述(1) ACL 2015 selected paper 概述(2) ACL 2015 selected paper 概述(3) A...

2015-08-03 11:28:41

阅读数:53

评论数:0

提示
确定要删除当前文章?
取消 删除