• 我的消息
  • 我的博客
  • 我的学院
  • 我的下载
  • 我的收藏
  • 消息
  • 搜索条件:
    点击返回全部
    全部文章 > {categoryName }
    • matlab 集群并行计算~

      开启matlab,然后启动并行。。。  sched=findResource('scheduler','type','local'); sched.DataLocation = '/home/xu...

      原创
      2012-12-20 10:18:17
      1684
      4
    • 学习Deep learning必读,CVPR2012上的PPT~

      翻译,或者总结,都是废话了,直接传ppt吧~   总结的太好了~ 下载地址:http://download.csdn.net/detail/yihaizhiyan/4878884   对此ppt...

      原创
      2012-12-12 21:19:08
      5287
      3
    • SCI审稿过程中的几种状态

      查了一些资料,发现这个博客上写的很清楚,简介,忍不住转载了~ 审稿中涉及到的人: EIC-Editor in Chief 主编, 此人很重要,有稿件最终决定权。 ADM- (可能是)...

      转载
      2012-12-12 20:46:45
      27376
      0
    • Quoc.Le:Hierarchical invariant spatio-temporal features

      文献分析:Learning hierarchical invariant spatio-temporal features for action recognition with independen...

      原创
      2012-12-12 19:57:24
      3234
      0
    • 机器学习、大数据、深度学习、数据挖掘、统计、决策和风险分析、概率和模糊逻辑的常见问题解答

      1、机器学习、大数据、深度学习、数据挖掘、统计、决策和风险分析、概率、模糊逻辑等有什么不同?       答:除了属于、具体目标和文化等,并没有什么本质的区别。它们都是概率的分支,对不确定性的理解和...

      翻译
      2012-12-06 18:50:45
      5730
      0
    • Deep learning: Learning multiple layers of representation

      Geoffrey E. Hinton 的Learning multiple layers of representation可作为初学deep learning的paper之一吧~  结合以前所学习...

      原创
      2012-12-06 10:49:49
      2687
      0
    • Latex 第一页的空白页去除

      \thanks 是一种特殊的用于标题的脚注。如果放在外面,这个空脚注的就单独成页,其后才到标题。 所以: \author{***  \thanks{*****}} \thanks是放在\au...

      转载
      2012-11-19 16:31:21
      8530
      1
    • 深度学习:Hinton_Science_Reducing the dimensionality of data with neural networks

      近日,闲来得空,又不停的听到Deep learning (DL)相关的突破~ 故来研究下Deep learning的相关东西~ 在Deep learning 的学习资源中找到,关于Deep bel...

      原创
      2012-11-16 10:20:44
      14497
      7
    • 初探Social network

      前几日,看到sina微博中的几个CV界的人在讨论这篇有关Social network的文章~ “Discovering social circals in Ego networks”  (stanf...

      原创
      2012-11-06 16:48:02
      1323
      0
    • Matlab 分类中confusion矩阵的计算

      自己发现了。其实很简单,现在总结一下; 1,首先输入两个矩阵g1=[1 1 1 2 2 2 3 3 3 3], g2=[1 1 2 2 2 2 3 1 3 3]     g1为正确值,g2为预测值;...

      原创
      2012-11-03 20:26:48
      1425
      0
  • 学院
  • 下载
  • 消息