Machine Learning - Distributed
文章平均质量分 61
lscHacker
这个作者很懒,什么都没留下…
展开
-
Distributed Machine Learning —— Parameter Server
Parameter Server for Distributed Machine Learning,NIPS 2013 worksshop知乎上看到最多的一篇。中间关于convergence的推导我还没完成,但是大致思路差不多。GitBookCommunication Efficient Distributed Machine Learning with the Par原创 2016-10-14 00:09:29 · 917 阅读 · 0 评论 -
介绍几个图处理和流处理大数据平台
最近正好把几片big data application方面的文章读完,做了点笔记,还是放在GitBook中。Storm twitter的流处理https://lschacker.gitbooks.io/bigdata-intro/content/storm.htmlStreamScope / rStream 微软的流处理https://lschacker.git原创 2016-12-16 02:04:53 · 1533 阅读 · 0 评论 -
优化问题—基础1
几种combinationlinear combination x=∑jλjxjx = \sum_j \lambda_j x_j 其中xj∈Rn,λ∈Rx_j \in \mathbb{R}^n, \lambda \in \mathbb{R}affine combination x=∑jλjxj,∑jλj=1x = \sum_j \lambda_j x_j, \sum_j \lambd原创 2017-03-08 13:10:47 · 833 阅读 · 0 评论 -
分布式TensorFlow 踩坑记
单机版的TF没毛病,但是当大家在Tensorflow Github里面找到可用的模型,想分布式跑到时候,就会跑出来各种奇怪的问题。我尝试了几种不同构造TF的方式,算是成功渡过了踩坑期,特别记录一下。如果能帮助到各位TF boy最好。方法一:自己手动写分布式协议比如logistic regression在master上运行的伪代码如下with tf.Session('grpc://vm1:2222')原创 2017-04-28 12:54:05 · 4241 阅读 · 4 评论 -
PyTorch —— LeNet实现中的bug以及由此的小想法
经典的LeNet,在PyTorch/examples/mnist 实现中有个小问题,在这里和大家分享一下。是一个计算generalization error的问题。计算generalization error时,原代码有一行我一直不理解,test_loss /= len(test_loader) # loss function already averages over batch size。试了一原创 2017-07-09 11:03:39 · 1438 阅读 · 0 评论