Hadoop和GPU的区别

最近学习大数据,突然想到一个问题,hadoop/spark 和GPU什么关系。为什么有的问题要并行计算,交给GPU处理,有的交给分布式hadoop处理。
偶然间看到一条知乎,受到点启发,觉得应该是这样的:

首先有两种情况:数据密集型、计算密集型
数据密集型:数量大,但是对每一条数据的处理并不一定麻烦,比如,对1T的文件统计字数,可以交给10台机器分别统计。

计算密集型:数量并不一定大,但是对每条数据的计算量非常大,比如》》》图像。

但是计算密集型的能不能交给分布式去做,暂时还没想太透 ,先放在这。
  • 4
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值