高尔夫球场的遥感检测:http://ai.baidu.com/support/news?action=detail&id=976
• Github地址:https://github.com/PaddlePaddle/Paddle
2.2 Deeplearning4j
Deeplearning4j是基于JVM、聚焦行业应用且提供商业支持的分布式深度学习框架,能在合理的时间内解决各类涉及大量数据的问题。Deeplearning4j与Kafka、Hadoop和Spark集成,可使用任意数量的GPU或CPU运行。
• 优点:
支持Java、Scala和Python等多种语言开发。
用多GPU运行图像处理任务时的性能可媲美Caffe,优于TensorFlow和Torch。
可通过调整JVM的堆空间、垃圾回收算法、内存管理以及Deeplearning4j的ETL数据加工管道来优化Deeplearning4j的性能。
跨平台性强,可在Linux服务器、Windows和OSX桌面、安卓手机上运行,还可通过嵌入式Java在物联网的低内存传感器上运行。
提供多样化组件和工具,可快速搭建深度学习项目,DeepLearning4J的组件包括:
DataVec进行数据摄取,将数据标准化并转换为特征向量。
DeepLearning4J提供配置神经网络、构建计算图的工具。
Keras Model Import(Keras模型导入)帮助用户将已训练的Python和Keras模型导入DeepLearning4J和Java环境。
ND4J让Java能够访问所需的原生库,使用多个CPU或GPU快速处理矩阵数据。
DL4J-Examples(DL4J示例)包含图像、时间序列及文本数据分类与聚类的工作示例。
ScalNet是受Keras启发而为Deeplearning4j开发的Scala语言包装。它通过Spark在多个GPU上运行。
RL4J用于在JVM上实现深度Q学习、A3C及其他强化学习算法。
Arbiter帮助搜索超参数空间,寻找最理想的神经网络配置。
• 缺点:
内存占用高,需要不断调整JVM已达到最优效果。
• 用途:
语音识别
情感分析
欺诈检测
推荐引擎
相片聚类
图像搜索
命名实体识别
…
• 案例:
官方示例:https://github.com/deeplearning4j/dl4j-examples
• Github地址:https://github.com/deeplearning4j/deeplearning4j
2.3 Mahout
Mahout是一个分布式线性计算框架,提供一些可扩展的机器学习领域经典算法的实现,旨在让数学家、统计学家和数据科学家快速实现自己的算法。
• 优点:
包括聚类、分类、推荐过滤、频繁子项挖掘等诸多实现。
基于Hadoop开发,可轻松实现分布式计算。
快速高效实现数据挖掘算法,解决了并行挖掘的问题 。
• 缺点:
实现的算法单一,仅适用于推荐,分类,聚类等单一场景。
对训练的数据格式有要求,定制化数据存在一定难度。
• 用途:
推荐系统
聚类
分类
• 案例:
官方示例:https://github.com/apache/mahout/tree/master/examples
• Github地址:https://github.com/apache/mahout
2.4 Spark MLllib
MLlib(Machine Learnig lib)是Spark对常用的机器学习算法的实现库,同时包括相关的测试和数据生成器。
MLlib是MLBase一部分,其中MLBase分为四部分:MLlib、MLI、ML Optimizer和MLRuntime。
MLlib目前支持4种常见的机器学习问题: 分类、回归、聚类和协同过滤。
• 优点:
基于Spark开发,可轻松实现分布式计算。
拥有庞大的Java生态链支持,文档丰富,业界有许多成功的方案可借鉴。
Spark基于内存的计算模型适合迭代式计算,在内存中完成多个步骤的计算,只有必要时才会操作磁盘和网络,减少I/O和CPU资源的占用。
具有出色而高效的Akka和Netty通信系统,通信效率高。
• 缺点:
开发语言单一,基于Scala语言开发的多范式编程语言需要一定的学习成本。
过度封装,若要修改某个实现环节,需修改源码重新编译。例如Spark内部使用计算两个向量的距离是欧式距离,若修改为余弦或马氏距离,需要修改源码并重新编译。
• 用途:
推荐系统
情感分析
分类
聚类
回归
…
• 案例:
官方示例:http://spark.apache.org/examples.html
• 项目地址:http://spark.apache.org/docs/1.1.0/mllib-guide.html
2.5 Ray
Ray是针对机器学习领域开发的一种新的分布式计算框架,该框架基于Python的机器学习和深度学习工作负载能够实时执行,并具有类似消息传递接口(MPI)的性能和细粒度。
• 优点:
海量任务调度能力。
毫秒级别的延迟。
异构任务的支持。
任务拓扑图动态修改的能力。
• 缺点:
API层以上的部分还比较薄弱,Core模块核心逻辑估需要时间打磨。
国内目前除了蚂蚁金服和RISELab有针对性的合作以外,关注程度还很低,没有实际的应用实例看到,整体来说还处于比较早期的框架构建阶段。
• 用途:
增强学习
分类
聚类
图像识别
推荐系统
文本翻译
…
• 案例:
官方示例:https://github.com/ray-project/ray/tree/master/examples
• Github地址:https://github.com/ray-project/ray
2.6 Spark Stream
Spark是一个类似于MapReduce的分布式计算框架,其核心是弹性分布式数据集,提供了比MapReduce更丰富的模型,可以在快速在内存中对数据集进行多次迭代,以支持复杂的数据挖掘算法和图形计算算法。Spark Streaming[6]是一种构建在Spark上的实时计算框架,它扩展了Spark处理大规模流式数据的能力。
• 优点:
能运行在100+的结点上,并达到秒级延迟。
使用基于内存的Spark作为执行引擎,具有高效和容错的特性。
能集成Spark的批处理和交互查询。
为实现复杂的算法提供和批处理类似的简单接口。
• 缺点:
开发语言单一,基于Scala语言开发的多范式编程语言需要一定的学习成本。
过度封装,若要修改某个实现环节,需修改源码重新编译。例如Spark内部使用计算两个向量的距离是欧式距离,若修改为余弦或马氏距离,需要修改源码并重新编译。
• 用途:
推荐系统
用户画像
日志分析
舆情监控
报表统计
…
• 案例:
官方示例:http://spark.apache.org/examples.html
• 项目地址:http://spark.apache.org/streaming
2.7 Horovod
Horovod是Uber开源的又一个深度学习分布式计算框架,它的发展吸取了Facebook「一小时训练 ImageNet 论文」与百度Ring Allreduce的优点,可为用户实现分布式训练提供帮助。
• 优点:
支持通过用于高性能并行计算的低层次接口 – 消息传递接口 (MPI) 进行分布式模型训练。有了MPI,就可以利用分布式 Kubernetes 集群来训练 TensorFlow 和 PyTorch 模型。
分布式 TensorFlow 的参数服务器模型(parameter server paradigm)通常需要对大量样板代码进行认真的实现,但是 Horovod 仅需要几行。
• 缺点:
国内文档少,需要一定的学习成本。
开发语言单一,目前仅支持Python语言开发。
• 用途:
分类
聚类
文本标注
推荐系统
图像识别
…
• 案例:
官方示例:https://github.com/horovod/horovod/tree/master/examples
• Github地址:https://github.com/uber/horovod
2.8 BigDL
BigDL是一种基于Apache Spark的分布式深度学习框架。它可以无缝的直接运行在现有的Apache Spark和Hadoop集群之上。BigDL的设计吸取了Torch框架许多方面的知识,为深度学习提供了全面的支持,包括数值计算和高级神经网络,借助现有的Spark集群来运行深度学习计算,并简化存储在Hadoop中的大数据集的数据加载过程。
最后
终极手撕架构师的学习笔记:分布式+微服务+开源框架+性能优化
mples
• Github地址:https://github.com/uber/horovod
2.8 BigDL
BigDL是一种基于Apache Spark的分布式深度学习框架。它可以无缝的直接运行在现有的Apache Spark和Hadoop集群之上。BigDL的设计吸取了Torch框架许多方面的知识,为深度学习提供了全面的支持,包括数值计算和高级神经网络,借助现有的Spark集群来运行深度学习计算,并简化存储在Hadoop中的大数据集的数据加载过程。
最后
终极手撕架构师的学习笔记:分布式+微服务+开源框架+性能优化
[外链图片转存中…(img-oA0NppU8-1714165551267)]