机器学习
是一系列算法。这些算法通常需要大数据,大量的计算
。
hadoop是一种使用多台服务器稳 定的进行大规模数据批量处理的软件框架。 其核心是hdfs和map reduce。
python是一个通用语言,支持广泛,上手容易。当然大数据中的 机器学习 算法也是很早就可以用pyhon来编写。
python编写的 机器学习 算法,可以自己用gearman或者是自己建立的 分布式计算 系统完成多台PC服务器共同计算 。 当然也可以通过hadoop的stream接口,将python程序运行在hadoop的框架里。
hadoop是一种使用多台服务器稳 定的进行大规模数据批量处理的软件框架。 其核心是hdfs和map reduce。
python是一个通用语言,支持广泛,上手容易。当然大数据中的 机器学习 算法也是很早就可以用pyhon来编写。
python编写的 机器学习 算法,可以自己用gearman或者是自己建立的 分布式计算 系统完成多台PC服务器共同计算 。 当然也可以通过hadoop的stream接口,将python程序运行在hadoop的框架里。
这也是一种成功 的商业模式。
hadoop是容器,机器学习是门学问,python是语言,机器学习相关算法可以用python写,写好后在hadoop搭建的集群上面运行,机器学习统计计算,三折是相辅相成的