- 博客(1)
- 资源 (1)
- 收藏
- 关注
原创 hadoop、spark、sparkstrming和kafka简介
1、Hadoop和Spark的关系Spark是为了跟Hadoop配合而开发出来的,不是为了取代Hadoop,专门用于大数据量下的迭代式计算。Spark运算比Hadoop的MapReduce框架快的原因是因为Hadoop在一次MapReduce运算之后,会将数据的运算结果从内存写入到磁盘中,第二次MapReduce运算时再从磁盘中读取数据,所以其瓶颈在2次运算间的多余I/O消耗。Spark则是将数据...
2018-05-28 16:13:38 8923
linux 网站搭建
class Singleton(object):
def __new__(cls, *args, **kwargs):
if not hasattr(cls, 'instance'):
cls.instance = super(Singleton, cls).__new__(cls)
return cls.instance
class MyClass(Singleton):
def __init__(self, name):
if name:
self.name = name
obj1 = MyClass('小明')
print(obj1.name)
obj2 = MyClass('小红')
print(obj2.name)
linux 网站搭建
2018-11-02
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人