![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Hadoop
snowy_sakura
这个作者很懒,什么都没留下…
展开
-
大数据计算:如何仅用1.5KB内存为十亿对象计数
摘要:AddThis的数据分析副总监Matt Abrams在High Scalability上发表了一篇文章,介绍了他们公司如何应对大数据。Matt Abrams表示,AddThis仅仅用了1.5KB内存的内存就计算了十亿个不同的对象,这与他们所使用的计算方法分不开的。 AddThis(前身为Clearspring)的数据分析副总监Matt Abrams在High Scalabili转载 2012-12-25 14:41:59 · 526 阅读 · 0 评论 -
The Small Files Problem
Small files are a big problem in Hadoop — or, at least, they are if the number of questions on the user list on this topicis anything to go by. In this post I’ll look at the problem, and examine som转载 2012-12-18 12:42:04 · 305 阅读 · 0 评论 -
sqoop 导入oracle 报错 Imported Failed : Attempted to generate class with no columns问题解决办法
Imported Failed : Attempted to generate class with no columns 错误 解决办法 ./sqoop import --connect jdbc:oracle:thin:@ip:端口:sid --username 此处用户名大写 --password=*** --table TABLE --hive-import转载 2013-01-15 17:29:37 · 687 阅读 · 0 评论