自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

上海菁数信息技术

专注于大数据开发 (spark hadoop hive hbase )

  • 博客(3)
  • 资源 (3)
  • 问答 (1)
  • 收藏
  • 关注

原创 ubuntu的系统 装载hadoop spark等配件 空间全部被占满了

如题,TAB补全或者touch mkdir时出现了系统没有可用空间的提示检查 /var/log/cups/有TB级大量 error信息删除后重新启动 问题解决可能跟长期没有关闭 spark-shell 等任务有关 有待后面研究解决

2016-10-31 15:21:09 3111

原创 解决spark-shell执行官方sparkstreaming 报 only one sparkcontext maybe running in this jvm的错误

解决:不执行蓝字,更改红字为 val ssc = new StreamingContext(sc, Seconds(1))=====================================================================import org.apache.spark._import org.apache.spark.streaming._

2016-10-18 15:35:26 7849

原创 上传本地文件到HDFS spark可以直接使用

spark进行运算时需要先将数据转换成RDD,然而很多数据是本地的,textFile调用不方便而且耗时耗性能(添加file:///使用)。所以有了将本地数据先上传至HDFS的现实业务需求。1. 创建文件(使用已有文件夹跳过此步)切换到hadoop 安装目录(如果在bash中设置过了,这步不是必须的),启动hadoop(启用HDFS,yarn不是必要的)然后输入命令:bin/

2016-10-12 13:23:45 8094 3

qt-unified-windows-x86-4.1.1-online.exe

qt6开源版本的win安装包

2021-08-03

spark 2.3.1 支持Hive Yarn Hadoop 2.7 已编译版本

spark 2.3.1 支持Hive Yarn Hadoop 2.7 已编译版本 可以直接使用

2018-07-27

python3 使用 thrift 操作hbase 安装hbase-thirft后有一个Hbase报错

python3 使用 thrift 操作hbase 安装hbase-thirft后有一个Hbase报错 使用这个修改完成的Hbase类替换掉原来的Hbase类问题全部解决 主要是因为python版本兼容性带来的问题

2017-11-16

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除