白乔专栏

资深感性程序员,大数据爱好者,中国科学院博士

排序:
默认
按更新时间
按访问量

ceph+s3安装手记

参考资料: https://www.cnblogs.com/ytc6/p/7388654.html http://docs.ceph.com/docs/kraken/start/ https://blog.csdn.net/changtao381/article/details/480156...

2018-07-09 09:39:44

阅读数:369

评论数:0

不看后悔 | 分分钟教你做知识图谱大数据专家

http://chuansong.me/n/1840839551422知识图谱示例假设你想搜与“联想”有关的信息,下图是谷歌搜索结果。请观察左侧和右侧红框的搜索结果有什么不同呢?左侧是传统谷歌搜索返回的一列依相关度排列的网站链接,你要自己打开一个个网页去阅读抽取与“联想”有关的知识。右侧则将一条条...

2018-06-23 20:03:30

阅读数:1510

评论数:0

展示联结数据的内在之美:全新的Neo4j Bloom可视化工具

转载自https://blog.csdn.net/graphway/article/details/80211546四天前,5月2日,在旧金山的Neo4j GraphTour,Neo4j公司的首席执行官Emil Eifrem宣布Neo4j图数据库平台新增一款全新产品:Neo4j Bloom。Neo...

2018-05-30 10:06:17

阅读数:1119

评论数:0

使用Neo4j进行全栈Web开发

转载自http://www.infoq.com/cn/articles/full-stack-web-development-using-neo4j在开发一个全栈web应用时,作为整个栈的底层,你可以在多种数据库之间进行选择。作为事实的数据源,你当然希望选择一种可靠的数据库,但同时也希望它能够允许...

2018-05-30 10:03:56

阅读数:313

评论数:0

Neo4j高级应用技术专题系列 - APOC存储过程库-【1】概述

转载自https://blog.csdn.net/graphway/article/details/78957415前言我最近加入Neo4j,负责亚太地区的产品和技术支持,常驻悉尼。看到国内用户对Neo4j和图数据库的热情,以及应用领域的广泛,让我倍感鼓舞。同时,在和同行们进行交流后,有感于介绍相...

2018-05-30 09:59:37

阅读数:184

评论数:0

TimerTask 和 Quartz比较

转载自https://blog.csdn.net/gongyouong/article/details/72965451精确度和功能   Quartz可以通过cron表达式精确到特定时间执行,而TimerTask不能。Quartz拥有TimerTask所有的功能,而TimerTask则没有。 任务...

2018-05-28 10:39:50

阅读数:115

评论数:0

mysql事务、redo日志、undo日志、checkpoint详解

转自:https://zhuanlan.zhihu.com/p/34650908事务: 说起mysql innodb存储引擎的事务,首先想到就是ACID(不知道的请google),数据库是如何做到ACID的呢?举个例子: 数据库数据存放的文件称为data file;日志文件称为...

2018-05-17 13:24:04

阅读数:369

评论数:0

对ceph radosgw的一些理解

https://blog.csdn.net/wytdahu/article/details/46532245Ceph本质上就是一个rados,利用命令rados就可以访问和使用ceph的对象存储,但作为一个真正产品机的对象存储服务,通常使用的是Restful api的方式进行访问和使用。而rado...

2018-04-16 14:06:10

阅读数:197

评论数:0

知识图谱技术原理介绍

http://www.36dsj.com/archives/39306作者:王昊奋近两年来,随着Linking Open Data[1] 等项目的全面展开,语义Web数据源的数量激增,大量RDF数据被发布。互联网正从仅包含网页和网页之间超链接的文档万维网(Document Web)转变成包含大量描...

2018-02-05 09:49:21

阅读数:1084

评论数:1

spark sql对seq值的包装

spark sql对seq(s1, s2, s3, …)值的包装,seq的每个元素si会被包装成一个Row 如果si为一个简单值,则生成一个只包含一个value列的Row 如果si为一个N-Tuple,则生成一个包含N列的Row特别的,如果N-Tuple是一元组,则视为非元组,即生成一个只包含...

2017-08-23 20:53:52

阅读数:1989

评论数:1

spark中的job和stage

编写了某个任务: val line = sc.textFile("hdfs://vm122:9000/dblp.rdf") line.flatMap { extractProperties }.groupBy(_._1).map(resource2JSON).saveAs...

2017-06-20 13:51:11

阅读数:331

评论数:0

spark任务已经执行结束,但还显示RUNNING状态

spark的任务已经执行完成:scala> val line = sc.textFile("hdfs://vm122:9000/dblp.rdf") line: org.apache.spark.rdd.RDD[String] = hdfs://vm122:9000/db...

2017-06-19 21:11:36

阅读数:1738

评论数:0

采用文件流写HDFS大文件

最近有个需求,要把笔记本上的一个近30GB的文件写到HDFS上去。无奈虚拟机服务器的本地硬盘都只有20GB的容量,原始文件无法采用copyFromLocal。试了一下笔记本通过copyFromLocal写到HDFS,无奈龟速。最后想到一个办法: 压缩文件,gz文件大概到7G的样子; 拷贝gz文件至...

2017-06-17 23:01:55

阅读数:1188

评论数:0

neo4j写数据遭遇OOM

aaaa

2017-05-21 10:38:04

阅读数:935

评论数:0

ambari安装hive遭遇Failed to get schema version

安装hive时报错:org.apache.hadoop.hive.metastore.HiveMetaException: Failed to get schema version初步确定是hive表的访问权限问题,执行以下语句:mysql> GRANT ALL ON *.* to ‘hiv...

2017-02-28 22:57:16

阅读数:5640

评论数:0

分布式时序数据库InfluxDB

http://www.ttlsa.com/monitor-safe/monitor/distributed-time-series-database-influxdb/InfluxDB 是一个开源分布式时序、事件和指标数据库。使用 Go 语言编写,无需外部依赖。其设计目标是实现分布式和水平伸缩扩展...

2016-12-18 10:03:09

阅读数:1907

评论数:0

Druid (大数据实时统计分析数据存储)

原文见此 : Druid White PaperDruid 是一个为在大数据集之上做实时统计分析而设计的开源数据存储。这个系统集合了一个面向列存储的层,一个分布式、shared-nothing的架构,和一个高级的索引结构,来达成在秒级以内对十亿行级别的表进行任意的探索分析。在这篇论文里面,我们会描...

2016-12-18 09:48:14

阅读数:9715

评论数:0

Cloudera 公司研发工程师,Kudu 发明人Todd Lipcon:Kudu,Storage for Fast Analytics on fast Data

http://www.csdn.net/article/2015-12-10/2826449Cloudera 公司研发工程师,Kudu 发明人Todd Lipcon带来的演讲主题是《Kudu:Storage for Fast Analytics on fast Data》。Todd Lipcon同...

2016-12-18 09:46:12

阅读数:537

评论数:0

Hummer TimeSeries DB (蜂鸟时序数据库)技术介绍

转载自:http://blog.csdn.net/kanghua/article/details/44650831Hummer TimeSeries DB (蜂鸟时序数据库)技术介绍1. 背景介绍    不知不觉中,我们已经跨入“大数据”时代,而大数据的主要来源是来自于各种“传感器”所产生的时序数...

2016-12-17 10:53:13

阅读数:1200

评论数:0

小米架构师:亿级大数据实时分析与工具选型(附PPT)

aaa

2016-07-31 11:47:34

阅读数:4811

评论数:0

提示
确定要删除当前文章?
取消 删除