- 博客(533)
- 资源 (14)
- 问答 (1)
- 收藏
- 关注
原创 区块链与大数据究竟有着怎样的关系?
今天,很多人还没弄懂大数据,区块链又来了。区块链与大数据究竟有着怎样的关系?看完本文的五大观点,你会认同赛智时代的这个结论:区块链让大数据汹涌而来。 马云说过,这是一个变化的年代,当很多人还没有搞懂PC互联网的时候,移动互联网来了,当很多人还没弄懂移动互联网,大数据来了。而今天,很多人还没弄懂大数据,区块链又来了。区块链与大数据究竟有着怎样的关系?看完本文的五大观点,你会认同赛智时代的这
2017-04-06 10:41:44 2714
原创 “区块链”究竟是什么?
最近区块链比较火。最早我是听一个朋友提起的,因为我对科技驱动的东西一直很感兴趣,所以也做了一些了解。简单讲,区块链就是一个去中心化的信任机制。 过去区块链主要应用在比特币上,一直到最近半年,区块链已经渐渐开始有了一些其他应用,特别是在金融领域,所以不断有人问我:“浩哥,你给我们讲讲区块链吧”。我今天给大家找来一篇文章,偏科普性质,不需要大家对技术和金融有任何背景,希望对大家有所帮助。
2017-04-06 10:37:10 2724
原创 Mysql 实用知识
目录:一、MySQL的安装与配置 1)MySQL的安装与配置–安装RPM包 2)MySQL的安装与配置–安装二进制包 3)MySQL的安装与配置–安装源码包二、用户与权限 1)用户与权限—用户管理 2)用户与权限—权限表 3)用户与权限—权限管理三、表类型(存储引擎)介绍 1)存储引擎查看 2)存储引擎
2017-03-30 17:09:29 764
原创 ElasticSearch查询
目录:一、基本概念二、数据生成三、查询方法 1)Match 匹配查询 2)Multi_match 多匹配查询 3)Fuzzy Query 模糊查询 4)Wildcard Query(通配符查询) 5)Match Phrase (短语匹配) 6)Term 查询 7)Sorted 查询 8)排序分页查询
2017-03-30 16:25:14 1618
原创 Druid索引过程详解
目录:一、结构介绍 1)Historical Node 2)Broker Node 3)Coordinator Node 4)Real-Time Node 5)Indexing Service Node二、Druid索引的上游数据转换的过程 1)原始数据 2)roll up(上卷)三、Segment简要介绍四、索引核
2017-03-30 15:59:24 6516
原创 Mysql连接池问题
17/03/29 09:07:23 WARN resourcepool.BasicResourcePool: com.mchange.v2.resourcepool.BasicResourcePool@67d8bcd1 -- an attempt to checkout a resource was interrupted, and the pool is still live: some othe
2017-03-29 09:33:14 2519
原创 Druid的发送数据和查询数据
目录:1、需求2、参考3、数据和配置4、展现5、注意事项————————————————————————————–1、需求参考官网,使用Linux向Druid发送数据和查询数据2、参考数据来源–Formatting the Data http://druid.io/docs/0.9.2/ingestion/data-formats.html 配置来源 : 使用druid的默认配置文件 /hom
2017-03-17 16:56:18 6369
原创 用shell脚本监控进程是否存在 不存在则启动的实例
用shell脚本监控进程是否存在 不存在则启动教程_百度经验 http://jingyan.baidu.com/article/59a015e3a3a404f795886542.htmlcrontab 参考: http://blog.csdn.net/silentwolfyh/article/details/51033973用shell脚本监控进程是否存在 不存在则启动的实例,先上代码干货:#!
2017-03-17 09:41:36 1670
原创 Druid:Loading from Kafka的坑
出现的问题: 1、创建文件1万次 2、HTTP400 3、几个配置文件加上druid.host=tagtic-master,druid在哪一台节点就加那台的hostdruid-0.9.2/conf/druid/broker/runtime.propertiesdruid-0.9.2/conf/druid/coordinator/runtime.properties druid-0.9.2/
2017-03-14 08:59:24 3138
原创 CDH的Flume配置Adding multiple flows in an agent
注意事项:1)需求:在CDH的Flume上面配置2个flows,2个flows的监控文件路径不一样,且将监控的文件发送到不同kafka中,最后删除读取完的文件http://flume.apache.org/FlumeUserGuide.html#adding-multiple-flows-in-an-agent http://flume.apache.org/FlumeUserGuide.html
2017-03-06 13:07:26 1283
原创 Java开发环境搭建
目录:(一) Java安装(二) Eclipse安装(三) Eclipse的Java安装(四) Maven安装 1) 工具下载: 2) maven配置 3) 配置完成 4) Eclipse加载Maven 5) 设置maven仓库位置:(五) Maven项目创建(六) 测试————————
2017-03-05 20:47:41 729
原创 CDH启动和日志和组件lib包路径查看
目录:cdh集群启动cdh集群Linux日志查看cdh集群管理界面日志查看——————————————————————————————————cdh集群启动备注:公司CDH集群为CDH-5.7.1版本1)登录Master机器 执行命令: /opt/cm-5.7.1/etc/init.d/cloudera-scm-server start2)登录集群所有agent机器 执行命令: /opt/c
2017-03-02 12:58:56 11495
原创 inotify监控Nginx目录且将Log文件放入Flume监控文件中
目录1、需求2、框架步鄹3、脚本和Nginx日志展示4、运行结果 1)日志展示和移动数据到监控目录 2) 启动监控脚本、查看运行前后、查看监控日志、查看结果路径数据—————————————————————————————————1、需求通过inotify监控Nginx目录,将生产Log文件放入Flume监控文件中2、框架步鄹3、脚本和Nginx日志展示备注:*.tar.gz
2017-03-01 13:06:43 1354
原创 Kafka获取文件源码跟踪
目录:1、执行步鄹2、结果展现学习kafka提前参考:Kafka文件的存储机制http://blog.csdn.net/silentwolfyh/article/details/55095146Kafka:无丢失提取kafka的值,详解kafka的消费过程http://blog.csdn.net/silentwolfyh/article/details/54891764———————————————
2017-02-16 12:47:55 1054
原创 Intellij IDEA 解除(去除)SVN关联
安装插件1、打开Intellij中工具栏File的setting(ctrl+alt+s),选择plugins,在右边搜索框输入“SVN”,搜索。选择“SVN disconnect”。2、安装此插件,重启intellij idea3、插件使用点击菜单栏中的VCS,在下拉菜单中选择SVN disconnect,完成SVN版本管理移除。
2017-02-15 10:14:05 31315 1
原创 HttpServer发送数据到kafka
目录1、需求2、框架结构图和步鄹图3、代码结构4、代码展现———————————————————————-1、需求1.1、解析路径,将路径的最后一个字符串作为Appkey; 1.2、数据缓存,当Kafka无法正常访问时在本地Cache目录缓存数据; 1.3、安全验证,对请求的appkey进行合法性验证(签名验证待定); 1.4、自动更新appkey列表,每间隔一段时间获取一次最新的appkey
2017-02-15 09:53:16 5340 2
原创 Kafka文件的存储机制
目录:1、Kafka是什么2、前言3、Kafka文件存储机制–实际运行效果4、总结————————————————————————————————–1、Kafka是什么 Kafka是最初由Linkedin公司开发,是一个分布式、分区的、多副本的、多订阅者,基于zookeeper协调的分布式日志系统(也可以当做MQ系统),常见可以用于web/nginx日志、访问日志,消息服务等等,Linkedin
2017-02-14 09:58:03 3741
原创 Linux下大数据常用执行应用脚本
读取HDFS文件大小#!/bin/bashpath=$1dir=$(hadoop fs -ls $path | awk '{print $8}')for i in $dirdo hdfs dfs -du -s -h $idone 读取Linux文件大小#!/bin/bashpath=$1dir=$(ls -l $path |awk '/^d/ {print $NF}')for i in
2017-02-13 09:44:12 939
原创 IntelliJ IDEA打开多个Maven的module且相互调用代码
目录1、需求2、注意事项(6点非常重要)3、建立Project和建立module4、项目之前的依赖关系5、代码展示6、项目中POM依赖展示7、运行结果展示—————————————————————————————————————1、需求1、IntelliJ IDEA打开多个项目 2、每个同学开发一个项目,相互之前独立不影响 3、通过一个入口可以调用所有项目类、方法、属性,达到同时开发且检测代码
2017-02-10 14:23:12 35086
原创 SparkStreaming无丢失读取Kafka且转为DataFrame
目录1、需求2、步鄹3、日志格式4、代码展示5、运行结果展示6、Kafka Manager 和 Zookeeper展示———————————————————————————————1、需求1、SparkStreaming读取Kafka数据,且将offset存储到Zookeeper中 2、控制每次读取数据的最大值 3、将读取出来的数据,转为DataFrame2、步鄹1、通过zkClient.rea
2017-02-09 10:00:30 6490 4
原创 大数据组项目文档整理方案
大数据团队项目文档整理方案一、 项目文档规范说明1. 文档结构说明2. 案例说明二、 项目文档结构说明1. 文档结构步鄹:2. 案例如下:———————————————————————————————————一、 项目文档规范说明1. 文档结构说明1) 流程图使用Visio画图 2) 其余资料使用Mar
2017-02-09 09:04:47 5058
原创 Phoenix安装、连接Hbase、配置
目录:一、Phoenix安装二、Phoenix安装及连接Hbase三、phoenix 配置—————————————————————————————一、Phoenix安装1、首先去官网下载Phoenix的压缩包 下载地址:http://mirror.bit.edu.cn/apache/phoenix/ 由于我们系统的Hbase版本是1.1版本的,故下载4.7版本的Phoenix。
2017-02-06 16:20:02 8314 1
原创 CDH集群迁移
目录一:集群搭建二:hdfs数据迁移三:kafka节点添加四:hbase数据迁移———————————————————————————————————–一:集群搭建参考:http://blog.csdn.net/silentwolfyh/article/details/54893826二:hdfs数据迁移准备工作 1、新集群搭建完毕 2、新老机器所有yarn节点可以ping通 3、命令,在老集
2017-02-06 16:06:09 4346
原创 CDH5.14安装指南和维护(亲自搭建好多次)
目录:1、安装文件准备2、系统环境准备3、cloudera manager 调优4、Cloudera Manager安装5、CDH安装6、常用工具地址7、一些常见问题————————————————————————————————————–1、安装文件准备CDH下载地址:http://archive.cloudera.com/cdh5/parcels/latest/下载操作系统对应的版本:1.CDH
2017-02-06 15:56:54 10463 13
原创 Redis集群搭建步鄹
Redis cluster set upauthor: chenlei leibositeCluster architecture:steps:Download redis source file:wget http://download.redis.io/releases/redis-3.2.4.tar.gzUnzip:tar zxvf redis-3.2.4.tar.gzCompile:
2017-02-06 14:52:23 908
原创 Kafka:无丢失提取kafka的值,详解kafka的消费过程
目录:1、需求2、代码步鄹3、代码展现4、pom.xml文件5、结果展现——————————————————————————————————–1、需求前提:将org.apache.spark.streaming.kafka.KafkaCluster这个类抽出来变成KafkaClusterHelper * 需求:* 1、将kafka中的数据无丢失提取,且存到本地 2、详解Kafka读取数据步鄹
2017-02-06 13:05:53 6428
原创 Kafka:Kafka的生产和消费(Java版本)
目录:1、代码2、POM3、展示—————————————————————————————1、代码package com.donews.data.kafkatest;import java.io.BufferedReader;import java.io.FileReader;import java.util.Properties; import java.util.concurrent.T
2017-01-23 16:08:57 4167 1
原创 设计模式:懒汉式和饿汉式
下面对单例模式的懒汉式与饿汉式进行简单介绍: 1、饿汉式:在程序启动或单件模式类被加载的时候,单件模式实例就已经被创建。 2、懒汉式:当程序第一次访问单件模式实例时才进行创建。 如何选择:如果单例模式实例在系统中经常会被用到,饿汉式是一个不错的选择。反之如果单例模式在系统中会很少用到或者几乎不会用到,那么懒汉式是一个不错的选择。饿汉式和懒汉式代码:package Single;public
2017-01-23 10:36:13 1456
原创 Linux:RSync实现文件备份同步图解及代码
目录:1、需求2、图解3、代码备注:参考RSync命令 http://blog.csdn.net/silentwolfyh/article/details/546139411、需求:将Nginx文件从采集服务器同步到CDH服务器,最后放入Flume监控目录2、图解3、代码[root@xiaohui nginx_log]# cat get_file_test.shcd /home/nginx_l
2017-01-19 11:27:31 1021
原创 linux:rsync命令详细整理
前提: rsync是一个功能非常强大的工具,其命令也有很多功能特色选项,我们下面就对它的选项一一详细说明,需要了解的朋友可以参考下 在对rsync服务器配置结束以后,下一步就需要在客户端发出rsync命令来实现将服务器端的文件备份到客户端来。rsync是一个功能非常强大的工具,其命令也有很多功能特色选项,我们下面就对它的选项一一进行分析说明。 Rsync的命令格式可以为以
2017-01-19 11:22:01 808
原创 微信统计数据的获取及存储
目录:1、需求:2、开发前期准备:3、代码结构:4、Mysql数据表设计:5、代码展示:6、结果展示:1、需求:熟悉获取微信统计数据的接口,并设计数据获取方案,微信数据接口文档地址:https://mp.weixin.qq.com/wiki/15/88726a421bfc54654a3095821c3ca3bb.html 2、开发前期准备:1、ACCESS_TOKEN:获取微信唯一标识ACCESS
2017-01-17 10:04:58 7038
原创 win7上python2.7连接mysql数据库
一:安装MySQL-python驱动pip install mysql二:连接到MySQL服务器的test数据库#!/usr/bin/python# -*- coding: UTF-8 -*-import mysql.connectorif __name__ == "__main__": # 打开数据库连接 conn=mysql.connector.connect(host='
2017-01-13 13:55:42 1461
原创 Linux:用sed命令在文本的行尾或行首添加字符
用sed命令在行首或行尾添加字符的命令有以下几种: 假设处理的文本为test.file 在每行的头添加字符,比如”HEAD”,命令如下: sed ‘s/^/HEAD&/g’ test.file在每行的行尾添加字符,比如“TAIL”,命令如下: sed ‘s/$/&TAIL/g’ test.file 运行结果如下图: 几点说明: 1.”^”代表行首,””代表行尾2.′s/”代表行尾
2017-01-09 20:01:42 4354
原创 Linux:awk命令详解
来源:http://www.cnblogs.com/ggjucheng/archive/2012/08/18/2645321.html史上最好用的免费翻蔷利器简介awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大。简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行各种分析处理。awk有3个不同版本: aw
2017-01-09 19:56:16 708
原创 MongoDB高可用集群+MMS集群监控搭建
目录:一、 集群的三个组件:二、 集群架构图:三、 集群的IP及端口规划:四、 集群在LINUX上的目录规划:五、 开始搭建集群:六、 集群监控(mongodb-mms)备注:mongodb学习资料 http://www.runoob.com/mongodb/mongodb-tutorial.html————————————————————————————————————
2017-01-06 12:51:15 10634 4
原创 动态正则匹配
需求:1、写一个动态正则;2、只要写出日志的Schma就可以获取到日志的正则。package com.donews.utilimport java.util.regex.Patternimport scala.collection.mutable.ArrayBuffer/** * Created by yuhui on 2016/8/5. *//***列子: www.donew
2017-01-05 13:13:40 1121
原创 kakfa的维护:Brock停止
错误1:kakfa的Brock停止org.apache.spark.SparkException: Couldn’t find leader offsets for Set()原因:1、TopicName复制数Replication为1; 2、TopicName的Partitions一部分落在Brock上面,而这个Brock没有复制数,导致Partitions丢失
2017-01-04 13:26:18 1225
原创 javaweb的request的get和post方法
package com.donews.data.httpkafka;import java.io.BufferedReader;import java.io.IOException;import java.io.InputStreamReader;import java.io.PrintWriter;import java.net.URL;import java.net.URLConne
2017-01-03 17:05:14 929
原创 CDH配置启动flume
目录:一、如何使用flume二、进入配置管理三、关于配置文件———————————————————————————-请提前参考我的Flume博客:http://blog.csdn.net/silentwolfyh/article/category/6186343一、如何使用flume在CDH界面添加服务,选择flume之后选择主机,flume服务就启动了,下面就是配置参数二、进入配置管理三、关于配置
2017-01-03 16:58:18 9900 4
Mysql教程所有数据.zip
2020-05-05
crawlerBank.py
2019-07-08
SpringBoot的mvc三层以及增删改查页面
2018-11-22
spring boot+mybatis整合
2018-11-12
Lucene实战(第2版).pdf
2018-08-28
SparkSql技术
2018-08-16
hadoop-Apache2.7.3+Spark2.0集群搭建
2018-08-16
TA创建的收藏夹 TA关注的收藏夹
TA关注的人