大数据
文章平均质量分 94
卡搜偶
这个作者很懒,什么都没留下…
展开
-
git一些常用操作
一、开发分支(dev)上的代码达到上线的标准后,要合并到 master 分支 git checkout dev git pull git checkout master git merge dev git push -u origin master 二、当master代码改动了,需要更新开发分支(dev)上的代码 git checkout master git pull git checkout dev ...原创 2020-10-15 23:59:32 · 733 阅读 · 0 评论 -
【分布式】Zookeeper的Leader选举
一、前言 前面学习了Zookeeper服务端的相关细节,其中对于集群启动而言,很重要的一部分就是Leader选举,接着就开始深入学习Leader选举。二、Leader选举 2.1 Leader选举概述 Leader选举是保证分布式数据一致性的关键所在。当Zookeeper集群中的一台服务器出现以下两种情况之一时,需要进入Leader选举。 (1) 服务器初始化启动。...原创 2019-10-23 17:13:58 · 156 阅读 · 0 评论 -
Spark-on-YARN
1.官方文档http://spark.apache.org/docs/latest/running-on-yarn.html2.配置安装安装hadoop:需要安装HDFS模块和YARN模块,HDFS必须安装,spark运行时要把jar包存放到HDFS上。 安装Spark:解压Spark安装程序到一台服务器上,修改spark-env.sh配置文件,spark程序将作为YARN的客户端用...原创 2019-10-22 17:45:42 · 139 阅读 · 0 评论 -
Calllog第一天
可视化:-------------- 1. 2. 3. 4. 5.package com.it18zhang.callloggen;import java.util.HashMap;import java.util.Map;/** * */public class App { public static Map<String,String> caller = new HashMa...原创 2018-03-13 20:19:08 · 631 阅读 · 0 评论 -
scala在maven下不能自动打包成class
加入maven的插件<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://原创 2018-03-21 19:23:18 · 720 阅读 · 0 评论 -
spark + hive + hbase 结合
Spark整合hive 1.hive的类库需要在spark worker节点。 2.复制core-site.xml(hdfs) + hdfs-site.xml(hdfs) + hive-site.xml(hive)三个文件 到spark/conf下。 如果spark-env里面配置了hadoop的路径,就不用复制core-site.xml(hdfs) + hdf...原创 2018-04-02 21:32:06 · 660 阅读 · 0 评论 -
spark Streaming flume poll 坑
1.flume的conf,# Name the components on this agenta1.sources = r1a1.sinks = k1a1.channels = c1# sourcea1.sources.r1.type = netcata1.sources.r1.bind= localhosta1.sources.r1.port = 9999# Describ...原创 2018-05-10 10:31:10 · 241 阅读 · 0 评论 -
flume+sparkStreaming Push 方法整合
1.flume文件a1.sources = r1a1.channels = c1a1.sinks = k1a1.sources.r1.type=netcata1.sources.r1.bind=localhosta1.sources.r1.port=9090a1.sinks.k1.type=avroa1.sinks.k1.hostname=localhosta1.sinks.k...原创 2018-05-10 14:11:38 · 177 阅读 · 0 评论 -
hive to mysql
package org.admln.sqoop;import java.sql.Connection;import java.sql.DriverManager;import java.sql.SQLException;import java.sql.Statement;import org.apache.sqoop.client.SqoopClient;import org.ap...原创 2018-05-14 14:26:49 · 755 阅读 · 0 评论 -
使用spark与MySQL进行数据交互的方法
在项目中,遇到一个场景是,需要从Hive数据仓库中拉取数据,进行过滤、裁剪或者聚合之后生成中间结果导入MySQL。对于这样一个极其普通的离线计算场景,有多种技术选型可以实现。例如,sqoop,MR,HSQL。 我们这里使用的spark,优点来说是两个:一是灵活性高,二是代码简洁。1)灵活性高相比sqoop和HSQL,spark可以更灵活的控制过滤和裁剪逻辑,甚至你可以通过外部的配置或者参数,来动态...原创 2018-05-14 16:02:04 · 1758 阅读 · 0 评论 -
shell脚本---函数
传参 $1,$2变量 local返回值 return $?一、定义函数方法一:函数名() {函数要实现的功能代码}方法二:function 函数名 {函数要实现的功能代码}二、调用函数函数名函数名 参数 1 参数 2#!/bin/bashfac(){ factor=1 for((i=1;i<=...原创 2019-05-11 12:27:47 · 225 阅读 · 0 评论 -
shell脚本 --- 内置命令
break continuebreak 结束当前循环,或跳出本层循环continue 忽略本次循环剩余的代码,直接进行下一次循环#!/bin/bashfor i in {A..D}do echo -n $i for j in {1..9} do if [ $j -eq 5 ];then break 2 ...原创 2019-05-12 09:23:49 · 412 阅读 · 0 评论 -
Ganglia监控
集群汇总监控的软件,和Cacti不同,Cacti是详细监控集群中每台服务器的运行状态,而Ganglia是将集群中的服务器数据进行汇总然后监控集群监控. 不仅能够监控单个主机的资源情况,还可以对集群整个资源进行统计。 gmond //在每个节点收集资源数据的。 gmetad //接受每个节点发送资源数据 gweb //webui,展示数据web程序,和gmetad通信。安装ganglia...原创 2018-03-17 22:35:08 · 351 阅读 · 0 评论 -
HA部署
1.hdfs容灾配置HA配置core-site.xml <property> <name>fs.defaultFS</name> <value>hdfs://mycluster</value> </property> <property> &原创 2018-02-24 19:50:29 · 940 阅读 · 0 评论 -
CentOS下的awk
awkawk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分在进行各种分析处理打印,$1:第一列,每行默认tab切割$0:全部列例如$>last -n 5 | awk '{print $1}'比如jpsjps | awk '{print $1}'-F : 指定分隔符比如按照.切割,打印第一列$>last -n 5 | awk -F '.' '{print $1}'实例1l...原创 2018-03-16 21:21:05 · 1943 阅读 · 0 评论 -
Hadoop环境搭建之一安装jdk,hadoop基本配置及运行MapReduce案例在本地模式下
需要在root用户下如果安装老版的jdk,可以卸载重新安装 如java 卸载已经安装的javarpm -qa|grep java这里会打印出三行rpm -e --nodeps 将上面的三行写到后面,用空格隔开 cd 安装软件的目录 ls 查看 解压jdk tar -zxf jdk -C 解压到的目录cd jdk1.7.0_67/ pwd 查看当前路径vi /etc/profileexp原创 2017-10-31 10:51:15 · 544 阅读 · 0 评论 -
Hadoop 2.x环境搭建之三配置部署启动YARN及在YARN上运行MapReduce程序
yarn-env.shexport JAVA_HOME=jdk路径etc/hadoop/yarn-site.xml:<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property>原创 2017-11-02 10:24:58 · 355 阅读 · 0 评论 -
Hadoop环境搭建之二配置启动HDFS及本地模式运行MapReduce案例(使用HDFS上数据)
hostname查询用户名 Use the following:etc/hadoop/core-site.xml:<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://用户名:8020</value> </property> <property>原创 2017-11-01 11:13:24 · 466 阅读 · 0 评论 -
Hadoop2.x 一些知识,MapReduce历史服务配置启动查看,YARN的日志聚集功能配置使用
Hadoop##common##HDFS ###存储数据 ###NameNode原创 2017-11-04 14:52:06 · 546 阅读 · 0 评论 -
使用Docker分分钟启动常用应用和镜像下载慢或者下载不下来的问题
前言 Docker是目前比较火的一个概念,同时也是微服务中比较关键的一个容器化技术。但是,单从理论上好难看出Docker的优势,因此,我希望在这篇文章中提供一些Docker的使用示例,希望从实际应用上帮助大家理解Docker的优势,同时也对自己的Docker使用进行简单的记录。准备事项 1. 安装Docker 我使用的操作系统是CentOS 7/7.1,如何安装Docker,可以参考园子里的这原创 2017-12-03 17:05:16 · 2281 阅读 · 0 评论 -
Storm安装,启动
apache-storm-0.9.6/conf目录下storm.yaml文件# Licensed to the Apache Software Foundation (ASF) under one# or more contributor license agreements. See the NOTICE file# distributed with this work f原创 2018-01-31 16:35:14 · 230 阅读 · 0 评论 -
HBase搭建
0.选择安装的主机 s201 ~ s204 1.jdk 略 2.hadoop 略 3.tar 略 4.环境变量 略 5.验证安装是否成功 $>hbase version 5.配置hbase模式 5.1)本地模式 [hbase/conf/hbase-env.sh] EXPORT JAVA_HOME=/soft/jdk [hbase/conf/hbase-site....原创 2018-02-26 19:39:11 · 214 阅读 · 0 评论 -
Hive的一些问题
#在hive Cli中不能对表删除(对表或库操作时)的时候或者是(Unable to fetch table : Hive MetaException message:For direct MetaStore DB connections, we don't support retries at the client level.)乱七八糟的问题1.hive/lib中的mysql驱动版本太低2.、...原创 2018-02-14 15:35:23 · 495 阅读 · 0 评论 -
phonix
1.安装phonix a)下载apache-phoenix-4.10.0-HBase-1.2-bin.tar.gz b)tar c)复制xxx-server.jar到hbase的lib目录,并且分发,删除以前的phonixjar包。 d)重启hbase 2.使用phonix的命令行程序 $>phonix/bin/.sqlline.py s202 //连接的是zk服务器 $phon...原创 2018-03-01 16:32:57 · 831 阅读 · 0 评论 -
hive-HBase集成
在hive创建表t11与HBase上的表ns1:t11对应,并且key与:key对应,name对应cf:name的列 CREATE TABLE t11(key string, name string) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ("hbase.columns....原创 2018-03-01 16:36:35 · 189 阅读 · 0 评论 -
Hadoop配置文件 HDFS垃圾回收,无密码登录和各个服务组件如何配置那台服务器运行并测试
默认配置文件在share/hadoop 里面的jar包里面core-default.xmlhdfs-default.xmlyarn-default.xmlmapred-default.xml自定义配置文件$HADOOP_HOME/etc/hadoop/core-site.xmlhdfs-site.xmlyarn-site.xmlmapred-site.xmlcore-site.xml <原创 2017-11-12 12:24:49 · 284 阅读 · 0 评论