自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(56)
  • 资源 (4)
  • 收藏
  • 关注

原创 mysql集群配置

需要安装软件(所有的节点都必须安装,不需要安装mysql mysql-server,mysql-cluster有自带的):mysql-cluster-gpl-7.3.7-linux-glibc2.5-x86_64.tar.gz管理节点:192.168.3.101  启动服务:ndb_mgmdSQL1节点:192.168.3.102  启动服务:mysqldSQL2节点:19

2017-04-25 13:13:50 327

原创 Sqoop数据导入导出

使用Import命令 :(A)将mysql中的test数据库中的表person导入到hdfs         bin/sqoop import --connect jdbc:mysql://192.168.7.112:3306/test --username root --password root --table person        不指定目的路径的话,会自动到导入到hd

2017-04-21 17:05:24 710

原创 Maven 仓库地址

http://maven.aliyun.com/nexus/content/groups/public/http://repo1.maven.org/maven2/

2017-04-21 13:41:33 139

原创 SparkStreaming之TCP流式处理(netcat)

public static void main(String[] args) { SparkConf conf = new SparkConf().setMaster("local[2]").setAppName("JavaSparkStreamingNC"); JavaStreamingContext jsc = new JavaStreamingContext(conf, Du

2017-04-20 18:20:59 830

原创 SparkStreaming之HDFS操作

public static void main(String[] args) { SparkConf conf = new SparkConf().setMaster("local[2]").setAppName("JavaSparkStreamingHDFS"); JavaSparkContext sc = new JavaSparkContext(conf); Java

2017-04-20 18:12:42 2782

原创 Spark操作ElasticSearch

def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").setAppName("ScalaSparkElasticSearch") /** * 根据es官网的描述,集成需要设置: * es.index.auto.create--->true *

2017-04-20 09:37:16 4045

原创 SparkSQL之函数的操作

package com.uplooking.bigdata.sql.p3import com.uplooking.bigdata.utils.MySparkUtilimport org.apache.spark.SparkConfimport org.apache.spark.sql.{Column, SQLContext}/** * SparkSQL函数的操作 */obje

2017-04-20 09:33:57 1042

原创 SparkSQL之连接thirftserver

def main(args: Array[String]): Unit = { //1、注册驱动 classOf[org.apache.hive.jdbc.HiveDriver] //2、获得连接Connection val url = "jdbc:hive2://master:10000/default" val username = "root" val passwo

2017-04-20 09:29:31 417

原创 SparkSQL之保存数据

public static void main(String[] args) { SparkConf conf = new SparkConf(); conf.set("spark.app.name", "JavaSparkSQLSave"); conf.set("spark.master", "local"); JavaSparkContext sc = new

2017-04-20 09:26:44 3495

原创 Redis操作

Redis支持五种数据类型: 第一种:string(字符串)     设置一个值:set命令         set name hadoop         在设置的时候可以指定当前key的过期时间             set key value EX seconds ---->指定key之后seconds的存活时间,seconds之后消失     获取一个值:get命

2017-04-20 09:14:04 321

原创 Redis安装

Redis安装 下载      下载地址:http://download.redis.io/releases/      这里下载的版本为redis-3.2.0   # wget http://download.redis.io/releases/redis-3.2.0.tar.gz   # tar -zxvf redis-3.2.0.tar.gz -C ../   # c

2017-04-19 20:01:25 166

原创 Kafka的Topic操作

Kafka shell topic操作     创建Topic          hadoop         kafka]# bin/kafka-topics.sh --create --topic hadoop --zookeeper master:2181,slave01:2181,slave02:2181 --partitions 1 --replication-factor

2017-04-19 19:57:43 6493

原创 Kafka安装配置

安装配置:  解压: # tar -zxvf soft/kafka_2.10-0.10.0.1.tgz  -C /usr/local # cd  /usr/local # mv  kafka_2.10-0.10.0.1  kafka  #   vim   /etc/profile     export KAFKA_HOME=/usr/local/kafka

2017-04-19 19:50:20 3537

原创 ElasticSearch核心概念

ElasticSearch核心概念 1.  Cluster        代表一个集群,集群中有多个节点,其中有一个为主节点,这个主节点是可以通过选举产生的,主从节点是对于集群内部来说的。ES的一个概念就是去中心化,字面上理解就是无中心节点,这是对于集群外部来说的,因为从外部来看ES集群,在逻辑上是个整体,你与任何一个节点的通信和与整个ES集群通信是等价的。       主节点的职

2017-04-19 19:45:12 274

原创 ElasticSearch插件操作

ElasticSearch插件的操作        ES本身服务相对比较少,其功能的强大之处就体现在插件的丰富性上。有非常多的ES插件用于ES的管理,性能的完善,下面就给大家介绍几款常用的插件。     BigDesk Plugin        BigDesk主要提供的是节点的实时状态监控,包括jvm的情况,linux的情况,        elasticsearch的情况,推荐

2017-04-19 19:23:26 356

原创 ElasticSearch之CURL操作

CURL的操作    curl是利用URL语法在命令行方式下工作的开源文件传输工具,使用curl可以简单实现常见的get/post请求。简单的认为是可以在命令行下面访问url的一个工具。在centos的默认库里面是有curl工具的,如果没有请yum安装即可。    curl     -X 指定http的请求方法 有HEAD GET POST PUT DELETE     -d

2017-04-19 19:03:22 13780

原创 ElasticSearch安装配置

#  unzip soft/elasticsearch-2.3.0.zip # mv   elasticsearch-2.3.0  /usr/local/elasticsearch# cd  /usr/local/elasticsearch前台启动 #  bin/elasticsearch  后台启动#  bin/elasticsearch -d 访

2017-04-19 18:25:33 241

原创 Hive操作Hbase

启动hive,进入hive的终端   hive --auxpath /opt/hive/lib/hive-hbase-handler-2.1.0.jar, /opt/hive/lib/zookeeper-3.4.6.jar      --hiveconf hbase.master=master:16010       --hiveconf hbase.zookeeper

2017-04-19 18:12:59 1006

原创 Hbase的安装

1.解压hbase-1.3.0-bin.tar.gz    tar  -zxvf  hbase-1.3.0-bin.tar.gz  –C  /usr/local    mv  hbase-1.3.0-bin hbase2.将hbase添加到环境变量中    export HBASE_HOME=/usr/local/hbase    export PATH=$PATH:$HB

2017-04-19 17:45:50 282

原创 Hive的操作

Hive复合数据类型:array,map,struct          create table tblName (         id int commment "id",         name string comment 'name',         hobby array,         score map,         address stru

2017-04-19 17:38:13 2773

原创 Hive的安装

第一步:安装MySQL         1.查询linux中已有的mysql依赖包             # rpm -qa | grep mysql         2.删除linux中已有的mysql依赖包             # rpm -e --nodeps `rpm -qa | grep mysql`         3.安装mysql

2017-04-19 17:17:55 195

原创 Scala安装配置

1.下载Scala    下载地址:http://scala-lang.org/download/all.html 2.安装Scala   tar -zxvf scala-2.10.5.tar -C /usr/local   mv scala-2.10.5 scala3.配置环境变量  vim  /etc/profile     export  SCALA_HOME=/

2017-04-19 17:04:57 208

原创 Spark之广播变量

private static void broadCastOps(JavaSparkContext sc) { //加载user表到rdd JavaRDD linesRDD = sc.parallelize(Arrays.asList("1,3,张三,河北", "2,1,李四,北京", "3,0,王五,天津", "4,1,赵六,广东")); JavaRDD sexLineR

2017-04-19 14:38:17 3013

原创 SparkSQL之JDBC

def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("ScalaSparkSQLJDBCOps").setMaster("local") conf.set("spark.sql.shuffle.partitions", "1") val sc = new SparkContext(c

2017-04-19 13:54:02 395

原创 SparkSQL之排序,保存数据

def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("ScalaSparkSQLJson").setMaster("local") conf.set("spark.sql.shuffle.partitions", "1") val sc = new SparkContext(conf

2017-04-19 13:42:42 3144

原创 SparkSQL之查询,过滤

def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").setAppName("ScalaSparkDataFrameOps") val sc = new SparkContext(conf) val sqlContext = new SQLContext(sc)

2017-04-19 13:39:00 4008

原创 SparkSQL之读取数据

def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").setAppName("ScalaSparkSQL") val sc = new SparkContext(conf) val sqlContext = new SQLContext(sc) //1.读取文件格

2017-04-19 13:35:50 1209

原创 SparkSQL之缓存表

val conf = new SparkConf().setMaster("local").setAppName("ScalaDataFrameOps") val sc = new SparkContext(conf) val sqlContext = new SQLContext(sc) val listRDD = sc.parallelize(List("zhangsan 13 1

2017-04-19 13:27:26 2846

原创 SparkSQL之创建DataFrame

///定义一个RDDJavaRDD listRDD = sc.parallelize(Arrays.asList( new Person("张三", 13, 168.8), new Person("李四", 14, 169.8), new Person("王五", 15, 175.8), new Person("赵六", 16, 1

2017-04-19 13:24:38 782

原创 Spark 之RDD API大全

package scalaimport org.apache.spark.{SparkConf, SparkContext}/** * Created by root on 17-4-11. */object SparkAPI extends App { val conf = new SparkConf().setAppName("SparkTransformationTes

2017-04-11 20:01:59 432

原创 Scala之AKKA

import akka.actor.{ActorSystem, Props} import com.typesafe.config.ConfigFactory import com.uplooking.bigdata.p5.akka.{Header, Shutdown, Start}  /**   * Created by thinkpad on 2017/3/31.

2017-04-09 15:46:14 327

原创 Scala之Actor

package com.uplooking.bigdata.p4.actor.second  import scala.actors.Actor  /**   * Actor使用样例类进行消息的传递   */ object ActorSecondOps extends App {    val mmActor = new MorningMeeting   m

2017-04-09 15:43:05 250

原创 Scala之模式匹配

package com.uplooking.bigdata.p4  /**   * scala中的模式匹配   * match case操作   */ object MatchCaseOps {   def main(args: Array[String]): Unit = { //    switchOps //    ifSafeOps //    ar

2017-04-09 15:41:07 306

原创 Scala之协变和逆变

package com.uplooking.bigdata.p4.generic  /**   * scala中的协变和逆变   * 协变:   *   val list:List[Object] = List[String]("", "")   *   参数的泛型方向和等号左右整体的方向一致,称之为协变,   *   scala默认不支持协变,只有在定义泛型参数的时候

2017-04-09 15:37:43 277

原创 Scala之隐式转换

package com.uplooking.bigdata.p4.generic  import java.io.{BufferedReader, File, FileReader}  import scala.io.Source  /**   * Scala中的隐士转换   */ object ImplicitOps {   implicit def do

2017-04-09 15:35:42 226

原创 Scala之 闭包和柯里化

package com.uplooking.bigdata.p3  /**   * Scala中关于函数的各种操作   */ object FunctionOps {     def main(args: Array[String]): Unit = { //    functionOps1 //    functionOps2 //    functi

2017-04-09 15:27:25 500

原创 Scala之特质Trait

package com.uplooking.bigdata.p3  /**   * scala中的继承特性之特质Trait   * 为了满足scala中的多继承/实现的需求,scala定义了另外一个类体结构Trait,   * Trait特质类似于java中的接口,但是比接口内容丰富,   * Trait既可以定义抽象方法,也可以定义非抽象的方法   *   * 如

2017-04-09 15:22:25 361

原创 Scala之匿名内部类

package com.uplooking.bigdata.p3  /**   * 匿名内部类   */ object ExtendsOps2 extends App {    val p = new Person2("小美")   p.sayHi    //给Person2动态添加一个功能,吃饭,使用到了匿名内部类的方式进行操作    val pp

2017-04-09 15:17:58 2625

原创 Scala之继承

package com.uplooking.bigdata.p3  /**   * scala的继承体系   * 同样继承需要使用关键字extends,只不过scala中的继承不叫继承,叫扩展   * 注意   *    和java中一样,如果一个类被final修饰,则不容许有继承,被final修饰的字段方法,也不能被子类所继承,   * 同时被private修饰的属性

2017-04-09 15:13:58 206

原创 Scala之集合框架

package com.uplooking.bigdata.p3  /**   * 集合框架   * 1、Scala中的集合体系主要包括:Iterable、Seq(IndexSeq)、Set(SortedSet)、   * Map(SortedMap)。其中Iterable是所有集合trait的根trait。实际上Seq、Set、和Map都是   * 子trait

2017-04-09 15:12:55 828

androidToggleButton

github上的一个ToggleButton

2014-12-11

css4参考手册

前提css教程,本文档兼容性测试基础环境为:windows系统;IE6-10, Firefox4-25, Chrome4-31, Win Safari5.1.7, Opera9.5-18

2014-10-20

android viewFlow

android viewFlow

2013-06-18

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除