自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(39)
  • 收藏
  • 关注

原创 按下标取数据,汉字对应拼音

1、配置文件source_dir=E\\路径columns=9,12chinese2pinyin=9dst_dir=C:\\路径2、第三方pinyin工具import net.sourceforge.pinyin4j.PinyinHelper;import net.sourceforge.pinyin4j.format.HanyuPinyinCaseType;import n

2017-03-20 09:29:26 545

原创 调用接口

1、ReportData=======import java.io.File;import java.io.IOException;import java.io.InputStream;import org.apache.http.client.ClientProtocolException;import org.json.JSONArray;import org.json.JSON

2017-03-20 09:20:44 393

原创 读取excel文件按下标取字段

public class Demo { public static void main(String[] args) throws EncryptedDocumentException, InvalidFormatException, FileNotFoundException, IOException { method("E:\\XX\\XX\\XX.xlsx", new int

2017-03-20 09:07:06 809

原创 读取文件夹下的数据

import java.io.BufferedReader;import java.io.BufferedWriter;import java.io.File;import java.io.FileInputStream;import java.io.FileNotFoundException;import java.io.FileOutputStream;import java.io

2017-03-20 09:03:37 412

原创 Hive安装部署

前期工作安装JDK安装hadoop安装MySQL安装Hive下载Hive安装包,解压安装Hive设置Hive环境变量编辑 /etc/profile 文件,在其中添加一下内容:export HIVE_HOME=/bigData/software/apache-hive-2.1.1-binexport PATH=$PATH:$HIVE_HOME/bin环境变量生效:source /etc

2017-03-13 17:19:22 423

原创 select数据库反射机制(注解)

package com.Test;import java.lang.annotation.Annotation;import java.lang.reflect.Field;import java.lang.reflect.InvocationTargetException;import java.lang.reflect.Method;import java.sql.ResultSe

2017-02-13 14:19:04 498

转载 多线程——生产者与消费者

package com.Test;public class ProduceConsume { public static void main(String[] args) { SyncStack ss = new SyncStack();// 建造一个装馒头的框 Producer p = new Producer(ss);// 新建一个生产者,使之持有框 Consume c =

2017-02-13 14:11:40 269

原创 调用百度推广接口获取数据

package com.Http;import java.io.BufferedReader;import java.io.BufferedWriter;import java.io.File;import java.io.FileInputStream;import java.io.FileReader;import java.io.FileWriter;import java.

2017-01-10 17:13:18 3937

原创 相同文件读取

package com.Http;import java.io.BufferedReader;import java.io.BufferedWriter;import java.io.File;import java.io.FileInputStream;import java.io.FileOutputStream;import java.io.FileReader;import

2017-01-10 17:10:54 276

原创 读取多个EXCEL文件

多个EXCEL文件 读取:import java.io.BufferedWriter;import java.io.File;import java.io.FileInputStream;import java.io.FileNotFoundException;import java.io.FileOutputStream;import java.io.IOException;im

2017-01-10 17:05:43 1363

原创 json---xml

1、xml示例 三年一班 xxxx 张三 12 xml只能有一个根标签 xml是一种记录数据的格式,使用这种结构化的开闭标签。标签可以自己定义。 这是一个person的数据信息结构。如果是一堆person呢。一个集合 张三 12 xml只能有一个根标签 xml是一种记录数据的格式

2016-11-18 18:18:29 352

原创 HttpHelper调用接口

1、HttpHelper package com.Http;import java.io.IOException;import java.io.InputStream;import java.nio.charset.Charset;import java.util.Map;import java.util.Map.Entry;import org.apache.http.Htt

2016-11-18 18:11:39 1675

原创 sdk-调用接口

1、baidu-api.properties文档serverUrl=https://api.baidu.comusername=xxpassword= xxtoken=xx#Please keep these values unless you know exactly about their meanings.connectTimeoutMills=11000readTimeou

2016-11-18 17:55:48 3363

原创 log4j里日志等级

log4j里日志等级 日志记录器(Logger)的行为是分等级的。如下表所示:主要分为OFF、FATAL、ERROR、WARN、INFO、DEBUG、TRACE、ALL或者自定义的级别。Log4j建议只使用四个级别,优先级从高到低分别是ERROR、WARN、INFO、DEBUG。在配置文件里 ,可以设定日志输出到文件 还是控制台,输出到什么级别。输出到文件的话,log4j还可以按天

2016-11-17 16:49:07 521

原创 Storm读取Mysql数据库不能加大bolt并行数写入hdfs解决方法

解决方法:建立一个中间表       spout发射数据给bolt,bolt进行数据清洗,然后插入到一张中间表里面,然后再写一个spout,这个spout不发射数据,每次next时去中间表查看,如果超过预计数据的条数,可以读过来批量插入到hdfs里,一直只有一个spout在写hdfs,或者不写spout,直接写个java程序,每分钟看一次数据库中间表,有数据就写入hdfs。同样,bolt每次被

2016-11-17 16:35:07 1730

原创 zookeeper client 超时 解决方法

spout一次读取百万数据,顶不住,zookeeper以为spout死了,所以超时,之后改成几万条数据读取,spout没有问题,spout发射数据太快,太多了,导致tuple的等待队列太大,bolt处理不过来,zookeeper以为bolt死了,之后加大bolt的并行数,问题解决

2016-11-17 16:29:33 2473

原创 storm简单介绍

1、Spout:open:初始化操作nextTuple:消息接入,执行数据的发射ack:tuple成功处理后调用fail:tuple处理失败时调用declareOutputFieds:声明输出字段2、Bolt:prepare:worker启动是初始化execute:接受一个tuple并执行逻辑处理发射出去cleanup:关闭前调用declareOut

2016-11-17 16:26:55 380

原创 Linux找不到命令解决方法

1、Linux首先会找/etc/profile 这个配置文件里的PATH变量,遍历这个变量里配置的多个路径,查看命令是否存在。2、如果 /etc/profile 里的PATH找不到有这个命令(或者是sh 文件,或者是二进制可执行的文件),下一步会去家目录(也就是~    下的目录)下的.bash_profile ,这个隐藏配置文件里去找PATH变量,遍历这个变量配置的多个路径,查看命令是否存在

2016-11-17 16:12:43 25246

原创 hadoop集群NameNode起不来解决方法

1、关掉hadoop集群2、进入主节点/home/hadoop/hadoop-2.6.0/dfs/name/current,删掉VERSION,从节点也是3、格式化NameNode : hadoop  -NameNode  -format4、重新启动集群即可

2016-11-17 16:10:30 3932 1

原创 Finderror

package com.demo;import java.io.BufferedWriter;import java.io.File;import java.io.FileWriter;import java.io.IOException;import java.sql.Connection;import java.sql.DriverManager;import java.sql

2016-11-17 15:37:50 603

原创 paoding--分词

import java.io.BufferedReader;import java.io.FileInputStream;import java.io.IOException;import java.io.InputStreamReader;import java.io.StringReader;import java.util.ArrayList;import java.util.C

2016-11-17 15:35:38 366

原创 调用IP接口

import java.io.BufferedInputStream;import java.io.BufferedReader;import java.io.BufferedWriter;import java.io.File;import java.io.FileInputStream;import java.io.FileWriter;import java.io.IOExcep

2016-11-17 15:32:05 787

原创 调用接口

String urlNameString = "http://int.dpool.sina.com.cn/iplookup/iplookup.php?ip=183.129.210.50"; URL realUrl = new URL(urlNameString); URLConnection connection = realUrl.openConnection();

2016-11-17 15:30:55 368 1

原创 统计关键词

import java.util.regex.Matcher;import java.util.regex.Pattern;import org.apache.hadoop.hive.ql.exec.UDF;public class GroupByUrl extends UDF { public String evaluate(String url) { String result

2016-11-17 15:29:53 431

原创 页面停留时间

import java.text.ParseException;import java.text.SimpleDateFormat;import java.util.Date;import org.apache.hadoop.hive.ql.exec.UDF;public class rz extends UDF { private String uid = ""; pri

2016-11-17 15:28:20 847

原创 时间转换UDF函数

import java.text.ParseException;import java.text.SimpleDateFormat;import java.util.Date;import org.apache.hadoop.hive.ql.exec.UDF;public class zz extends UDF { public String evaluate(String cu

2016-11-17 15:27:48 817

原创 Wordcount

package com.testMr;import java.io.IOException;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Job;im

2016-11-17 15:24:07 275

原创 Inner join --案例

package com.testMr;import java.io.IOException;import java.util.ArrayList;import java.util.LinkedList;import java.util.List;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.LongWrit

2016-11-17 15:18:38 476

原创 MR--案列2

参考案例1的测试数据:package com.testMr;import java.io.IOException;import java.util.ArrayList;import java.util.Iterator;import java.util.LinkedList;import java.util.List;import org.apache.hadoop.fs.Pa

2016-11-17 15:13:37 260

原创 MR--案例1

package com.testMr;import java.io.IOException;import java.util.ArrayList;import java.util.Iterator;import java.util.LinkedList;import java.util.List;import org.apache.hadoop.fs.Path;import or

2016-11-17 15:07:54 374

原创 Left join --案例2

参考xx 订单数据:package com.testMr;import java.io.IOException;import java.util.ArrayList;import java.util.LinkedList;import java.util.List;import org.apache.hadoop.fs.Path;import org.apache.hadoop

2016-11-17 15:04:46 405

原创 Left join --案例1

统计xx订单个数和价格总和:package com.testMr;import java.io.IOException;import java.util.ArrayList;import java.util.Iterator;import java.util.LinkedList;import java.util.List;import org.apache.hadoop.fs

2016-11-17 15:00:33 395

原创 Left join --测试数据

package com.testMr;import java.io.IOException;import java.text.ParseException;import java.text.SimpleDateFormat;import java.util.ArrayList;import java.util.Date;import java.util.Iterator;impor

2016-11-17 14:53:15 726

原创 Quartz 定时读取Mysql数据库和Mongodb数据库写入hdfs

1、quartz:package com.Demo;import static org.quartz.CronScheduleBuilder.cronSchedule;import static org.quartz.JobBuilder.newJob;import static org.quartz.TriggerBuilder.newTrigger;import java.io

2016-11-17 14:47:11 934

原创 java读取mongodb数据库

package com.Test;import org.bson.Document;import org.bson.types.ObjectId;import com.mongodb.BasicDBObject;import com.mongodb.MongoClient;import com.mongodb.MongoClientURI;import com.mongodb.cli

2016-11-17 14:41:48 906

原创 Storm读取Mysql数据库表写入Mysql数据库另一张表

1、spout:package com.TestStorm;import java.io.BufferedReader;import java.io.FileNotFoundException;import java.io.FileReader;import java.io.FileWriter;import java.io.IOException;import java.io.

2016-11-17 14:30:31 3988

原创 Storm读取Mysql数据库写入hdfs------针对数据量较少的数据

1、spout:package com.TestStorm;import java.io.BufferedReader;import java.io.FileNotFoundException;import java.io.FileReader;import java.io.FileWriter;import java.io.IOException;import java.io.

2016-11-17 14:23:29 3107

原创 java读取Mysql数据库写入hdfs

package com.Test;import java.io.ByteArrayInputStream;import java.io.File;import java.io.FileInputStream;import java.io.IOException;import java.io.InputStream;import java.io.UnsupportedEncodingE

2016-11-17 14:19:01 3879

原创 java实时读取Mysql数据库

package com.Test;import java.sql.Connection;import java.sql.DriverManager;import java.sql.ResultSet;import java.sql.SQLException;import java.sql.Statement;public class Mysql { public static v

2016-11-17 13:55:55 2850

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除