hadoop自己的例子

从今天开始做一个自己的hadoop的例子,例子的目标是完成如下任务。


任务目标:

有一个informix数据库,其中有一个表有100万的数据,任务完成通过MapRed的方式将这100万数据导入到HDFS中,可以使用informix的分页sql达到并发查询数据库的目的。


任务开始:

1、编写MapRed的实现类起名称为InformixLoader。
大致代码如下

LOG.info("SqlMapper");
String url = context.getConfiguration().get("informix.url");
String[] str = value.toString().split("_");
long start = Long.parseLong(str[0]);
long length = Long.parseLong(str[1]);
Connection conn = null;
Statement st = null;
ResultSet rs = null;
String sql = "";
try {
Class.forName("com.informix.jdbc.IfxDriver");
conn = DriverManager.getConnection(url, "niosuser", "db");
st = conn.createStatement();
sql = "select skip " + start + " first " + length
+ " int_id from tpa_sts_cell_ne";
LOG.info("SqlMapper sql:" + sql);
rs = st.executeQuery(sql);
dataKey.set(value.toString());
Path file = new Path(StringUtils.unEscapeString(TMP_MAP_DIR
+ value.toString()));
FileSystem fs = file.getFileSystem(context.getConfiguration());
fs.createNewFile(file);
FSDataOutputStream output = fs.create(file);
LOG.info("SqlMapper createNewFile OK!");
while (rs.next()) {
String c1 = rs.getString(1)+"\n";
output.write(c1.getBytes());
output.flush();
}
output.close();
// fs.close();
data.set(value.toString());
context.write(dataKey, value);
LOG.info("SqlMapper OK!");
} catch (Exception e) {
throw new IOException(sql, e.fillInStackTrace());
} finally {
if (rs != null) {
try {
rs.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
if (st != null) {
try {
st.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
if (conn != null) {
try {
conn.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
}


2、编写InputFormater类
代码如下:

LOG.info("InputFormarter");
String url = context.getConfiguration().get("informix.url");
Connection conn = null;
Statement st = null;
ResultSet rs = null;
try {
Class.forName("com.informix.jdbc.IfxDriver");
conn = DriverManager.getConnection(url, "niosuser", "db");
st = conn.createStatement();
String sql = "select count(*) from tpa_sts_cell_ne";
rs = st.executeQuery(sql);
rs.next();
int count = rs.getInt(1);
List<InputSplit> splits = new ArrayList<InputSplit>();
int size = 50000;
int inv = count / size;
int last = count % size;
for (int i = 0; i < inv; i++) {
SqlSplit s = new SqlSplit(i * size, size);
splits.add(s);
}
if (last!=0){
SqlSplit s = new SqlSplit(inv * size, last);
splits.add(s);
}
return splits;
} catch (Exception e) {
throw new IOException(e.fillInStackTrace());
} finally {
if (rs != null) {
try {
rs.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
if (st != null) {
try {
st.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
if (conn != null) {
try {
conn.close();
} catch (SQLException e) {
throw new IOException(e.fillInStackTrace());
}
}
}

3、编写reducer类
大致代码如下

String keyStr = key.toString();
Path outFile = new Path(StringUtils.unEscapeString(TMP_RED_DIR
+ keyStr));
LOG.info("SqlReducer outfile:"+outFile.getName());
FileSystem outfs = outFile
.getFileSystem(context.getConfiguration());
outfs.createNewFile(outFile);
FSDataOutputStream output = outfs.create(outFile);
for (Text val : values) {
LOG.info("SqlReducer");
String str = val.toString();
LOG.info("file:"+str);
Path inputFile = new Path(StringUtils
.unEscapeString(TMP_MAP_DIR + str));
FileSystem fs = inputFile.getFileSystem(context
.getConfiguration());
FSDataInputStream input = fs.open(inputFile);
BufferedInputStream bi = new BufferedInputStream(input);
byte[] buffer=new byte[1024];
int length=bi.read(buffer);
while (length!=-1) {
if (length==1024){
output.write(buffer);
}else{
byte[] tmp=new byte[length];
for(int i=0;i<tmp.length;i++){
tmp[i]=buffer[i];
}
output.write(buffer);
}
length=bi.read(buffer);
}
bi.close();
input.close();
// fs.close();
output.flush();
}
output.close();
result.set(key.toString());
context.write(key, result);

4、编写outformat类
大致代码如下:

Path outFilePath = getDefaultWorkFile(context, "");
final FileSystem fs = outFilePath.getFileSystem(context
.getConfiguration());
final FSDataOutputStream output = fs.create(outFilePath);
return new RecordWriter<Text, Text>() {

@Override
public void close(TaskAttemptContext context)
throws IOException, InterruptedException {
output.flush();
output.close();
// fs.close();

}

@Override
public void write(Text key, Text value) throws IOException,
InterruptedException {
LOG.info("RecordWriter filename:"+value.toString());
Path file = new Path(StringUtils.unEscapeString(TMP_RED_DIR
+ value.toString()));
FileSystem fs = file.getFileSystem(context
.getConfiguration());
FSDataInputStream input = fs.open(file);
BufferedInputStream bi = new BufferedInputStream(input);
byte[] buffer=new byte[1024];
int length=bi.read(buffer);
while (length!=-1) {
if (length==1024){
output.write(buffer);
}else{
byte[] tmp=new byte[length];
for(int i=0;i<tmp.length;i++){
tmp[i]=buffer[i];
}
output.write(buffer);
}
length=bi.read(buffer);
}
bi.close();
input.close();
// fs.close();

}
};

5、编写启动代码
大致代码如下:
File jarFile = EJob.createTempJar("bin");
EJob.addClasspath("I:\\work\\hadoop\\hadoop\\hadoop-site.xml");
ClassLoader classLoader = EJob.getClassLoader();
Thread.currentThread().setContextClassLoader(classLoader);
args = new String[] { "/tmp/sqlloader10/" };

Configuration conf = new Configuration();
String[] otherArgs = new GenericOptionsParser(conf, args)
.getRemainingArgs();

if (otherArgs.length != 1) {
System.err.println("Usage: informixLoader <out>");
System.exit(2);
}

conf
.set("informix.url",
"jdbc:informix-sqli://10.0.2.36:8001/niosdb:INFORMIXSERVER=niosserver");

Job job = new Job(conf, "informix loader");
// And add this statement. XXX
((JobConf) job.getConfiguration()).setJar(jarFile.toString());
job.setInputFormatClass(InputFormarter.class);
job.setJarByClass(InformixLoader.class);
job.setMapperClass(SqlMapper.class);
job.setReducerClass(SqlReducer.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(Text.class);
job.setOutputFormatClass(OutputFormater.class);
// FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
FileOutputFormat.setOutputPath(job, new Path(otherArgs[0]));
System.exit(job.waitForCompletion(true) ? 0 : 1);


5、详细分析后续说明
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在信号处理领域,DOA(Direction of Arrival)估计是一项关键技术,主要用于确定多个信号源到达接收阵列的方向。本文将详细探讨三种ESPRIT(Estimation of Signal Parameters via Rotational Invariance Techniques)算法在DOA估计中的实现,以及它们在MATLAB环境中的具体应用。 ESPRIT算法是由Paul Kailath等人于1986年提出的,其核心思想是利用阵列数据的旋转不变性来估计信号源的角度。这种算法相比传统的 MUSIC(Multiple Signal Classification)算法具有较低的计算复杂度,且无需进行特征值分解,因此在实际应用中颇具优势。 1. 普通ESPRIT算法 普通ESPRIT算法分为两个主要步骤:构造等效旋转不变系统和估计角度。通过空间平移(如延时)构建两个子阵列,使得它们之间的关系具有旋转不变性。然后,通过对子阵列数据进行最小二乘拟合,可以得到信号源的角频率估计,进一步转换为DOA估计。 2. 常规ESPRIT算法实现 在描述中提到的`common_esprit_method1.m`和`common_esprit_method2.m`是两种不同的普通ESPRIT算法实现。它们可能在实现细节上略有差异,比如选择子阵列的方式、参数估计的策略等。MATLAB代码通常会包含预处理步骤(如数据归一化)、子阵列构造、旋转不变性矩阵的建立、最小二乘估计等部分。通过运行这两个文件,可以比较它们在估计精度和计算效率上的异同。 3. TLS_ESPRIT算法 TLS(Total Least Squares)ESPRIT是对普通ESPRIT的优化,它考虑了数据噪声的影响,提高了估计的稳健性。在TLS_ESPRIT算法中,不假设数据噪声是高斯白噪声,而是采用总最小二乘准则来拟合数据。这使得算法在噪声环境下表现更优。`TLS_esprit.m`文件应该包含了TLS_ESPRIT算法的完整实现,包括TLS估计的步骤和旋转不变性矩阵的改进处理。 在实际应用中,选择合适的ESPRIT变体取决于系统条件,例如噪声水平、信号质量以及计算资源。通过MATLAB实现,研究者和工程师可以方便地比较不同算法的效果,并根据需要进行调整和优化。同时,这些代码也为教学和学习DOA估计提供了一个直观的平台,有助于深入理解ESPRIT算法的工作原理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值