Java String常用api练习

Java字符串练习

Java String常用api练习

package cn.tedu.api;

import org.junit.Test;

public class TestCardNo {
	@Test
	public void cardNo() {
		String cardNo = "610113199509173456";
		// 地址码
		String address = cardNo.substring(0, 6);
		System.out.println("地址码:" + address);

		// 出生年月日
		String birthday = cardNo.substring(6, 14);
		System.out.println(birthday);
		// 截取字符串,转换成整型
		int year = Integer.parseInt(birthday.substring(0, 4));
		int month = Integer.parseInt(birthday.substring(4, 6));
		int day = Integer.parseInt(birthday.substring(6));
		System.out.println("出生日期:" + year + "年" + month + "月" + day + "日");

		// 顺序号
		String sno = cardNo.substring(14, cardNo.length() - 1);
		System.out.println("顺序号" + sno);

		// gender
		String sex = sno.substring(sno.length()-1);
		if(Integer.parseInt(sex)%2 == 1) {
			sex = "男";
		} else {
			sex = "女";
		}
		System.out.println("性别:" + sex);
		
	}

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Java API方式的MapReduce是Hadoop中最常用的方式之一,MapReduce是一种分布式计算模型,可用于对大规模数据进行处理和分析。下面是一个使用Java API方式的MapReduce的练习: 假设我们有一个文本文件,其中包含一些单词和它们出现的次数,我们需要编写一个程序来统计每个单词出现的次数。我们可以使用MapReduce来完成这个任务。 1. 创建一个Java项目,并添加Hadoop依赖。 2. 创建一个Java类来实现Mapper接口。在这个类中,我们需要实现map()方法,这个方法将会接收到输入键值对,即每行文本内容和行号。我们需要将文本内容切分成单个单词,并将每个单词作为键,将值设置为1,表示出现次数为1。 ```java public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable> { private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); StringTokenizer tokenizer = new StringTokenizer(line); while (tokenizer.hasMoreTokens()) { word.set(tokenizer.nextToken()); context.write(word, one); } } } ``` 3. 创建一个Java类来实现Reducer接口。在这个类中,我们需要实现reduce()方法,这个方法将会接收到键值对列表,每个键值对中的键为单词,值为出现次数。我们需要将每个单词的出现次数加起来,并将结果作为值输出。 ```java public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable> { private IntWritable result = new IntWritable(); public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int sum = 0; for (IntWritable val : values) { sum += val.get(); } result.set(sum); context.write(key, result); } } ``` 4. 在主方法中,我们需要设置Job信息,并将Mapper和Reducer类设置为Job的输入和输出。还需要设置输入文件和输出文件的路径信息。 ```java public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); Job job = Job.getInstance(conf, "word count"); job.setJarByClass(WordCount.class); job.setMapperClass(WordCountMapper.class); job.setCombinerClass(WordCountReducer.class); job.setReducerClass(WordCountReducer.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); System.exit(job.waitForCompletion(true) ? 0 : 1); } ``` 5. 在命令行中运行程序,并指定输入文件和输出文件的路径信息。 ```bash hadoop jar WordCount.jar /input /output ``` 以上就是使用Java API方式的MapReduce的练习,通过这个练习,我们可以更深入地了解MapReduce的实现原理和使用方法,同时也能更好地掌握Hadoop的使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值