java数据到txt文件中_java存储数据到本地txt文件中

java存储数据,方便打印日志等

1、会覆盖以前的数据

try {

file writename = new file("d:\\data.txt"); // 相对路径,如果没有则要建立一个新的output.txt文件

if(!writename.exists()) {

writename.createnewfile(); // 创建新文件,有同名的文件的话直接覆盖

}

filewriter writer = new filewriter(writename);

bufferedwriter out = new bufferedwriter(writer);

out.write(data);

out.flush(); // 把缓存区内容压入文件

} catch (ioexception e) {

e.printstacktrace();

}

2、接下一行存储,数据不覆盖

try {

file file = new file("d:\\data.txt");

if(!file.exists()) {

file.createnewfile(); // 创建新文件,有同名的文件的话直接覆盖

}

fileoutputstream fos = new fileoutputstream(file,true);

outputstreamwriter osw = new outputstreamwriter(fos);

bufferedwriter bw = new bufferedwriter(osw);

bw.write(data);

bw.newline();

bw.flush();

bw.close();

osw.close();

fos.close();

}catch (filenotfoundexception e1) {

e1.printstacktrace();

} catch (ioexception e2) {

e2.printstacktrace();

}

如您对本文有疑问或者有任何想说的,请点击进行留言回复,万千网友为您解惑!

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在 Java ,使用 MapReduce 输出数据并保存到本地可以使用 `FileOutputFormat` 类。 首先,需要设置输出路径,可以使用 `FileOutputFormat.setOutputPath(job, new Path(outputPath))` 方法来设置。其,`job` 是一个 `Job` 对象,表示 MapReduce 任务,`outputPath` 是输出路径的字符串。 然后,在 MapReduce 程序的 Reducer 类,可以使用 `context.write(key, value)` 方法将结果输出。其,`context` 是一个 `Reducer.Context` 对象,`key` 和 `value` 是输出的键值对。 例如,以下是一个简单的 MapReduce 程序,使用 MapReduce 计算文本文件单词出现的次数,并将结果保存到本地文件: ```java import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; public class WordCount { public static class WordCountMapper extends Mapper<Object, Text, Text, IntWritable> { private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(Object key, Text value, Context context ) throws IOException, InterruptedException { String[] words = value.toString().split(" "); for (String w : words) { word.set(w); context.write(word, one); } } } public static class WordCountReducer extends Reducer<Text,IntWritable,Text,IntWritable> { private IntWritable result = new IntWritable(); public void reduce ### 回答2: MapReduce是一种用于处理大规模数据集的并行计算框架,它可以帮助我们高效地处理和分析海量数据。而要将Java程序输出的MapReduce结果保存到本地,我们可以采用以下方法: 首先在Java程序,我们需要按照MapReduce的结构编写Mapper和Reducer。Mapper负责将输入数据分割成可供处理的小块,然后生成键值对序列作为间结果。而Reducer则负责将Mapper生成的间结果进行合并、计算和输出。设置好Mapper和Reducer之后,我们可以通过Java的MapReduce库来进行调用。 在MapReduce的输出过程,我们可以将结果保存到本地文件系统。在Java程序,我们可以使用FileWriter或者BufferedWriter等类来创建一个输出文件,并将输出结果写入到文件。在Reducer,每当一个键值对完成处理时,将结果写入到输出文件。 同时,为了方便读取结果文件,我们可以将输出结果保存在本地的特定路径下。通常情况下,输出路径可以直接指定为运行程序时的命令行参数,或者根据程序需要进行配置。设置好输出路径后,在MapReduce程序运行结束之后,我们就可以在本地文件系统找到输出结果文件了。 总结起来,要使用Java的MapReduce框架输出数据并保存到本地,我们需要在程序编写Mapper和Reducer,并设置输出路径来保存结果文件。通过以上步骤,我们就能够在本地成功保存MapReduce的输出结果了。 ### 回答3: Java使用MapReduce框架进行数据处理和分析,并将结果保存到本地可以通过以下步骤实现: 1. 导入必要的Java库和MapReduce相关的类,如`org.apache.hadoop.mapreduce`和`org.apache.hadoop.conf.Configuration`等。 2. 创建一个`Configuration`对象,并设置相关的Hadoop配置,如输入和输出路径、文件系统等。 3. 创建一个`Job`对象,将配置对象传递给它,并设置相关的作业信息,如作业名称、输入路径、输出路径等。 4. 设置MapReduce作业的输入格式和输出格式,可以使用Hadoop的`TextInputFormat`和`TextOutputFormat`等类。 5. 设置Mapper和Reducer类,分别实现`Mapper`和`Reducer`接口,并在`job`对象进行相关设置。 6. 如果需要使用Combiner,可以设置相关设置,并创建一个实现`Reducer`接口的Combiner类。 7. 提交作业给Hadoop集群,等待作业完成。 8. 在作业完成后,通过`job.waitForCompletion(true)`来检查作业的执行状态。 9. 在主函数使用`FileSystem`来读取MapReduce作业的输出文件,并将数据保存到本地。 总结起来,使用Java的MapReduce框架进行数据处理并将结果保存到本地的关键步骤包括:配置Hadoop环境、设置作业信息、实现Mapper和Reducer类、设置输入输出格式和路径、提交作业并等待作业完成、读取输出文件并保存到本地
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值