我有一个用Java编写的servlet,它接受一个需要保存在MongoDb / GridFS中的多部分形式的发布文件。我已经有了为此工作的代码。
这是一个代码片段,显示了如何使用org.apache.commons.fileupload包完成它。它几乎不消耗任何内存,因为它不会在内存中保留太多数据。
ServletFileUpload upload = new ServletFileUpload();
FileItemIterator iter = upload.getItemIterator(req);
while (iter.hasNext()) {
FileItemStream item = iter.next();
String name = item.getFieldName();
InputStream stream = item.openStream();
if (item.isFormField()) {
toProcess.put(name, Streams.asString(stream));
} else {
String fileName = item.getName();
String contentType = item.getHeaders().getHeader("Content-Type");
GridFSUploadOptions options = new GridFSUploadOptions()
// .chunkSizeBytes(358400)
.metadata(new Document("content_type", contentType));
ObjectId fileId = gridFSFilesBucket.uploadFromStream(fileName, stream, options);
fileIds.add(fileId);
fileNames.add(fileName);
}
我还需要计算所有文件的sha1哈希值。 Apache digestutils可用于此目的。它有一个方法可以计算流上的sha1:
我的问题是这个方法完全消耗了流。我需要将输入流分成两部分。将一部分输入SHA-1计算,将另一部分输入GridFS存储桶。
我怎样才能做到这一点?我正在考虑创建自己的“管道”,它具有输入和输出流,转发所有数据,但动态更新摘要。
我只是不知道如何开始写这样的管道。