Spider-flow开源爬虫的二次开发Oss上传

在此,特别感谢开源网站Spiderflow 开源爬虫软件

Gitee:spider-flow

虽然看不懂源码,但是根据个人需要

原来的开源Oss插件中

为了不在爬虫设置中写死上传后的文件名

便做了部分二次开发

源代码为:

增加了一个方法是不需要传filePath

这样,我上传完后的filePath就可以根据上传时间+原文件名而生成,从而实现相关功能

public static OssFile ossUpload(String url,String ossId) throws Exception {
		Oss oss = ossService.getOss(ossId);
		if(null != oss) {
			URL urlObj = null;
			try {
				System.out.println(url);
				urlObj = new URL(url);
				DataInputStream dataInputStream = new DataInputStream(urlObj.openStream());
				ByteArrayOutputStream swapStream = new ByteArrayOutputStream();
				byte[] buff = new byte[100];
				//buff用于存放循环读取的临时数据
				int rc = 0;
				while ((rc = dataInputStream.read(buff, 0, 100)) > 0) {
					swapStream.write(buff, 0, rc);
				}
				String filePath =  (MinioUtil.getOriginalFileName(url));
				String contentType = MediaTypeFactory.getMediaType(filePath).orElse(MediaType.APPLICATION_OCTET_STREAM).toString();
				filePath = MinioUtil.extractFilename(filePath,contentType);
				byte[] in_b = swapStream.toByteArray(); //in_b为转换之后的结果
				OssFile ossFile = MinioUtil.uploadFileToMinio(oss, in_b, filePath);
				ossFile.setOriginUrl(url);
				ossFile.setCreateDate(new Date());
				ossFileService.save(ossFile);
				return ossFile;
			} catch (IOException e) {
				e.printStackTrace();
			}

		}
		return null;
	}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Spider-Flow是一种基于Python的网络爬虫框架,允许用户非常方便地创建、调度和管理各种网络爬虫任务。通过Spider-Flow,用户可以定制自己的爬虫任务,快速地抓取和处理互联网上的数据。 Spider-Flow具有以下几个特点和功能: 1. 强大的可视化界面:Spider-Flow提供了一个直观且友好的可视化界面,用户可以通过拖拽、连接图形化组件来创建和管理爬虫任务,无需编写复杂的代码。 2. 多线程调度:Spider-Flow基于多线程技术,可以同时运行多个爬虫任务,提高爬取效率和速度。 3. 可扩展性:Spider-Flow支持插件式开发,用户可以根据自己的需求编写或安装插件,扩展框架的功能。 4. 数据清洗和处理:Spider-Flow提供了丰富的数据处理组件和函数库,用户可以对爬取到的数据进行清洗、筛选、转换等操作,方便地提取有用信息。 5. 数据导出和存储:Spider-Flow支持将爬取到的数据导出到多种格式,如CSV、Excel、数据库等,方便用户进行进一步的分析和使用。 Spider-Flow的使用步骤如下: 1. 安装配置:首先,用户需要安装Python和Spider-Flow框架,并进行相应的配置。 2. 创建项目:在Spider-Flow界面中,用户可以创建一个新的爬虫项目,并设置相关的参数和配置。 3. 编辑爬虫任务:用户可以从组件库中选择需要的组件,然后将其拖拽到任务编辑区域,并设置相应的参数和连接。 4. 编辑数据处理:用户可以在爬虫任务完成后,通过添加数据处理组件来清洗和处理爬取到的数据。 5. 运行任务:设置好全部的任务和参数后,用户可以点击运行按钮,启动爬虫任务的执行。 6. 导出和存储数据:当爬虫任务完成后,用户可以选择将数据导出到指定的格式,或直接存储到数据库中。 总之,Spider-Flow是一种方便快捷的网络爬虫框架,用户可以通过简单的拖拽和配置,创建并管理自己的爬虫任务,并方便地处理和存储爬取到的数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值