java上传图片到服务器,并返回可访问图片的url地址

在日常开发项目中,图片上传下载是经常调用的接口也是必不可少的。

首先调用文件上传接口,将文件上传到自己想要上传的本地地址中,在这里方便演示,就选取将图片上传到java项目的resource路径下upload文件中。

controller层接口代码 :
/**
 * 图片上传到resource路径下 upload文件中
 * @param file
 * @return
 * @throws IOException
 */
@PostMapping("/uploadImage")
public String uploadImage(MultipartFile file) throws IOException {
    //获取上传图片全名
    String filename = file.getOriginalFilename();
    //截取图片后缀名
    String s = filename.substring(filename.lastIndexOf("."));
    //使用UUID拼接文件后缀名 防止文件名重复 导致被覆盖
    String replace = UUID.randomUUID().toString().replace("-", "")+s;
    //创建文件 此处文件路径为项目resource目录下upload文件中
注:不知道resource路径 可以右键resource文件选择Cpoy Path/Reference 后点击选择Path From repository Root即可
    File file1 = new File(System.getProperty("user.dir") + "/springboot/src/main/resources/upload/" + replace);
    //判断文件的父文件夹是否存在 如果不存在 则创建
    if (!file1.getParentFile().exists()){
        file1.getParentFile().mkdirs();
    }
    file.transferTo(file1);
    System.out.println(file1.getAbsolutePath());
    //返回文件访问路径
这里是在配置类中配置的访问路径,访问项目中的文件需要ip和端口号才能访问到具体的程序
    return "http://localhost:9090/upload/"+filename;
}

接着需要配置静态资源过滤器,将你想要的文件访问路径映射为实际图片存储的位置,在这里 就是将返回的访问路径("http://localhost:9090/upload/"+filename)映射为实际存储的位置(UUID.randomUUID().toString().replace("-", "")+s)里:配置类代码如下:

/**
 * 配置静态资源过滤器
 * @param registry
 */
@Override
protected void addResourceHandlers(ResourceHandlerRegistry registry) {
    //设置访问 addResourceHandler中的虚拟路径 被映射到 addResourceLocations真实路径中
    registry.addResourceHandler("/upload/**")
            .addResourceLocations("file:"+System.getProperty("user.dir") + "/springboot/src/main/resources/upload/");

super.addResourceHandlers(registry);

}

调用接口,上传图片结果如下:

  • 34
    点赞
  • 42
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
如果您下载了本程序,但是该程序无法运行,或者您不会部署,那么您可以选择退款或者寻求我们的帮助(如果找我们帮助的话,是需要追加额外费用的) 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
如果您下载了本程序,但是该程序存在问题无法运行,那么您可以选择退款或者寻求我们的帮助(如果找我们帮助的话,是需要追加额外费用的)。另外,您不会使用资源的话(这种情况不支持退款),也可以找我们帮助(需要追加额外费用) 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
如果您下载了本程序,但是该程序无法运行,或者您不会部署,那么您可以选择退款或者寻求我们的帮助(如果找我们帮助的话,是需要追加额外费用的) 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
如果您下载了本程序,但是该程序无法运行,或者您不会部署,那么您可以选择退款或者寻求我们的帮助(如果找我们帮助的话,是需要追加额外费用的) 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
如果您下载了本程序,但是该程序无法运行,或者您不会部署,那么您可以选择退款或者寻求我们的帮助(如果找我们帮助的话,是需要追加额外费用的) 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
### 回答1: 在使用Java上传图片服务器返回下载URL的过程中,可以按照以下步骤进行操作: 1. 首先,需要使用Java的文件操作相关类和网络编程相关类,例如可以使用java.io.File类和java.net.HttpURLConnection类。 2. 从本地计算机上选择要上传的图片文件,并利用File类创建一个File对象,指向该文件。 3. 创建一个URL对象,指向服务器URL地址,如http://www.example.com/upload.php。 4. 打开一个HttpURLConnection连接,使用该连接与服务器进行通信。 5. 设置连接的请求方法为POST,以向服务器发送数据。 6. 设置连接的参数和请求头,如设置请求头的Content-Type为multipart/form-data,并设置其他相关的请求头信息。 7. 创建一个DataOutputStream对象,通过该对象将文件数据写入连接的输出流中,实现文件的上传。 8. 通过连接的输入流获取服务器的响应数据,这里可以通过读取InputStream流将返回的数据进行读取。 9. 解析服务器返回的响应数据,可以是一个包含了上传文件的下载URL的字符串。 10. 关闭连接,释放资源。 可以使用Apache HttpClient、OkHttp等第三方库来简化网络请求操作,这些库提供了更方便的方法和接口,可以简化代码的编写和优化性能。 需要注意的是,服务器端也需要有相应的代码来接收上传的图片文件,保存到指定位置,并返回下载URL给客户端。具体的实现方式取决于服务器端的开发环境和框架。 以上是一种较为常见的实现方式,具体的实现细节和代码结构可能会有所不同,根据实际需求进行相应的调整。 ### 回答2: 在Java中实现图片上传服务器返回下载URL的过程如下: 1. 首先,你需要使用Java的文件上传技术将本地图片上传服务器。可以使用Apache的HttpClient库发送HTTP POST请求来实现文件上传。具体步骤如下: - 创建一个`HttpClient`对象。 - 创建一个`HttpPost`对象,并设置请求的URL。 - 创建一个`MultipartEntityBuilder`对象,用于构建包含文件和其他参数的请求实体。 - 使用`addBinaryBody`方法将要上传的图片添加到请求实体中,同时可以设置图片的MIME类型和文件名。 - 可选地,可以使用`addTextBody`方法添加其他参数。 - 将请求实体设置给`HttpPost`对象。 - 发送`HttpPost`请求,并获取响应。 2. 在服务器端,你需要根据接收到的文件,将其保存到指定位置。你可以使用Java的Io技术来实现文件的保存。 3. 保存文件后,你需要为该文件生成一个可访问的下载URL。你可以使用服务器URL和保存的文件路径拼接而成的URL作为下载URL。 注意事项: - 上传图片时,需要确保服务器端有足够的存储空间,并且对上传文件的大小进行限制,以防止过大的文件拖慢服务器性能。 - 在上传图片之前,可以在客户端对图片的大小和类型进行校验,以提前减少无效的上传操作。 - 保存文件之后,为了能够让其他人可以访问到该文件,可能需要对保存的文件进行权限设置。 - 在生成下载URL时,建议使用绝对路径而不是相对路径,以避免由于路径变动导致无法正常访问文件的问题。 以上就是用Java实现图片上传服务器返回下载URL的基本步骤。具体的代码实现可以根据具体的开发框架和需求进行调整。 ### 回答3: 要实现在Java上传图片服务器返回下载URL的功能,可以使用如下的步骤: 1. 创建一个Java后台服务器,用于接收客户端上传的图片文件。 2. 在前端(例如HTML页面)中,使用表单来上传图片文件。 3. 在Java后台服务器上,使用Java的Servlet或Spring MVC等框架来处理文件上传请求。 4. 在Java后台服务器上,可以使用Apache Commons FileUpload或其他相应的库来处理文件上传。 5. 在Java后台服务器中,将接收到的图片文件保存到指定的服务器文件夹中。 6. 可以为每个上传的图片文件生成一个唯一的文件名,以避免重名的冲突。 7. 将保存在服务器文件夹中的图片文件的路径和文件名返回给客户端。 8. 客户端可以使用返回的路径和文件名来拼接成完整的下载URL。 9. 客户端可以通过浏览器或其他HTTP请求方式来下载这个图片。 10. 当需要下载图片时,客户端可以使用下载URL来获取服务器上的图片。 总结,要实现在Java上传图片服务器返回下载URL,需要在前后端之间进行数据的传递,并在服务器端进行相应的文件处理,最后返回文件的路径和文件名给客户端。这样客户端可以通过拼接路径和文件名来获取服务器上的图片

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值