在做爬虫的时候,有时候需要下载爬到连接的URL。
比如:String url =“
如果使用Filefile =newFile(url );
发现file处理后成了:http:\www.kaigejava.com\uplode\pdf\xxxxx.pdf
然后使用file的判断方法。提示获取不到。
那么使用java的file对象怎么获取网络资源?
代码如下:
public class FileTests {
public static void main(String args) throws Exception {
StringfileName= "d96c6dcfda2559c5865db89388d28cbf.pdf";
String fileUrl = "http://10.10.10.242:82/xxx/files/d96c6dcfda2559c5865db89388d28cbf.pdf";
String downPath = "C:\\Users\\kaigejava\\Desktop\\xss";
downUrlTxt(fileName,fileUrl,downPath);
}
public static void downUrlTxt(String fileName,String fileUrl,String downPath){
File savePath = new File(downPath);
if (!savePath.exists) {
savePath.mkdir;
}
String urlname &#