基于Http协议实现网络爬虫读取数据

一什么是Http协议

        HTTP就是目前使用最广泛的Web应用程序使用的基础协议,例如,浏览器访问网站, 手机App访问后台服务器,都是通过HTTP 协议实现的。HTTP 是HyperText Transfer Protocol的缩写,翻译为超文本传输协议,它是基于TCP协议之上的一种请求-响应协议。

        当浏览器希望访问某个网站时,浏览器和网站服务器之间首先建立TCP连接,且服务器总是使用80端口和加密端口443 ,然后,浏览器向服 务器发送一个HTTP请求,服务器收到后,返回一一个HTTP响应,并且在响应中包含了HTML 的网页内容,浏览器解析HTML后就可以给用户显示网页了。一个完整的HTTP 请求响应如下:

            GET / HTTP/1.1
            Host: www.sina.com.cn
            User-Agent: Mozilla/5 MSIE
            Accept: */*                ┌────────┐
┌─────────┐ Accept-Language: zh-CN,en  │░░░░░░░░│
│O ░░░░░░░│───────────────────────────>├────────┤
├─────────┤<───────────────────────────│░░░░░░░░│
│         │ HTTP/1.1 200 OK            ├────────┤
│         │ Content-Type: text/html    │░░░░░░░░│
└─────────┘ Content-Length: 133251     └────────┘
  Browser   <!DOCTYPE html>              Server
            <html><body>
            <h1>Hello</h1>
            ...

HTTP请求的格式是固定的,它由HTTP Header和HTTP Body 两部分构成。第一行总是请求方法 路径HTTP版本:例如,GET / HTTP/1.1表示使用GET请求,路径是/,版本是HTTP/1.1
后续的每一行都是固定的Header: Value格式,我们称为HTTP Header ,服务器依靠某些特定的Header来识别客户端请求,例如:
Host :表示请求的域名,因为一台服务器上可能有多个网站,因此有必要依靠Host 来识别请求是发日给哪个网站的。
User-Agent :表示客户端自身标识信息,不同的浏览器有不同的标识,服务器依靠User-Agent 判 断客户端类型是IE还是Chrome,是Firefox还是一个Python 爬虫;
Accept :表示客户端能处理的HTTP响应格式,*/* 表示任意格式,text/* 表示任意文本,image/png表示PNG格式的图片;
Accept-Language :表示客户端接收的语言,多种语言按优先级排序,服务器依靠该字段给用户返回特定语言的网页版本。

注意:
如果是GET 请求,那么该HTTP请求只有HTTP Header,没有 HTTP Body 。如果是POST请求,那么该请求,那就带有HTTP Body。

HTTP响应也是由Header和Body组成的。

HTTP/1.1 200 OK
Content-Type: text/html
Content-Length: 133251

<!DOCTYPE html>
<html><body>
<h1>Hello</h1>
...

下面使用java模拟对服务器的请求以及服务器的响应


		
		//模拟服务器使用TCP连接处理客户端的HTTP请求
		try (ServerSocket server = new ServerSocket(8080)) {
			
			while(true) {
				
				//获取客户端浏览器连接
				Socket browserClient = server.accept();
				
//				//读取客户端请求(request)
//				BufferedReader reader = new BufferedReader(new InputStreamReader(browserClient.getInputStream()));
//				String line = null;
//				
//				while((line = reader.readLine()) != null) {
//					System.out.println(line);
//				}
				
				//模拟服务器的响应(response)
				try(BufferedWriter writer = new BufferedWriter(new OutputStreamWriter(browserClient.getOutputStream()));) {
					
					//响应头
					writer.write("HTTP/1.1 200 OK");
					writer.newLine();
					writer.newLine();
					//响应内容
					writer.write(UUID.randomUUID().toString());
					
					
				} catch (Exception e) {
					// TODO Auto-generated catch block
					e.printStackTrace();
				}
				
				
			}
			
		} catch (IOException e) {
			
			e.printStackTrace();
		}
	}

二、HTTP编程之利用网络爬虫读取数据

1.利用爬虫读取单张图片

我们模拟爬出读取数据时,需要使用统一资源定位符URL,然后使用openConnection(),来打开连接,打开连接需要模拟用户来访问服务器,不能让服务器端发现我们是爬虫来读取数据,因此我们在请求的时候需要设置请求头的属性,之后使用“流”来读取图片,并保存在本地。

由于读取的是单张照片,读写操作时,直接使用字节流进行读取

示例代码:

try {
			//统一资源定位符
			URL url = new URL("https://img1.doubanio.com/view/photo/s_ratio_poster/public/p2874262709.webp");
			
			//打开连接
			HttpsURLConnection connection = (HttpsURLConnection)url.openConnection();
			
			//设置请求方式(GET)
			connection.setRequestMethod("GET");
			
			//设置请求Header属性
			connection.setRequestProperty("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.5060.114 Safari/537.36 Edg/103.0.1264.62");
			
			try(
				//读取图片
				BufferedInputStream bis = new BufferedInputStream(connection.getInputStream());
				//存储图片(写入输出图片的字节内容)
				BufferedOutputStream bos = new BufferedOutputStream(new FileOutputStream("d:\\test\\img\\" + System.currentTimeMillis() + ".webp"));){
		
				int len = -1;
				//边读边写
				byte[] buff = new byte[1024];
				
				while((len = bis.read(buff)) != -1) {
					
					bos.write(buff, 0, len);
				}
			}		
			
		} catch (MalformedURLException e) {
		
			e.printStackTrace();
		} catch (ProtocolException e) {
		
			e.printStackTrace();
		} catch (FileNotFoundException e) {
		
			e.printStackTrace();
		} catch (IOException e) {
		
			e.printStackTrace();
		}

2.利用爬虫读取网页全部图片

步骤与读取单张图片的步骤大致相似,不同的是URL就是当前网页的网址,进行读取时,使用的是字符流进行读取当前网页的HTML源码,通过纯字符串形式进行去除,然后只留下与图片相关的HTML标签,进行读取以及保存到本地。

示例代码:

try {
			//统一资源定位符
			URL movieHomeURL = new URL("https://movie.douban.com/");
			
			//打开连接
			HttpsURLConnection connection = (HttpsURLConnection)movieHomeURL.openConnection();
			
			//设置请求方式(GET)
			connection.setRequestMethod("GET");
			
			//设置请求Header属性
			connection.setRequestProperty("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.5060.114 Safari/537.36 Edg/103.0.1264.62");
			
			//读取网站源码
			BufferedReader reader = new BufferedReader(new InputStreamReader(connection.getInputStream(),StandardCharsets.UTF_8));
			
			String line = null;
			
			while((line = reader.readLine()) != null) {
				//去除空格
				line = 	line.trim();
				//判断当前行是否包含海报图片路径
				if(line.contains("https://img") && line.contains(".jpg") && line.startsWith("<img")) {

				//提取图片的路径src和电影名称alt
				//System.out.println(line);
										
				 int  beginIndex =line.indexOf("https://");
				 int  endIndex = line.indexOf(".jpg") + 4;
				 String src = line.substring(beginIndex, endIndex);
				 
				 beginIndex = line.indexOf("alt=") + 5;
				 endIndex = line.indexOf("\"",beginIndex);
				 String alt = line.substring(beginIndex, endIndex);
				
				//读取图片
				URL imageUrL = new URL(src);
				HttpsURLConnection imageConnection = (HttpsURLConnection)imageUrL.openConnection();
				
				try(BufferedInputStream in = new BufferedInputStream(imageConnection.getInputStream());
					BufferedOutputStream out = new BufferedOutputStream(new FileOutputStream("d:\\test\\img\\" + alt + ".jpg"));){
			
					//边读边写
					int len  = -1;
					byte[] buff = new byte[1024];
					
					while((len = in.read(buff)) != -1) {
						out.write(buff, 0, len);
					
						}
					}
				
				}	
			}
			
		} catch (MalformedURLException e) {
			
			e.printStackTrace();
		} catch (ProtocolException e) {
		
			e.printStackTrace();
		} catch (IOException e) {
		
			e.printStackTrace();
		}

使用纯字符串进行截取图片的html标签不太方便,这是我们就使用jsoup解析html。这是我们就需要手动导入jar包。

// 使用jsoup解析html
// JSOUP类:进行原始解析
// Document类:网页文档(包含解析到的所有标签
// Elements类:若干元素Element形成的集合(继承自ArrayList)
// Element类:某一个html元素
					String src = "", alt="";
					// 解析成Document对象
					Document doc = Jsoup.parse(line);
					// 从Document中获取名称为img的所有标签元素(Elements)
					// 从所有代表img的Elements元素集合中获取第一个

					Element imgElement = doc.getElementsByTag("img").get(0);
					
					// 获取img标签元素src属性和alt属性
					src = imgElement.attr("src");
					alt = imgElement.attr("alt");
					
					URL imageUrL = new URL(src);
					HttpsURLConnection imageConnection = (HttpsURLConnection)imageUrL.openConnection();
					

  • 6
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值