爬虫爬取多个不相同网页

这是一个Python爬虫项目,目标是爬取5个时尚网站的文章信息,包括标题、正文、图片链接和时间。代码示例展示了如何使用requests和BeautifulSoup库解析GBK编码的页面,提取指定类别的文本和图片数据。
摘要由CSDN通过智能技术生成

任务四

‘’’
本任务要求大家完成一个简单的爬虫项目,包括网页爬取、信息提取以及数据保存
在完成本次任务时,建议大家认真思考,结合自己的逻辑,完成任务。
注意:本任务的得分将按照任务提交时间的先后顺序与任务正确率结合来计算,
由于每位同学的题目都不相同,建议不要抄袭,一旦发现抄袭情况,本次任务判为0分’’’
from typing import Any, Tuple

‘’’
第一题:请使用爬虫技术,爬取以下5个url地址的网页信息,并进行关键信息提取。
从爬取到的页面源码中提取下列4种信息:
1.文章标题
2.正文内容(注意,只提取文章的文本内容,不得提取页面中其他无关的文本内容)
3.图片链接(如果有)
4.时间、日期(如果有)’’’
#你分配到的url为:url = [‘http://fashion.cosmopolitan.com.cn/2019/1020/287733.shtml’,‘http://dress.pclady.com.cn/style/liuxing/1003/520703.html’,‘http://www.smartshe.com/trends/20191009/56414.html’,‘https://dress.yxlady.com/202004/1560779.shtml’,‘http://www.yoka.com/fashion/roadshow/2019/0513/52923401100538.shtml’]
url1 =‘http://fashion.cosmopolitan.com.cn/2019/1020/287733.shtml’;url2 = ‘http://dress.

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值