python通过URL对关键字相关数据爬取

该例子:将实现轻量级的数据爬取(不需要登录的全页面数据)–【百度百科(pathon)词条相关的1000个页面数据】

简介:爬虫是对一个URL为入口,与其相关联的URL中的数据,将进行自动抓取互联网信息的程序。
价值:1、利于自行的数据分析2、可以将数据分类对外提供专业数据信息
1、简单爬虫架构

  1. 爬虫架构流程

爬虫调度端---->URL管理器< -------------- >网页下载器< ------------------- 万业解析器 >--------------价值数据
2 爬虫架构动态流程
图片地址--我的博客园
2、URL管理器
管理带爬去URL集合和已抓取URL集合(防止重复抓取、防止循环抓取)
实现方式:
python内存 mysql数据库 redis缓存数据库
带爬取URL集合:set() 一张表(url,id) set
已爬取URL集合:set() set
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eITwl9US-1571590263248)(https://img2018.cnblogs.com/blog/1590744/201910/1590744-20191021003015937-1024137984.png)]
3、网页下载器(urllib2)
(一):将URL对应的网页下载到本地的工具
(二):互联网《-----URL------HTML----》网页下载器(urllib2、requests工具)-------------------本地文件或内存字符串
(一):urllib2:(实现方法)
第一种:1、导入包2、直接请求3、获取请求状态码4、读取内用
第二种(data,http header):1、url与data与header----》urllib2.Request----------->urllib2.urlopen(request)
1、倒包2、差U关键爱你request对象3、添加数据4、添加http的header信息5、发送请求获取的结果
第三种:不同场景下的处理器
需要登录的:HTTPCookieProcessor
需要代理里的:ProxyHandler
需要加密的SSL:HTTPSHandler
存在相互自动跳转的关系:HTTPRedirectHandler
在这里插入图片描述
在这里插入图片描述
4、网页解析器(BeautifulSoup)

5、核心代码

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
下面是一个使用Python编写的示例代码,可以根据关键字从百度图片搜索中爬取图片: ```python import requests import os def download_images(keyword, num_images): url = 'http://image.baidu.com/search/flip' params = { 'tn': 'baiduimage', 'word': keyword, 'pn': 0, 'rn': 30, 'gsm': '3c', } headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3', 'Referer': 'http://image.baidu.com', } try: os.makedirs(keyword) except OSError as e: if e.errno != 17: raise for i in range(0, num_images, 30): params['pn'] = i resp = requests.get(url, params=params, headers=headers) resp.raise_for_status() data = resp.json() for j, img in enumerate(data['data']): try: img_url = img['objURL'] img_resp = requests.get(img_url, timeout=10) img_resp.raise_for_status() with open(os.path.join(keyword, f'{i + j}.jpg'), 'wb') as f: f.write(img_resp.content) print(f'Successfully downloaded {i + j}.jpg') except Exception as e: print(f'Error occurred while downloading {i + j}.jpg: {str(e)}') if __name__ == '__main__': keyword = input('Enter keyword: ') num_images = int(input('Enter number of images to download: ')) download_images(keyword, num_images) ``` 请注意,此代码使用了requests库来发送HTTP请求,因此您需要确保已安装该库。此外,代码中使用了os和json库来处理文件和JSON数据。在运行代码之前,请确保您已安装这些库。 使用此代码,您可以输入要搜索的关键字和要下载的图像数量,然后它将从百度图片搜索中爬取图像并保存到以关键字命名的文件夹中。请注意,爬取图片可能会涉及到版权问题,请确保遵守相关法律法规。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

知青先生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值