如何用python抓数据,python如何抓数据

大家好,小编来为大家解答以下问题,如何用python抓数据,python如何抓数据,今天让我们一起来看看吧!

前言

采集目标
图片.png

工具准备

开发工具:pycharm
开发环境:python3.7, Windows11使用工具包:requests

项目思路解析

做爬虫案例首先需要明确自己的采集目标,白又白这里采集的是当前网页的所有图片信息,有目标后梳理自己的代码编写流程,爬虫的基本四步骤:

  • 第一步:获取到网页资源地址* 第二步:对地址发送网络请求* 第三步:提取对应数据信息
    • 提取数据的方式一般有正则、xpath、bs4、jsonpath、css选择器* 第四步:保存数据信息
第一步:找数据地址

数据的加载方式一般有两种,一种静态一种动态,当前网页的数据在往下刷新时不断的加载数据,可以判断出数据加载的方式为动态的,动态数据需要通过浏览器的抓包工具获取,鼠标右击点击检查,或者按f12的快捷方式,找到加载的数据地址

image

找到对应数据地址,点击弹出的接口后可以点击预览,预览打开的页面是展示给我们的数据,在数据多的时候通过他来进行查看,获取的数据是通过网址获取的,网址数据在请求里,对网址发送网络请求

第二步:代码发送网络请求

发送请求的工具包会非常多,入门阶段更多的是使用requests工具包,requests是第三方工具包,需要进行下载:pip install requests 发送请求时需要注意我们通过代码请求,web服务器会根据http请求报文来进行区分是浏览器还是爬虫,爬虫不受欢迎的,爬虫代码需要对自己进行伪装,发送请求时带上headers传输的数据类型为字典键值对,ua字段是非常重要的浏览器的身份证

第三步:提取数据

当前获取的数据为动态数据,动态数据动态数据一般都是json数据,json数据可以通过jsonpath直接提取,也可以直接转换成字典,通过Python提取最终的目的是提取到图片的url地址

image

提取出新的地址后需要再次对网址发送请求,我们需要的是图片数据,链接一般是保存在数据中,发送请求获取图片对应的进制数据

第四步: 保存数据

数据获取到之后将数据进行储存,选择自己数据储存的位置,选择写入方式,我们获取的数据是进制数据,文件访问模式用的wb,将获取到的图片进入数据写入就行,文件的后缀需要是图片结尾的后缀,可以选择用标题命名,白又白使用网址后部分进行命名。对于新手小白想更轻松的学好Python基础,Python爬虫,web开发、大数据,数据分析,人工智能等技术,这里给大家分享系统教学资源,联系我魏X: 762459510 【教程/工具/方法/解疑】

简易源码分享

import requests 
# 导入请求的工具包import re 
# 正则匹配工具包
# 添加请求头headers = { 
# 用户代理 "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36", 
# 请求数据来源 
# "Referer": "https://tupian.baidu.com/search/index", 
# "Host": "tupian.baidu.com"}key = input("请输入要下载的图片:")
# 保存图片的地址path = r"图片/"
# 请求数据接口for i in range(5, 50): url = "https://image.baidu.com/search/acjson?tn=resultjson_com&logid=12114112735054631287&ipn=rj&ct=201326592&is=&fp=result&fr=&word=%E7%8C%AB%E5%92%AA&queryWord=%E7%8C%AB%E5%92%AA&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=-1&z=&ic=&hd=&latest=&copyright=&s=&se=&tab=&width=&height=&face=0&istype=2&qc=&nc=1&expermode=&nojc=&isAsync=&pn=120&rn=30&gsm=78&1635836468641=" 
# 发送请求 response = requests.get(url, headers=headers) print(response.text) 
# 正则匹配数据 url_list = re.findall('"thumbURL":"(.*?)",', response.text) print(url_list) 
# 循环取出图片url 和 name for new_url in url_list: 
# 再次对图片发送请求 result = requests.get(new_url).content 
# 分割网址获取图片名字 name = new_url.split("/")[-1] print(name) 
# 写入文件 with open(path + name, "wb")as f: f.write(result)
  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值