网络爬虫之Ajax动态数据采集

动态数据采集

规则

        有时候我们在用 requests 抓取页面的时候,得到的结果可能和在浏览器中看到的不一样,在浏览器中可以看到正常显示的页面教据,但是使用 requests 得到的结果并没有,这是因为requests 获取的都是原始的 HTML 文档,而浏览器中的页面则是经过 JavaScript 处理数据后生成的结果,这些数据的来源有多种,可能是通过 Ajax 加载的,可能是包含在 HTML 文档中的,也可能是经过 avaScript 和特定算法计算后生成的。
对于第一种情况,数据加载是一种异步加载方式,原始的页面最初不会包含某些数据,原始页面加载完后,会再向服务器请求某个接口获取数据,然后数据才被处理从而呈现到网页上,这其实就是发送了一个 Ajax 请求。
        照 Web 发展的趋势来看,这种形式的页面越来越多。网页的原始 HTML 文档不会包含任何数据,数据都是过 Ajax 统一加载后再呈现出来的,这样在 We 开发上可以做到前后端分离,而且降低服务器直接渲染页面带来的压力。
        所以如果遇到这样的页面,直接利用 requests 等库来抓取原始页面,是无法获取到有效数据的,这时需要分析网页后台向接口发送的Ajax 请求,如果可以用 requests 来模拟 Aiax 请求,那么就可以成功抓取了所以,本章我们的主要目的是了解什么是 Ajax 以及如何去分析和抓取 Ajax 请求。

什么是Ajax

        Ajax,全称为 Asynchronous JavaScript and XML,即异步的avaScript 和 XML,它不是-门编程语言,而是利用JavaScript在保证页面不被刷新、页面链接不改变的情况下与服务器交换数据并更新部分网页的技术。
        对于传统的网页,如果想更新其内容,那么必须要刷新整个页面,但有了 Ajax,便可以在页面不被全部刷新的情况下更新其内容。在这个过程中,页面实际上是在后台与服务器进行了数据交互,获取到数据之后,再利用JavaScript 改变网页,这样网页内容就会更新了。

手写Ajax接口

环境搭建

pip install flask

一个简单请求过程

通俗地说,路由(Routing)就像是一种地图,告诉服务器当用户访问一个特定的 URL 地址时该如何响应。在 Web 开发中,路由是将浏览器中的 URL 映射到后端应用程序中的一种功能或代码块的机制。

API 是“应用编程接口”(Application Programming Interface)的缩写。它是一套预定义的规则和协议,用于构建和集成软件应用程序。简单来说,API 是一种使得不同软件组件之间可以相互沟通的方式。

Web API:通常指的是通过HTTP协议为Web服务器和客户端或者两个在线服务之间提供数据交换的接口。例如,天气服务的API可以允许开发者获取天气预报数据。

在Web开发中,视图通常指的是用户请求特定URL时服务器返回的页面。例如,在一个Web应用中,服务器可能会根据用户请求的不同路径(比如/home/products)来提供不同的HTML内容。在Web框架中,视图还可以是模板,模板中的数据会由服务器动态填充,然后渲染成最终的HTML发送给客户端。

在Web开发领域,模板特指的是用于动态生成HTML页面的预设文件。这些模板文件包含了静态的HTML标记,以及用于插入动态内容的特殊模板标签或占位符。当服务器接收到一个请求时,它会结合模板和相关的数据来生成最终的HTML页面,然后发送给客户端。

例如,在Python的Flask框架中,模板可能会使用Jinja2模板引擎编写:

<!DOCTYPE html>
<html>
<head>
    <title>{{ title }}</title>
</head>
<body>
    <h1>Hello, {{ name }}!</h1>
</body>
</html>

在上面的例子中,{{ title }}{{ name }} 是模板变量,它们在渲染过程中会被实际的值所替换。

编写网络爬虫爬取蛋卷基金信息并存储

import requests
import pymysql

# 创建数据库连接
db = pymysql.connect(host='localhost', user='root', password='123456', port=3306)
cursor = db.cursor()
cursor.execute('use spiders')
def get_data():
    url = 'https://danjuanfunds.com/djapi/fund/growth/011102?day=1m'
    headers = {
        'User-Agent':'111222333444'
    }
    resp = requests.get(url, headers=headers).json()
    data = resp.get('data')['fund_nav_growth']
    for item in data:
        date = item.get('date')  # 如果没有就返回 None
        value = item.get('value')
        than_value = item.get('than_value')
        print('日期:', date, '\n', '本产品:', value, '沪深:', than_value)
        # 保存数据到数据库
        save_data(date, value, than_value)

def save_data(date, value, than_value):
    sql = 'INSERT INTO funds(date, value, than_value) VALUES(%s, %s, %s)'
    cursor.execute(sql, (date, value, than_value))
    db.commit()  # 提交事务

# 获取并保存数据
get_data()

# 关闭光标和数据库连接
cursor.close()
db.close()

编写网络爬虫爬取虎牙信息并存储

import requests,pymysql

def conn_mysql():
    db = pymysql.connect(host='localhost',user='root',password='123456',database='spiders')
    cursor = db.cursor()
    return cursor,db
def get_date(url):
    resp = requests.get(url).json()
    dates = []
    try:
        date = resp.get('vList')
        for item in date:
            indurce = item.get('sIntroduction')
            author = item.get('sNick')
            home_numb = item.get('sGameHostName')
            # print('主播名:',author,'简介:',indurce,'房间号:',home_numb)
            dates.append([author,indurce,home_numb])
        save_date(dates)
    except Exception as e:
        print(e)
def save_date(data):
    cursor, db = conn_mysql()
    cursor.execute('use spiders')
    sql = 'insert into huya(author,indurce,home_numb) values(%s,%s,%s)'
    for d in data:
        print(d)
        try:
          cursor.execute(sql,(d[0],d[1],d[2]))
          db.commit()
        except Exception as e:
            print(e)
            db.rollback()
urls = []
for i in range(1,127):
    url = 'https://live.huya.com/liveHttpUI/getLiveList?iGid=0&iPageNo={}&iPageSize=120'.format(i)
    if url not in urls:
        urls.append(url)
for url in urls:
    print(i)
    get_date(url)

  • 35
    点赞
  • 44
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
网络矿工是一款基于.Net平台的开源软件,也是网站数据采集软件类型中唯一一款开源软件。尽管开源,但并不会影响软件功能的提供,甚至要比一些商用软件的功能还要丰富。当前提供的主要功能如下: 1. 多任务多线程数据采集,支持POST方式; 2. 可采集Ajax页面; 3. 支持Cookie,支持手工登录采集数据; 4. 支持采集事务; 5. 支持数据自动及手工导出,导出格式为:文本、Excel、Access、MSSql、Mysql等; 6. 支持在线发布数据; 7. 支持导航网址的采集,导航深度不限; 8. 支持自动翻页; 9. 支持文件下载,可以采集图片、Flash及其他文件; 10. 支持采集结果数据的加工,包括替换、附前缀后缀、截取等操作,支持正则; 11. 采集网址定义不仅支持基本参数定义,也可外接字典数据作为网址参数,进行数据采集; 12. 支持一个任务多实例运行; 13. 提供计划任务,计划任务支持Soukey采集任务、外部可执行文件任务、数据库存储过程任务; 14. 计划任务执行周期支持每天、每周及自定义运行间隔;最小单位为:半小时; 15. 支持任务触发器,即可在采集任务完成后,自动触发执行其他任务(包括可执行文件或存储过程)。 16. 完善的日志功能:系统日志、任务执行日志、出错日志等等; 17. 系统提供MINI浏览器可用于捕获Cookie或POST数据。 ........ 授权协议BSD 代码更新:2013-05-02 版本1.61
好的,您想了解关于Python爬取豆瓣小组动态网页话题数据的相关内容,是吗?那我来简单介绍一下。 豆瓣小组的话题数据是通过Ajax动态加载的,因此我们需要模拟浏览器发送Ajax请求,获取动态数据。具体的实现过程可以分为以下几个步骤: 1. 解析动态网页的URL,获取Ajax请求的参数。 豆瓣小组话题数据的动态网页URL为:https://www.douban.com/group/topic/XXX/?start=YYY 其中,XXX为话题的ID,YYY为话题的起始位置。我们需要根据话题ID和起始位置构造Ajax请求的参数。 ```python import re import requests url = 'https://www.douban.com/group/topic/{}/?start={}' topic_id = '123456' # 话题ID start = 0 # 起始位置 ajax_url = url.format(topic_id, start) # 解析话题ID和起始位置 html = requests.get(url).text topic_id = re.search(r'topic/(\d+)/', html).group(1) start = 0 ajax_url = url.format(topic_id, start) ``` 2. 发送Ajax请求,获取动态数据。 ```python import json headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3', 'X-Requested-With': 'XMLHttpRequest' } response = requests.get(ajax_url, headers=headers) data = json.loads(response.text) ``` 其中,headers中添加了X-Requested-With字段,用于模拟Ajax请求。response是服务器响应的HTTP响应对象,data是响应内容的JSON格式。 3. 解析动态数据,提取话题内容。 ```python from bs4 import BeautifulSoup soup = BeautifulSoup(data['html'], 'html.parser') for topic in soup.find_all('tr', class_=''): # 遍历所有话题 title = topic.find('a', class_='title')['title'] # 话题标题 content = topic.find('p', class_='').get_text().strip() # 话题内容 author = topic.find('a', class_='').get_text().strip() # 话题作者 reply_time = topic.find('td', class_='time').get_text().strip() # 回复时间 reply_count = topic.find('td', class_='').get_text().strip() # 回复数 view_count = topic.find('td', class_='').get_text().strip() # 浏览数 ``` 其中,使用BeautifulSoup解析动态数据的HTML代码,通过find_all方法获取所有话题的tr元素,然后提取话题的标题、内容、作者、回复时间、回复数和浏览数等信息。 以上就是Python爬取豆瓣小组动态网页话题数据的基本步骤,具体的实现细节还需要根据具体的需求进行调整。希望能对您有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值