aiohttp保存MySQL_基于asyncio、aiohttp、xpath的异步爬虫

本文介绍了一个使用asyncio和aiohttp编写的异步爬虫,它能读取CSV文件中的爬取规则,根据规则从多个网站抓取健康相关数据,然后保存到MySQL数据库。爬虫利用xpath解析HTML,处理数据,去除style样式标签,同时具备自动处理不同网站结构的能力。代码中还包含了数据库连接配置及csv规则文件读取功能。
摘要由CSDN通过智能技术生成

今天介绍一下基于asyncio和aiohttp的异步爬虫的编写,解析html用的是xpath。

该爬虫实现了以下功能:

1.读取csv文件中的爬取规则,根据规则爬取数据;代码中添加了对3个网站的不同提取规则,如有需要,还可以继续添加;

2.将爬取到的数据保存到mysql数据库中。

通过输入问题,该爬虫能爬取关于健康方面的数据。

具体代码如下:

# coding:utf-8

"""

async-apiser xpath

"""

from lxml import etree

import csv

import re

import os

import asyncio

import aiohttp

import aiomysql

from datetime import datetime

from config import Config

class HealthSpider(object):

def __init__(self, user_id, keyword, url, hrule, drule, count, trule):

self.user_id = user_id

self.keyword = keyword

self.url = url

self.hrule = hrule

self.drule = drule

self.count = count

self.trule = trule

self.headers = ''

self.urls_done = []

self.urls_will = []

self.spider_data = {}

@staticmethod

def handle_flag(str):

"""

去除字符串中的style样式标签

:param html:

:return:

"""

pattern = re.compile(r' style=".*?;"', re.S)

return pattern.sub('', str)

async def get_html(self, url, session):

"""

根据url,返回html

:param url:

:return:

"""

try:

async with session.get(url, headers=self.headers, timeout=5) as resp:

if resp.status in [200, 201]:

data = await resp.text()

return

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值