爬取腾讯网的世界疫情实时数据

  1. 数据格式在这里插入图片描述

  2. 主函数代码
    在这里插入图片描述

  3. 爬取数据结果
    在这里插入图片描述

  4. 完整代码

import csv, requests  # 导入请求模块
import pymysql


def save_html(a):
    db = pymysql.connect('localhost', 'root', 'root', 'spider', charset='utf8')
    cursor = db.cursor()
    ins = 'insert into coronavirus values(%s, %s,%s, %s, %s, %s, %s)'
    cursor.execute(ins, a)
    db.commit()
    cursor.close()


class A(object):
    def __init__(self):  # 定义获取数据并写入csv文件里的函数
        url = "https://api.inews.qq.com/newsqa/v1/automation/foreign/country/ranklist"  # 请求网址
        response = requests.get(url).json()  # 发出请求并json化处理
        data = response['data']  # 提取数据部分

        for i in range(16):
            print(data[i])
            print(data[i]['name'], data[i]['confirm'], data[i]['confirmAdd'])

        with open("CoronavirusData.csv", "w+", newline="") as json_file:
            writer = csv.writer(json_file)
            header = ["date", "state", "continent", "confirm", "confirmAdd", "suspect", "dead", "heal"]  # 定义表头
            writer.writerow(header)
            for i in range(len(data)):
                data_row1 = [data[i]["date"], data[i]["name"], data[i]["continent"], data[i]["confirm"],
                             data[i]["confirmAdd"],
                             data[i]["suspect"], data[i]["dead"], data[i]["heal"]]
                writer.writerow(data_row1)
                save_html(data_row1)


if __name__ == "__main__":
    spider = A()
    spider.__init__()
在这里插入代码片
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值