python爬虫小例子

爬取观察者网,并将爬取内容以csv格式存储

# 导入模块
import requests
import csv

# 新建csv文件并打开文件
csv_file = open('articles.csv', 'w', newline='', encoding='utf-8')

# 用csv.writer()方法创建一个writer对象
writer = csv.writer(csv_file)

# 用writer.writerow()方法写入表头
writer.writerow(['标题', '链接'])

# 设置爬取链接
url = "https://user.guancha.cn/main/search-v2"

# 设置循环页数
for page in range(1, 4):
    
    # 封装参数
    params = {'page': page, 'type': 'search_news',
              'order': '1', 'keyword': '足球'}

    # 设置请求头
    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.128 Safari/537.36'}

    # 发送请求,并把响应内容赋值到变量res
    res = requests.get(url, params=params, headers=headers)

    # 将json格式的数据转成字典
    articles = res.json()

    # 提取所有的新闻数据
    data = articles['data']['items']

    # 遍历 data 列表,提取出里面的新闻标题与链接
    for i in data:

        # 取出行数据,放到列表里
        row = [i['title'], i['url']]

        # 打印行数据
        print(row)

        # 写入行数据
        writer.writerow(row)

# 关闭文件
csv_file.close()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值